JP2012133530A - On-vehicle device - Google Patents

On-vehicle device Download PDF

Info

Publication number
JP2012133530A
JP2012133530A JP2010284482A JP2010284482A JP2012133530A JP 2012133530 A JP2012133530 A JP 2012133530A JP 2010284482 A JP2010284482 A JP 2010284482A JP 2010284482 A JP2010284482 A JP 2010284482A JP 2012133530 A JP2012133530 A JP 2012133530A
Authority
JP
Japan
Prior art keywords
vehicle
speaker
service
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010284482A
Other languages
Japanese (ja)
Inventor
Toshiyuki Aga
俊幸 阿賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010284482A priority Critical patent/JP2012133530A/en
Publication of JP2012133530A publication Critical patent/JP2012133530A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a service suitable for each composition of passengers even when person(s) other than a driver is/are in a vehicle.SOLUTION: In a control device 11 of an on-vehicle device 10, an on-vehicle microphone 12 collects voices generated in a vehicle, a seat sensor 19 identifies seating positions, a speaker estimation part 31 estimates each speaker based on each voice and each seating position, a conversation content estimation part 32 estimates a conversation content based on the voices, a passenger composition estimation part 33 estimates a passenger composition based on the seating positions, the speakers and the conversation content, an action purpose estimation part 34 estimates an action purpose based on the conversation content and the passenger composition, and a recommended service determination part 35 determines a recommended service based on the passenger composition and the action purpose.

Description

本発明は、例えば音楽や映像の再生サービスなど種々のサービスを提供する機能を備えた車載装置に関する。   The present invention relates to an in-vehicle device having a function of providing various services such as music and video playback services.

この種の車載装置においては、より最適なサービスを提供することが望まれており、例えば特許文献1に記載の装置は、車両の運転者が発する音声に基づいて当該運転者の心理状態を推定し、その心理状態に応じた楽曲を自動再生するように構成されている。この構成によれば、車両の運転者に最適なサービスを提供することができる。
ところで、車両に乗車する乗員は、運転者1人のみに限られず、乗員の構成としては、例えば、カップル、友人、家族、仕事仲間など様々なシチュエーションが考えられる。このように運転者以外の者が乗車している場合に、上記特許文献1の構成により運転者のみに最適なサービスを提供してしまうと、運転者を満足させることはできたとしても、他の同乗者をも満足させることができるとは限らない。場合によっては、提供した運転者向けのサービスにより他の同乗者に不快感を与えてしまうおそれもある。
In this type of in-vehicle device, it is desired to provide a more optimal service. For example, the device described in Patent Literature 1 estimates the driver's psychological state based on voices emitted by the driver of the vehicle. The music is automatically reproduced according to the psychological state. According to this configuration, an optimal service can be provided to the vehicle driver.
By the way, the occupant who gets into the vehicle is not limited to only one driver, and as the occupant configuration, various situations such as a couple, friends, family, and work associates are conceivable. In this way, when a person other than the driver is on board, if the optimum service is provided only to the driver by the configuration of the above-mentioned Patent Document 1, even if the driver can be satisfied, It is not always possible to satisfy passengers. In some cases, the provided service for the driver may cause discomfort to other passengers.

特開2006−92430号公報JP 2006-92430 A

そこで、本発明の目的は、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる車載装置を提供することにある。   Accordingly, an object of the present invention is to provide an in-vehicle device that can provide an optimum service for the passenger configuration at that time even when a person other than the driver is on the vehicle.

請求項1の車載装置によれば、音声収集手段は、車内に発生した音声を収集する。着座位置特定手段は、車内において乗員が着座した座席の位置を着座位置として特定する。発話者推定手段は、音声収集手段が収集した音声、および、着座位置特定手段が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する。会話内容推定手段は、音声収集手段が収集した音声に基づいて、発話者による会話の内容を推定する。乗員構成推定手段は、着座位置特定手段が特定した着座位置、発話者推定手段が推定した発話者、および、会話内容推定手段が推定した会話内容に基づいて、車内に存在する乗員の構成を推定する。行動目的推定手段は、会話内容推定手段が推定した会話内容、および、乗員構成推定手段が推定した乗員構成に基づいて、車内に存在する乗員の行動目的を推定する。レコメンドサービス決定手段は、乗員構成推定手段が推定した乗員構成、および、行動目的推定手段が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定する。
これにより、車内に存在する乗員の構成、さらには、その乗員の行動目的に応じたサービスが提供されるようになり、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる。
According to the in-vehicle device of the first aspect, the voice collecting means collects the voice generated in the vehicle. The seating position specifying means specifies the position of the seat where the occupant is seated in the vehicle as the seating position. The speaker estimation unit estimates a speaker among passengers present in the vehicle based on the voice collected by the voice collection unit and the seating position specified by the seating position specification unit. The conversation content estimation means estimates the content of the conversation by the speaker based on the voice collected by the voice collection means. The occupant configuration estimating means estimates the configuration of the occupant existing in the vehicle based on the sitting position specified by the sitting position specifying means, the speaker estimated by the speaker estimating means, and the conversation content estimated by the conversation content estimating means. To do. The behavioral purpose estimation means estimates the behavioral purpose of the occupant existing in the vehicle based on the conversation content estimated by the conversation content estimation means and the occupant configuration estimated by the occupant configuration estimation means. The recommended service determining unit determines a recommended service as a recommended service based on the occupant configuration estimated by the occupant configuration estimating unit and the behavior purpose estimated by the behavior purpose estimation unit.
As a result, it is possible to provide services according to the configuration of the passengers present in the vehicle and the purpose of action of the passengers, even if a person other than the driver is on the vehicle. It is possible to provide the optimal service for the passenger configuration at the time.

請求項2の車載装置によれば、声紋パターン蓄積手段は、過去に車両に乗車した乗員の声紋パターンを蓄積する。そして、発話者推定手段は、音声収集手段が収集した音声の声紋パターンと声紋パターン蓄積手段が蓄積する声紋パターンとを照合することにより、発話者を推定する。
これにより、発話者推定手段による発話者の推定精度を向上することができる。
According to the in-vehicle device of the second aspect, the voice print pattern storage means stores the voice print pattern of the passenger who has boarded the vehicle in the past. The speaker estimation unit estimates the speaker by comparing the voice print pattern collected by the voice collection unit with the voice print pattern stored by the voice print pattern storage unit.
Thereby, the estimation accuracy of the speaker by the speaker estimation means can be improved.

この場合、請求項3の車載装置のように、声紋パターン蓄積手段は、頻度が最も多い声紋パターンを車両の所有者の声紋パターンとして蓄積する構成とするとよい。
このように声紋パターン蓄積手段による声紋パターンの蓄積機能に学習機能を備えることにより、発話者が特定の者(この場合、車両の所有者)である場合における当該発話者の推定精度を一層向上することができる。
In this case, as in the in-vehicle device according to the third aspect, the voice print pattern storage means may be configured to store the voice print pattern having the highest frequency as the voice print pattern of the owner of the vehicle.
Thus, by providing the learning function in the voiceprint pattern storage function by the voiceprint pattern storage means, the estimation accuracy of the speaker is further improved when the speaker is a specific person (in this case, the owner of the vehicle). be able to.

請求項4の車載装置によれば、レコメンドサービス履歴蓄積手段は、レコメンドサービス決定手段が過去に決定したサービスを、そのときの乗員構成および行動目的に対応付けて蓄積する。そして、レコメンドサービス決定手段は、乗員構成推定手段が推定した乗員構成、および、行動目的推定手段が推定した行動目的に対応するサービスをレコメンドサービス履歴蓄積手段から抽出し、抽出したサービスをレコメンドサービスとして決定する。
これにより、過去において実際にレコメンドサービスとして決定され提供されたサービスが再び提供されるようになり、不適切なサービスが提供されてしまう可能性を極力低くすることができる。
According to the in-vehicle apparatus of the fourth aspect, the recommended service history accumulating unit accumulates the service determined by the recommended service determining unit in the past in association with the occupant configuration and the action purpose at that time. The recommended service determining means extracts the service corresponding to the occupant configuration estimated by the occupant configuration estimating means and the behavior purpose estimated by the behavior purpose estimating means from the recommended service history accumulating means, and the extracted service as the recommended service. decide.
As a result, the service actually determined and provided as the recommendation service in the past is provided again, and the possibility that an inappropriate service is provided can be reduced as much as possible.

本発明の一実施形態に係るものであり、車載装置の構成を概略的に示すブロック図The block diagram which concerns on one Embodiment of this invention and shows the structure of a vehicle-mounted apparatus roughly 声紋パターンデータの一例を示す図The figure which shows an example of voiceprint pattern data 発話者パターンデータの一例を示す図Diagram showing an example of speaker pattern data 会話内容パターンデータの一例を示す図Diagram showing an example of conversation content pattern data 乗員構成パターンデータの一例を示す図The figure which shows an example of crew member pattern data 行動目的パターンデータの一例を示す図The figure which shows an example of action purpose pattern data レコメンドパターンデータの一例を示す図The figure which shows an example of recommendation pattern data レコメンドサービス履歴データベースの構成の一例を示す図The figure which shows an example of a structure of recommendation service history database 発話者推定処理の内容を示すフローチャートFlow chart showing the contents of speaker estimation processing 会話内容推定処理の内容を示すフローチャートFlow chart showing the content of conversation content estimation processing 乗員構成推定処理の内容を示すフローチャートFlow chart showing the contents of passenger composition estimation processing 行動目的推定処理の内容を示すフローチャートFlow chart showing contents of action purpose estimation process レコメンドサービス抽出決定処理の内容を示すフローチャートThe flowchart which shows the contents of recommendation service extraction decision processing

以下、本発明の一実施形態について図面を参照しながら説明する。
図1に示すように、車載装置10は、例えば自動車などの車両に搭載され、制御装置11、車載マイク12(音声収集手段に相当)、車載スピーカ13、表示部14、ナビゲーション部15、操作スイッチ部16、外部メモリ17、通信部18、シートセンサ19(着座位置特定手段に相当)を含む車両情報検出部20、RTC21(Real Time Clock)、パターンデータ記憶部22、レコメンドサービス履歴データベース23などを備えている。
制御装置11は、図示しないCPU、ROMおよびRAMを有するマイクロコンピュータを主体として構成されている。車載装置10は、制御装置11のCPUにおいて制御プログラムを実行することにより、発話者推定部31(発話者推定手段に相当)、会話内容推定部32(会話内容推定手段に相当)、乗員構成推定部33(乗員構成推定手段に相当)、行動目的推定部34(行動目的推定手段に相当)、レコメンドサービス決定部35(レコメンドサービス決定手段に相当)、レコメンドサービス実行部36、パターンデータ蓄積処理部37(声紋パターン蓄積手段に相当)、レコメンドサービス履歴蓄積処理部38(レコメンドサービス履歴蓄積手段に相当)をソフトウェアによって仮想的に実現する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the in-vehicle device 10 is mounted on a vehicle such as an automobile, for example, and includes a control device 11, an in-vehicle microphone 12 (corresponding to sound collection means), an in-vehicle speaker 13, a display unit 14, a navigation unit 15, and an operation switch. Unit 16, external memory 17, communication unit 18, vehicle information detection unit 20 including seat sensor 19 (corresponding to seating position specifying means), RTC 21 (Real Time Clock), pattern data storage unit 22, recommendation service history database 23, etc. I have.
The control device 11 is mainly composed of a microcomputer having a CPU, ROM and RAM (not shown). The in-vehicle device 10 executes a control program in the CPU of the control device 11 so that a speaker estimation unit 31 (corresponding to a speaker estimation unit), a conversation content estimation unit 32 (corresponding to a conversation content estimation unit), and an occupant configuration estimation Unit 33 (corresponding to occupant configuration estimating means), behavioral purpose estimating unit 34 (corresponding to behavioral purpose estimating means), recommended service determining unit 35 (corresponding to recommended service determining means), recommended service executing unit 36, pattern data accumulation processing unit 37 (corresponding to voice print pattern storage means) and a recommendation service history storage processing unit 38 (corresponding to recommendation service history storage means) are virtually realized by software.

車載マイク12は、車内に発生した音声を収集し、収集した音声を音声信号に変換して制御装置11に入力する。制御装置11は、ソフトウェアによる処理(後述する声紋パターン抽出処理)を実行することにより、車載マイク12が収集した音声から発話者の声紋パターンを抽出可能に構成されている。また、制御装置11は、ソフトウェアによる処理(後述するーワード抽出処理)を実行することにより、車載マイク12が収集した音声から所定のキーワードを抽出可能に構成されている。
車載スピーカ13は、図示しない音声コントローラを介して制御装置11に接続されており、制御装置11からの音声出力信号に基づいて各種の音声を出力する。車載スピーカ13から出力される音声は、案内に関する音声、操作説明に関する音声、盗難防止機能の動作中であることを報知する音声、音声認識結果に応じたトークバック音声などのほか、音楽データに基づいて再生される音楽や映像データに基づいて再生される音声なども含まれる。
The in-vehicle microphone 12 collects sound generated in the vehicle, converts the collected sound into a sound signal, and inputs the sound signal to the control device 11. The control device 11 is configured to be able to extract the voice print pattern of the speaker from the voice collected by the in-vehicle microphone 12 by executing processing by software (voice print pattern extraction processing described later). In addition, the control device 11 is configured to be able to extract a predetermined keyword from the voice collected by the in-vehicle microphone 12 by executing a process (a word extraction process described later) by software.
The in-vehicle speaker 13 is connected to the control device 11 via a sound controller (not shown), and outputs various sounds based on a sound output signal from the control device 11. The sound output from the in-vehicle speaker 13 is based on music data in addition to the sound related to guidance, the sound related to the operation explanation, the sound notifying that the antitheft function is operating, the talkback sound corresponding to the sound recognition result, and the like. Also included are music played back and audio played back based on video data.

表示部14は、例えば液晶や有機ELなどのカラーディスプレイを有している。表示部14には、例えば経路案内用の画面、操作説明用の画面、各種の設定用の画面、映像データに基づいて再生される映像画面などが表示される。
ナビゲーション部15は、GPS(Global Positioning System)により車両の現在位置を測位するためにGPS衛星から送信される電波を受信するGPS受信器(図示せず)、地図データ記憶部に記憶されている地図データを入力する地図データ入力部(何れも図示せず)などを備えており、車両の現在位置および地図データに基づいて車両の経路案内を実行するものである。
The display unit 14 includes a color display such as a liquid crystal or an organic EL. The display unit 14 displays a route guidance screen, an operation explanation screen, various setting screens, a video screen reproduced based on video data, and the like.
The navigation unit 15 is a GPS receiver (not shown) that receives radio waves transmitted from GPS satellites to determine the current position of the vehicle by GPS (Global Positioning System), and a map stored in the map data storage unit. A map data input unit (not shown) for inputting data is provided, and the vehicle route guidance is executed based on the current position of the vehicle and the map data.

操作スイッチ部16は、表示部14の画面の近傍に設けられているメカニカルスイッチや、表示部14の画面に設けられているタッチパネルスイッチなどから構成されている。ユーザは、操作スイッチ部16の各スイッチを用いて、車両の経路案内の目的地、表示部14の画面や表示態様の切り替え(例えば、地図縮尺の変更、メニュー画面の選択、経路の探索、経路案内の開始、現在位置の修正および音量の調整など)を行う各種のコマンドの入力を行う。
外部メモリ17は、例えば着脱可能なハードディスクドライブやフラッシュメモリなどの記憶媒体によって構成されている。なお、外部メモリ17は、例えば車載装置10の制御装置11に設けられているRAMやEEPROMなどと共用してもよい。
The operation switch unit 16 includes a mechanical switch provided near the screen of the display unit 14, a touch panel switch provided on the screen of the display unit 14, and the like. The user uses each switch of the operation switch unit 16 to switch the destination of the vehicle route guidance, the screen of the display unit 14 and the display mode (for example, change of the map scale, selection of the menu screen, route search, route search). Input various commands to start guidance, correct the current position and adjust the volume.
The external memory 17 is configured by a storage medium such as a removable hard disk drive or flash memory. The external memory 17 may be shared with, for example, a RAM or an EEPROM provided in the control device 11 of the in-vehicle device 10.

通信部18は、例えば無線の通信回線を経由して、図示しない情報サーバとの間でデータ通信を行う。即ち、通信部18は、各種のデータの送信機能および受信機能を有する。
シートセンサ19は、車内において乗員が着座した座席の位置を着座位置として特定するものであり、車内の各座席(運転席、助手席、後部座席など)にそれぞれ備えられている。例えば、運転者が運転席に着座すると、当該運転席に備えられたシートセンサ19が着座信号を出力する。制御装置11は、この運転席のシートセンサ19から出力された着座信号に基づいて、着座位置として「運転席」を検出する。その他の席(助手席や後部座席など)についても、制御装置11は、同様にして着座位置を検出する。
The communication unit 18 performs data communication with an information server (not shown) via, for example, a wireless communication line. That is, the communication unit 18 has various data transmission functions and reception functions.
The seat sensor 19 specifies the position of the seat where the passenger is seated in the vehicle as the seating position, and is provided in each seat (driver's seat, passenger seat, rear seat, etc.) in the vehicle. For example, when the driver is seated in the driver's seat, the seat sensor 19 provided in the driver's seat outputs a seating signal. The control device 11 detects “driver's seat” as the seating position based on the seating signal output from the seat sensor 19 of the driver's seat. For other seats (passenger seat, rear seat, etc.), the control device 11 similarly detects the seating position.

車両情報検出部20は、各種の装置類(例えば、エンジン制御装置、ブレーキ制御装置、トランスミッション制御装置など)、各種のセンサ類(例えば、加速度センサ、速度センサ、アクセルセンサなど)、各種のスイッチ類(例えば、イグニッションスイッチ、ヘッドライトスイッチなど)を有する。なお、上述のシートセンサ19は、この車両情報検出部20を構成するセンサ類に含まれるものである。車両情報検出部20は、これら装置類、センサ類、スイッチ類などによって検出される各種の情報を車両情報として制御装置11に入力する。
RTC21は、例えば日付、時刻、経過時間など時間に関する情報を取得するための計時手段である。RTC21は、図示しない発信器が出力したクロックパルスのパルス数をカウントし、カウントしたカウント値が基準値に到達すると単位時間を示す単位時間信号を生成する。そして、RTC21は、生成した単位時間信号に基づいて端末時刻を生成する。
The vehicle information detection unit 20 includes various devices (for example, an engine control device, a brake control device, a transmission control device, etc.), various sensors (for example, an acceleration sensor, a speed sensor, an accelerator sensor, etc.), and various switches. (For example, an ignition switch, a headlight switch, etc.). The seat sensor 19 described above is included in the sensors constituting the vehicle information detection unit 20. The vehicle information detection unit 20 inputs various information detected by these devices, sensors, switches, and the like to the control device 11 as vehicle information.
The RTC 21 is a time measuring means for acquiring information related to time such as date, time, and elapsed time. The RTC 21 counts the number of clock pulses output from a transmitter (not shown), and generates a unit time signal indicating a unit time when the counted value reaches a reference value. And RTC21 produces | generates terminal time based on the produced | generated unit time signal.

パターンデータ記憶部22は、例えば、ハードディスクドライブやフラッシュメモリなどの記憶媒体で構成されている。このパターンデータ記憶部22には、この場合、図2に示す声紋パターンデータPD1、図3に示す発話者パターンデータPD2、図4に示す会話内容パターンデータPD3、図5に示す乗員構成パターンデータPD4、図6に示す行動目的パターンデータPD5、図7に示すレコメンドパターンデータPD6などの各種のパターンデータが構築されている。   The pattern data storage unit 22 is configured by a storage medium such as a hard disk drive or a flash memory, for example. In this case, the pattern data storage unit 22 stores the voiceprint pattern data PD1 shown in FIG. 2, the speaker pattern data PD2 shown in FIG. 3, the conversation content pattern data PD3 shown in FIG. 4, and the occupant configuration pattern data PD4 shown in FIG. Various pattern data such as action purpose pattern data PD5 shown in FIG. 6 and recommended pattern data PD6 shown in FIG. 7 are constructed.

声紋パターンデータPD1(図2参照)には、車載マイク12が収集した音声から抽出された声紋パターンが、その声紋パターンが得られたときに検出された各着座位置の検出回数、および、その声紋パターンの総抽出回数(着座位置の検出回数の総数)に対応付けられて格納される。例えば、「声紋パターンA」が得られたときに着座位置として「運転席」が検出されていれば、声紋パターンAに対応する運転席欄の着座位置検出回数が1だけカウントアップされ、これに伴い、総抽出回数も1だけカウントアップされる。着座位置として「助手席」や「後部座席」が検出されている場合も同様である。なお、この声紋パターンデータPD1の更新処理は、制御装置11が、パターンデータ蓄積処理部37によって実行するものである。即ち、パターンデータ蓄積処理部37は、過去に車両に乗車した乗員の声紋パターンを蓄積するものである。また、このパターンデータ蓄積処理部37は、声紋パターンデータPD1の更新処理のみならず、その他のパターンデータPD2〜PD6の更新処理も実行可能である。   In the voiceprint pattern data PD1 (see FIG. 2), the voiceprint pattern extracted from the voice collected by the in-vehicle microphone 12 includes the number of detections of each seating position detected when the voiceprint pattern is obtained, and the voiceprint. It is stored in association with the total number of pattern extractions (the total number of seating position detections). For example, if “driver's seat” is detected as the seating position when “voice pattern A” is obtained, the seating position detection count in the driver's seat column corresponding to the voiceprint pattern A is incremented by one. Accordingly, the total number of extractions is also incremented by one. The same applies when “passenger seat” or “rear seat” is detected as the seating position. Note that the update process of the voiceprint pattern data PD1 is executed by the pattern data storage processing unit 37 by the control device 11. That is, the pattern data accumulation processing unit 37 accumulates voice print patterns of passengers who have previously boarded the vehicle. Further, the pattern data storage processing unit 37 can execute not only the update process of the voiceprint pattern data PD1, but also the update process of the other pattern data PD2 to PD6.

発話者パターンデータPD2(図3参照)には、発話者の候補(例えば、車両の「所有者」、所有者の「家族」、所有者の「友人」、「他人」など)が、声紋パターン、および、発話者推定用の会話キーワードの各情報に対応付けられて格納される。この場合、「所有者」に対応する声紋パターン欄には、上述の声紋パターンデータPD1において頻度が最も多い声紋パターン(運転席欄の検出回数が最も多い声紋パターン、或いは、総抽出回数が最も多い声紋パターンであり、この場合、声紋パターンAが該当)が格納される。また、「家族」に対応する声紋パターン欄、および、「友人」に対応する声紋パターン欄には、上述の声紋パターンデータPD1において頻度(総抽出回数)が1回以上である声紋パターン、つまり、声紋パターンデータPD1に格納されている声紋パターンのうち「所有者」の声紋パターンを除く声紋パターン(この場合、声紋パターンAを除く声紋パターンであり、声紋パターンB,Cが該当)が格納される。なお、「他人」に対応する声紋パターンには、この場合、何れの声紋パターンも格納されない。即ち、この発話者パターンデータPD2は、声紋パターンデータPD1において頻度が多い声紋パターンであるほど、所有者との関係が近い者(所有者本人も含む)の声紋パターンであるとみなす構成である。   In the speaker pattern data PD2 (see FIG. 3), the speaker candidates (for example, “owner” of the vehicle, “family” of the owner, “friends” of the owner, “others”, etc.) , And stored in association with each piece of information of the conversation keyword for speaker estimation. In this case, in the voiceprint pattern column corresponding to “owner”, the voiceprint pattern having the highest frequency in the voiceprint pattern data PD1 described above (the voiceprint pattern having the highest number of detections in the driver's seat column or the highest number of total extractions). A voiceprint pattern, in this case, voiceprint pattern A) is stored. In the voice print pattern column corresponding to “family” and the voice print pattern column corresponding to “friend”, a voice print pattern having a frequency (total number of extractions) of one or more in the above voice print pattern data PD1, that is, Of the voiceprint patterns stored in the voiceprint pattern data PD1, voiceprint patterns excluding the “owner” voiceprint pattern (in this case, the voiceprint pattern excluding the voiceprint pattern A and corresponding to the voiceprint patterns B and C) are stored. . In this case, any voice print pattern corresponding to “other person” is not stored. That is, the speaker pattern data PD2 is considered to be a voiceprint pattern of a person (including the owner himself) who has a closer relationship with the owner as the voiceprint pattern dataF1 has a higher frequency.

また、この場合、「所有者」,「友人」,「他人」に対応する発話者推定用の会話キーワード欄には、何れのキーワードも格納されないが、「家族」に対応する発話者推定用の会話キーワード欄には、家族の呼称(例えば、家族の名前、家族に関連する呼び名(お父さん、お母さんなど)、家族のあだ名など)がキーワードとして格納される。なお、「家族」以外の発話者に対応する発話者推定用の会話キーワード欄に、適当なキーワードを格納することも当然に可能である。   In this case, no keyword is stored in the conversation keyword column for estimating the speaker corresponding to “owner”, “friend”, or “other”, but for estimating the speaker corresponding to “family”. In the conversation keyword field, family names (for example, family names, names related to the family (such as father and mother), family nicknames, etc.) are stored as keywords. It is naturally possible to store an appropriate keyword in the conversation keyword column for estimating a speaker corresponding to a speaker other than “family”.

会話内容パターンデータPD3(図4参照)には、会話内容(例えば、「仕事関係」、「家庭関係」、「趣味関係」、「レジャー関係」、「その他」)が、会話内容推定用の会話キーワードに対応付けられて格納される。この場合、「仕事関係」に対応する会話内容推定用の会話キーワード欄には、役職名(例えば、「社長」、「部長」、「課長」)、企業名(例えば、「○○株式会社」、「△△事務所」)、ビジネス単語(例えば、「取引」、「納期」、「契約」、 「打合せ」)などがキーワードとして格納される。「家庭関係」に対応する会話内容推定用の会話キーワード欄には、家族の呼称がキーワードとして格納される。「趣味関係」に対応する会話内容推定用の会話キーワード欄には、映画の名称、楽曲の名称、スポーツ用語などがキーワードとして格納される。「レジャー関係」に対応する会話内容推定用の会話キーワード欄には、観光名所の名称、娯楽施設の名称、宿泊施設の名称などがキーワードとして格納される。なお、「その他」に対応する会話内容推定用の会話キーワード欄には、この場合、何れのキーワードも格納されないが、適当なキーワードを格納することも当然に可能である。   In the conversation content pattern data PD3 (see FIG. 4), the conversation content (for example, “work relationship”, “home relationship”, “hobby relationship”, “leisure relationship”, “others”) includes the conversation content estimation conversation. Stored in association with the keyword. In this case, in the conversation keyword column for estimating conversation contents corresponding to “work relation”, the title (for example, “president”, “department manager”, “section manager”), company name (for example, “XX Corporation”) , “ΔΔ office”), business words (for example, “transaction”, “delivery date”, “contract”, “meeting”) and the like are stored as keywords. The name of the family is stored as a keyword in the conversation keyword column for estimating the conversation content corresponding to “family relations”. In the conversation keyword column for estimating conversation contents corresponding to “hobby relation”, the name of a movie, the name of a song, sports terms, and the like are stored as keywords. In the conversation keyword column for estimating conversation contents corresponding to “leisure relation”, the name of a tourist attraction, the name of an entertainment facility, the name of an accommodation facility, and the like are stored as keywords. In this case, no keyword is stored in the conversation keyword column for estimating the conversation content corresponding to “others”, but it is naturally possible to store an appropriate keyword.

乗員構成パターンデータPD4(図5参照)には、乗員構成の候補(例えば、乗員が1人の場合の構成として「所有者(1人)」,「所有者以外の者(1人)」など、乗員が2人の場合の構成として「カップル(2人)」,「夫婦(2人)」など、乗員が3人以上の構成として「家族(3人以上)」,「友人(3人以上)」,「仕事関係者(3人以上)」など)が、着座位置、発話者、および、会話内容の各情報に対応付けられて格納されている。この場合、例えば「所有者(1人)」に対応する着座位置欄には「運転席」が格納され、発話者欄には「所有者」が格納され,会話内容欄には何れの条件も格納されない。また、例えば「家族(3人以上)」に対応する着座位置欄には「運転席」,「助手席」,「後部座席」が格納され、発話者欄には「家族」が格納され、会話内容欄には「家庭関係」が格納される。   In the occupant configuration pattern data PD4 (see FIG. 5), occupant configuration candidates (for example, “owner (1 person)”, “non-owner (1 person)”, etc.) In the case of two passengers, “Couple (two)”, “Couple (two)”, etc., “Family (three or more)”, “Friends (three or more) ) "," Work-related persons (three or more) ", etc.) are stored in association with each information of the sitting position, the speaker, and the conversation content. In this case, for example, “driver's seat” is stored in the seating position column corresponding to “owner (one person)”, “owner” is stored in the speaker column, and any condition is set in the conversation content column. Not stored. In addition, for example, “driver's seat”, “passenger seat”, and “rear seat” are stored in the seating position column corresponding to “family (three or more)”, and “family” is stored in the speaker column. In the content column, “family relations” is stored.

行動目的パターンデータPD5(図6参照)には、行動目的の候補(例えば、「帰宅」,「レジャー」,「旅行」,「送迎」など)が、会話内容、乗員構成、目的地、曜日、運転時間(車両が走行を開始してからの経過時間)の各情報に対応付けられて格納されている。この場合、例えば「帰宅」に対応する乗員構成欄には「所有者(1人)」,「夫婦(2人)」,「家族(3人以上)」が格納され、目的地欄には「自宅」が格納され、会話内容欄、曜日欄、運転時間欄には何れの条件も格納されない。また、例えば、「送迎」に対応する乗員構成欄には「夫婦(2人)」が格納され、会話内容欄には「仕事関係」,「家庭関係」が格納され、目的地欄には「交通施設」が格納され、曜日欄には平日である「月曜日」,「火曜日」,「水曜日」,「木曜日」,「金曜日」が格納され、運転時間欄には何れの条件も格納されない。   In the action purpose pattern data PD5 (see FIG. 6), the action purpose candidates (for example, “return home”, “leisure”, “travel”, “pick-up”, etc.) include the conversation contents, crew composition, destination, day of the week, It is stored in association with each piece of information of driving time (elapsed time since the vehicle started traveling). In this case, for example, “Owner (1 person)”, “Couple (2 persons)”, “Family (3 persons or more)” are stored in the passenger composition field corresponding to “Return home”, and “ "Home" is stored, and no condition is stored in the conversation content column, day of week column, and driving time column. Further, for example, “couple (two people)” is stored in the passenger composition column corresponding to “pick-up”, “work relationship” and “family relationship” are stored in the conversation content column, and “ “Transportation facility” is stored, “Monday”, “Tuesday”, “Wednesday”, “Thursday”, and “Friday”, which are weekdays, are stored in the day of week column, and no conditions are stored in the driving time column.

レコメンドパターンデータPD6(図7参照)には、レコメンドサービスの候補が、乗員構成、および、行動目的の各情報に対応付けられて格納されている。この場合、レコメンドサービスは、最優先レコメンドサービス、次優先レコメンドサービス、次々優先レコメンドサービスに分割して構成されており、例えば、乗員構成欄が「所有者(1人)」であり、且つ、行動目的欄が「帰宅」である場合における最優先レコメンドサービスには「好感レコメンドサービス」が格納され、次優先レコメンドサービスには「音楽再生」が格納され、次々優先レコメンドサービスには「映像再生」が格納されている。また、例えば、乗員構成欄が「家族(3人以上)」であり、且つ、行動目的欄が「帰宅」,「レジャー」,「旅行」の何れかである場合における最優先レコメンドサービスには「好感レコメンドサービス」が格納され、次優先レコメンドサービスには「映像再生」が格納され、次々優先レコメンドサービスには「音楽再生」が格納されている。なお、この図7に示す「目的地情報提供」は、ナビゲーション部15を介して設定された目的地に関する情報(例えば、その目的地において開催されているイベント情報や、その目的地の営業時間など)を表示部14や車載スピーカ13を介して出力(提供)するサービスである。また、「道路情報提供」は、各道路に発生している渋滞情報、交通規制情報、事故情報などを表示部14や車載スピーカ13を介して出力(提供)するサービスである。   In the recommendation pattern data PD6 (see FIG. 7), candidates for recommendation services are stored in association with information on the occupant configuration and behavioral purpose. In this case, the recommendation service is divided into the highest priority recommendation service, the next priority recommendation service, and the next priority recommendation service. For example, the occupant configuration column is “owner (one person)” and the action When the purpose column is “Return home”, “Favorite recommendation service” is stored in the highest priority recommendation service, “Music playback” is stored in the next priority recommendation service, and “Video playback” is stored in the priority priority service one after another. Stored. Further, for example, when the occupant configuration column is “family (3 or more)” and the action purpose column is “return home”, “leisure”, or “travel”, the highest priority recommendation service is “ “Favorite recommendation service” is stored, “Video playback” is stored in the next priority recommendation service, and “Music playback” is stored in the priority priority recommendation service one after another. The “destination information provision” shown in FIG. 7 is information related to the destination set via the navigation unit 15 (for example, event information held at the destination, business hours of the destination, etc. ) Is output (provided) via the display unit 14 or the in-vehicle speaker 13. “Road information provision” is a service that outputs (provides) traffic information, traffic regulation information, accident information, and the like occurring on each road via the display unit 14 and the in-vehicle speaker 13.

次に、レコメンドサービス履歴データベース23について説明する。レコメンドサービス履歴データベース23は、後述するレコメンドサービス抽出決定処理によって決定されたレコメンドサービスを蓄積するためのデータベースである。このレコメンドサービス履歴データベース23により、過去に車内に提供されたレコメンドサービスの履歴を把握することができる。ここで、このレコメンドサービス履歴データベース23の構成について図8を参照しながら説明する。   Next, the recommended service history database 23 will be described. The recommended service history database 23 is a database for accumulating recommended services determined by a recommended service extraction determination process described later. With this recommendation service history database 23, it is possible to grasp the history of the recommendation service provided in the vehicle in the past. Here, the configuration of the recommendation service history database 23 will be described with reference to FIG.

このレコメンドサービス履歴データベース23には、後述するレコメンドサービス抽出決定処理によって決定されたレコメンドサービス、つまり、過去に車内に実際に提供されたレコメンドサービス(提供レコメンドサービス)が、乗員構成(そのレコメンドサービスが提供されたときにおける推定乗員構成)、および、行動目的(そのレコメンドサービスが提供されたときにおける推定行動目的)、さらに日付(そのレコメンドサービスを提供したときの日付)、時刻(そのレコメンドサービスを提供したときの時刻)、および、好感度の各情報に対応付けられて格納されている。なお、好感度は、実際に車内に提供されたレコメンドサービスに対して車両の乗員がどの程度の好感を持ったか(気に入ったか)を示す情報である。制御装置11は、例えば、提供したサービスが、提供直後(提供後の所定時間内)に停止された場合には好感度欄に「嫌い」を示す情報(この場合、度数「1」)を格納し、サービスを例えば半分以上提供した段階で停止された場合には好感度欄に「普通」を示す情報(この場合、度数「2」)を格納し、サービスを最後まで実行した場合には好感度欄に「好き」を示す情報(この場合、度数「3」)を格納する。なお、このレコメンドサービス履歴データベース23の更新処理は、制御装置11が、レコメンドサービス履歴蓄積処理部38によって実行するものである。即ち、レコメンドサービス履歴蓄積処理部38は、レコメンドサービス決定部35が過去に決定したサービスを、そのときの乗員構成(そのときにおける推定乗員構成)および行動目的(そのときにおける推定行動目的)に対応付けて蓄積するものである。   In the recommendation service history database 23, a recommendation service determined by a recommendation service extraction determination process, which will be described later, that is, a recommendation service (provided recommendation service) actually provided in the vehicle in the past, is displayed in the passenger configuration (the recommendation service is the recommendation service). Estimated occupant composition when provided), action purpose (estimated action purpose when the recommended service was provided), date (date when the recommended service was provided), time (provided the recommended service) Time) and the information on the favorability are stored in association with each other. The likability is information indicating how much the occupant of the vehicle has (liked) the recommendation service actually provided in the vehicle. For example, when the provided service is stopped immediately after provision (within a predetermined time after provision), the control device 11 stores information indicating “dislike” (in this case, the frequency “1”) in the likability column. For example, when the service is stopped at a stage where more than half of the service is provided, information indicating “normal” (in this case, frequency “2”) is stored in the preference field, and when the service is executed to the end, it is preferable. Information indicating “like” (in this case, frequency “3”) is stored in the sensitivity column. The update process of the recommended service history database 23 is executed by the recommended service history storage processing unit 38 by the control device 11. In other words, the recommended service history accumulation processing unit 38 corresponds to the service determined in the past by the recommended service determining unit 35 in accordance with the occupant configuration at that time (estimated occupant configuration at that time) and the action purpose (the estimated action purpose at that time). It will be added and accumulated.

次に、発話者推定部31について説明する。発話者推定部31は、車載マイク12によって収集された音声、および、シートセンサ19によって特定された着座位置に基づいて、車内に存在する乗員のうち「発話者」を推定するものである。ここで、制御装置11がこの発話者推定部31によって実行する発話者推定処理について図9を参照しながら説明する。   Next, the speaker estimation unit 31 will be described. The speaker estimation unit 31 estimates “speaker” among passengers in the vehicle based on the voice collected by the in-vehicle microphone 12 and the seating position specified by the seat sensor 19. Here, a speaker estimation process executed by the speaker estimation unit 31 by the control device 11 will be described with reference to FIG.

制御装置11は、声紋パターン抽出処理を実行することにより、車載マイク12から入力された音声信号から発話者の声紋パターンを抽出する(ステップA1)。次に、制御装置11は、声紋パターンのマッチング処理を実行する(ステップA2)。このマッチング処理では、制御装置11は、上述の声紋パターン抽出処理(ステップA1参照)によって抽出した声紋パターンが声紋パターンデータPD1に存在するか否かを検索する。次に、制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在したか否かを判断する(ステップA3)。   The control device 11 extracts the voice print pattern of the speaker from the voice signal input from the in-vehicle microphone 12 by executing the voice print pattern extraction process (step A1). Next, the control device 11 executes voice print pattern matching processing (step A2). In this matching process, the control device 11 searches whether or not the voice print pattern extracted by the voice print pattern extraction process (see step A1) is present in the voice print pattern data PD1. Next, the control device 11 determines whether or not the corresponding voice print pattern exists in the voice print pattern data PD1 (step A3).

制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在した場合(ステップA3:YES)には、キーワード抽出処理を実行する(ステップA4)。一方、制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在しない場合(ステップA3:NO)には、ステップA1の処理(声紋パターン抽出処理)によって抽出した声紋パターンを新たに声紋パターンデータPD1に格納(追加)するための更新処理(ステップA5)を実行し、その後、キーワード抽出処理を実行する(ステップA4)。   When the corresponding voice print pattern exists in the voice print pattern data PD1 (step A3: YES), the control device 11 executes a keyword extraction process (step A4). On the other hand, when the corresponding voiceprint pattern does not exist in the voiceprint pattern data PD1 (step A3: NO), the control device 11 newly extracts the voiceprint pattern extracted by the process of step A1 (voiceprint pattern extraction process). Update processing (step A5) for storing (adding) in PD1 is executed, and then keyword extraction processing is executed (step A4).

キーワード抽出処理では、制御装置11は、車載マイク12が収集した音声から所定のキーワード(この場合、発話者パターンデータPD2の発話者推定用の会話キーワード欄に格納されているキーワード)を抽出する。なお、車載マイク12が収集した音声の内容によっては、このキーワード抽出処理によって何れのキーワードも抽出されない場合もある。   In the keyword extraction process, the control device 11 extracts a predetermined keyword (in this case, a keyword stored in the conversation keyword column for speaker estimation in the speaker pattern data PD2) from the voice collected by the in-vehicle microphone 12. Depending on the content of the voice collected by the in-vehicle microphone 12, no keyword may be extracted by this keyword extraction process.

次に、制御装置11は、発話者のマッチング処理を実行する(ステップA5)。この発話者のマッチング処理では、制御装置11は、発話者パターンデータPD2の声紋パターン欄に格納されている声紋パターンが声紋パターン抽出処理(ステップA1参照)によって抽出された声紋パターンに一致し、且つ、発話者推定用の会話キーワード欄に格納されているキーワードがキーワード抽出処理(ステップA4参照)によって抽出されたキーワードに一致するデータを検索する。そして、制御装置11は、検索されたデータの発話者欄に格納されている者を、現在の車内に存在する「発話者」として推定する。例えば、抽出された声紋パターンが声紋パターンAであり、且つ、キーワードが抽出されなかった場合には、制御装置11は、「所有者」を「発話者」として推定する。制御装置11は、発話者のマッチング処理を完了すると、この発話者推定処理を終了する。   Next, the control device 11 executes speaker matching processing (step A5). In this speaker matching process, the control device 11 matches the voiceprint pattern stored in the voiceprint pattern field of the speaker pattern data PD2 with the voiceprint pattern extracted by the voiceprint pattern extraction process (see step A1), and The data stored in the conversation keyword column for speaker estimation is searched for data that matches the keyword extracted by the keyword extraction process (see step A4). And the control apparatus 11 estimates the person stored in the speaker column of the searched data as "speaker" which exists in the present vehicle. For example, when the extracted voiceprint pattern is the voiceprint pattern A and no keyword is extracted, the control device 11 estimates “owner” as “speaker”. When completing the speaker matching process, the control device 11 ends the speaker estimation process.

次に、会話内容推定部32について説明する。会話内容推定部32は、車載マイク12によって収集された音声に基づいて、上述の発話者推定処理によって推定された発話者による「会話の内容」を推定するものである。ここで、制御装置11がこの会話内容推定部32によって実行する会話内容推定処理について図10を参照しながら説明する。   Next, the conversation content estimation unit 32 will be described. The conversation content estimation unit 32 estimates the “conversation content” by the speaker estimated by the above-described speaker estimation process based on the voice collected by the in-vehicle microphone 12. Here, the conversation content estimation processing executed by the control content 11 by the conversation content estimation unit 32 will be described with reference to FIG.

制御装置11は、キーワード抽出処理を実行することにより、車載マイク12が収集した音声から所定のキーワード(この場合、会話内容パターンデータPD3の会話内容推定用の会話キーワードに格納されているキーワード)を抽出する。なお、車載マイク12が収集した音声の内容によっては、このキーワード抽出処理によって何れのキーワードも抽出されない場合もある。   The control device 11 executes a keyword extraction process to obtain a predetermined keyword (in this case, a keyword stored in the conversation keyword for conversation content estimation in the conversation content pattern data PD3) from the voice collected by the in-vehicle microphone 12. Extract. Depending on the content of the voice collected by the in-vehicle microphone 12, no keyword may be extracted by this keyword extraction process.

次に、制御装置11は、会話内容のマッチング処理を実行する(ステップB2)。この会話内容のマッチング処理では、制御装置11は、会話内容パターンデータPD3の会話内容推定用の会話キーワード欄に格納されているキーワードがキーワード抽出処理(ステップB1参照)によって抽出されたキーワードに一致するデータを検索する。そして、制御装置11は、検索されたデータの会話内容欄に格納されている内容を、現在の車内における「会話内容」として推定する。例えば、抽出されたキーワードが役職名、企業名、ビジネス単語などである場合には、制御装置11は、「仕事関係」を「会話内容」として推定する。制御装置11は、この会話内容のマッチング処理を完了すると、この会話内容推定処理を終了する。   Next, the control device 11 executes a conversation content matching process (step B2). In this conversation content matching process, the control device 11 matches the keyword stored in the conversation keyword column for conversation content estimation of the conversation content pattern data PD3 with the keyword extracted by the keyword extraction process (see step B1). Search for data. And the control apparatus 11 estimates the content stored in the conversation content column of the searched data as "conversation content" in the present vehicle. For example, when the extracted keyword is a job title, a company name, a business word, or the like, the control device 11 estimates “work relation” as “conversation content”. When completing the conversation content matching process, the control device 11 ends the conversation content estimation process.

次に、乗員構成推定部33について説明する。この乗員構成推定部33は、シートセンサ19によって特定された着座位置、上述の発話者推定処理によって推定された発話者、および、上述の会話内容推定処理によって推定された会話内容に基づいて、車内に存在する「乗員の構成」を推定するものである。ここで、制御装置11がこの乗員構成推定部33によって実行する乗員構成推定処理について図11を参照しながら説明する。   Next, the occupant configuration estimation unit 33 will be described. The occupant configuration estimation unit 33 is configured to determine whether the passenger is in the vehicle based on the seating position specified by the seat sensor 19, the speaker estimated by the speaker estimation process described above, and the conversation content estimated by the conversation content estimation process. The "occupant composition" that exists in is estimated. Here, an occupant configuration estimation process executed by the occupant configuration estimation unit 33 by the control device 11 will be described with reference to FIG.

この乗員構成推定処理では、制御装置11は、乗員構成のマッチング処理を実行する(ステップC1)。この乗員構成のマッチング処理では、制御装置11は、乗員構成パターンデータPD4の着座位置欄に格納されている着座位置がシートセンサ19からの入力信号によって特定された着座位置に一致し、発話者欄に格納されている発話者が上述の発話者推定処理によって推定された発話者に一致し、さらに、会話内容欄に格納されている会話内容が上述の会話内容推定処理によって推定された会話内容に一致するデータを検索する。そして、制御装置11は、検索されたデータの乗員構成欄に格納されている構成を、現在の車内の「乗員構成」として推定する。例えば、特定された着座位置が「運転席」,「助手席」,「後部座席」の3種の座席であって、推定された発話者が「家族」であって、さらに、推定された会話内容が「家庭関係」である場合には、制御装置11は、「家族(3人以上)」を「乗員構成」として推定する。制御装置11は、この乗員構成のマッチング処理を完了すると、この乗員構成推定処理を終了する。   In this occupant configuration estimation process, the control device 11 executes an occupant configuration matching process (step C1). In this occupant configuration matching process, the control device 11 matches the seating position stored in the seating position column of the occupant configuration pattern data PD4 with the seating position specified by the input signal from the seat sensor 19, and the speaker column Is the same as the speaker estimated by the above-described speaker estimation processing, and the conversation content stored in the conversation content column is changed to the conversation content estimated by the above-described conversation content estimation processing. Search for matching data. Then, the control device 11 estimates the configuration stored in the occupant configuration column of the retrieved data as the “occupant configuration” in the current vehicle. For example, the specified seating positions are “driver's seat”, “passenger seat”, and “rear seat”, the estimated speaker is “family”, and the estimated conversation When the content is “family relation”, the control device 11 estimates “family (three or more)” as “occupant composition”. When completing the occupant configuration matching process, the control device 11 ends the occupant configuration estimation process.

次に、行動目的推定部34について説明する。この行動目的推定部34は、上述の会話内容推定処理によって推定された会話内容、および、上述の乗員構成推定処理によって推定された乗員構成に基づいて、車内に存在する乗員の「行動目的」を推定するものである。ここで、制御装置11がこの行動目的推定部34によって実行する行動目的推定処理について図12を参照しながら説明する。   Next, the behavior purpose estimation unit 34 will be described. The behavior purpose estimation unit 34 determines the “action purpose” of the occupant existing in the vehicle based on the conversation content estimated by the conversation content estimation process described above and the occupant configuration estimated by the occupant composition estimation process. To be estimated. Here, the behavioral purpose estimation process executed by the behavioral purpose estimation unit 34 by the control device 11 will be described with reference to FIG.

この行動目的推定処理では、制御装置11は、行動目的のマッチング処理を実行する(ステップD1)。この行動目的のマッチング処理では、制御装置11は、行動目的パターンデータPD5の会話内容欄に格納されている会話内容が上述の会話内容推定処理によって推定された会話内容に一致し、乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、さらに、目的地欄に格納されている目的地がナビゲーション部15を介して設定された目的地に一致し、曜日欄に格納されている曜日が現時点における曜日に一致し、運転時間欄に格納されている運転時間が現時点における運転時間に該当するデータを検索する。そして、制御装置11は、検索されたデータの行動目的欄に格納されている内容を、現在の車内に存在する乗員の「行動目的」として推定する。例えば、推定された会話内容が「無い」場合であって、推定された乗員構成が「カップル(2人)」,「夫婦(2人)」,「家族(3人以上)」,「友人(3人以上)」の何れかであって、設定された目的地が「観光名所」または「宿泊施設」であって、現時点の曜日が「土曜日」,「日曜日」,「祝日」の何れかであって、現時点の運転時間が「2時間以上」である場合には、制御装置11は、「旅行」を行動目的として推定する。制御装置11は、この行動目的のマッチング処理を完了すると、この行動目的推定処理を終了する。   In this behavior purpose estimation process, the control device 11 executes a behavior purpose matching process (step D1). In this behavioral purpose matching process, the control device 11 matches the conversation content stored in the conversation content column of the behavioral purpose pattern data PD5 with the conversation content estimated by the above-described conversation content estimation process, and enters the occupant configuration field. The stored occupant configuration matches the occupant configuration estimated by the occupant configuration estimation process described above, and the destination stored in the destination column matches the destination set via the navigation unit 15. The day of the week stored in the day of the week column matches the day of the week at the present time, and the operation time stored in the operation time column is searched for data corresponding to the current operation time. And the control apparatus 11 estimates the content stored in the action purpose column of the searched data as "the action purpose" of the passenger | crew who exists in the present vehicle. For example, if there is no estimated conversation content and the estimated crew composition is “couple (2 people)”, “couple (2 people)”, “family (3 or more)”, “friends ( 3 ”or more), and the set destination is“ sightseeing spot ”or“ accommodation facility ”, and the current day of the week is“ Saturday ”,“ Sunday ”, or“ Holiday ” If the current driving time is “two hours or more”, the control device 11 estimates “travel” as an action purpose. When completing the action purpose matching process, the control device 11 ends the action purpose estimation process.

次に、レコメンドサービス決定部35について説明する。このレコメンドサービス決定部35は、上述の乗員構成推定処理によって推定された乗員構成、および、上述の行動目的推定処理によって推定された行動目的に基づいて、車内に提供するサービスとして推奨するサービスを「レコメンドサービス」として決定するものである。ここで、制御装置11がこのレコメンドサービス決定部35によって実行するレコメンドサービス抽出決定処理について図13を参照しながら説明する。   Next, the recommendation service determination unit 35 will be described. The recommended service determination unit 35 recommends a service recommended as a service to be provided in the vehicle based on the occupant configuration estimated by the occupant configuration estimation process described above and the behavior purpose estimated by the behavior purpose estimation process described above. It is determined as “Recommendation Service”. Here, the recommended service extraction determination process executed by the recommended service determination unit 35 by the control device 11 will be described with reference to FIG.

このレコメンドサービス抽出決定処理では、制御装置11は、レコメンドサービス検索処理(ステップE1)を実行する。このレコメンドサービス検索処理では、制御装置11は、レコメンドサービス履歴データベース23の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータを検索する。そして、制御装置11は、検索されたデータの提供レコメンドサービス欄に格納されているレコメンドサービスを「レコメンドサービス」として抽出する。例えば、推定された乗員構成が「家族(3人以上)」であって、且つ、推定された行動目的が「ドライブ」である場合には、制御装置11は、「道路情報提供」をレコメンドサービスとして抽出する。   In this recommendation service extraction determination process, the control device 11 executes a recommendation service search process (step E1). In this recommendation service search process, the control device 11 matches the occupant configuration stored in the occupant configuration column of the recommendation service history database 23 with the occupant configuration estimated by the above occupant configuration estimation process, and the action purpose column. The behavioral purpose stored in is searched for data that matches the behavioral purpose estimated by the behavioral purpose estimation process described above. And the control apparatus 11 extracts the recommendation service stored in the provision recommendation service column of the searched data as "recommendation service". For example, when the estimated occupant configuration is “family (three or more)” and the estimated action purpose is “drive”, the control device 11 sets “road information provision” as a recommendation service. Extract as

次に、制御装置11は、このレコメンドサービス検索処理によりレコメンドサービスが抽出されたか否か、つまり、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在したか否かを判断する(ステップE2)。制御装置11は、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在した場合(ステップE2:YES)には、レコメンドサービス決定処理を実行する(ステップE3)。一方、制御装置11は、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在しない場合(ステップE2:NO)には、レコメンドサービスマッチング処理(ステップE4)を実行し、その後、レコメンドサービス決定処理を実行する(ステップE3)。   Next, the control device 11 determines whether or not a recommendation service has been extracted by this recommendation service search process, that is, whether or not a history of the corresponding recommendation service exists in the recommendation service history database 23 (step E2). . When the history of the corresponding recommended service exists in the recommended service history database 23 (step E2: YES), the control device 11 executes a recommended service determination process (step E3). On the other hand, when the history of the corresponding recommended service does not exist in the recommended service history database 23 (step E2: NO), the control device 11 executes the recommended service matching process (step E4), and then the recommended service determination process Is executed (step E3).

レコメンドサービスマッチング処理では、制御装置11は、レコメンドパターンデータPD6の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータを検索する。そして、検索されたデータの最優先レコメンドサービス欄に格納されているサービスをレコメンドサービスとして抽出する。例えば、推定された乗員構成が「夫婦(2人)」であって、且つ、推定された行動目的が「送迎」である場合には、制御装置11は、最優先レコメンドサービス欄に格納されている「好感レコメンド」をレコメンドサービスとして抽出する。なお、「好感レコメンド」は、この場合、次のようにして特定される。即ち、制御装置11は、レコメンドサービス履歴データベース23の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータのうち、好感度欄に「好き」を示す情報(度数「3」)が格納されているデータを抽出する。そして、抽出されたデータの提供レコメンドサービス欄に格納されているサービスを「好感レコメンド」として特定する。なお、抽出されたデータが複数である場合には、例えば、日付欄に格納されている日付が現在の日付に近いデータを選択したり、時刻欄に格納されている時刻が現在の時刻に一致または近似するデータを選択したりすることで、抽出された複数のデータのうち何れか1つのデータを「好感レコメンド」として特定することが可能である。   In the recommendation service matching process, the control device 11 matches the occupant configuration stored in the occupant configuration column of the recommendation pattern data PD6 with the occupant configuration estimated by the above-described occupant configuration estimation process, and stores it in the action purpose column. Data for which the behavioral purpose that has been determined matches the behavioral purpose estimated by the behavioral purpose estimation process described above is searched. Then, the service stored in the highest priority recommended service column of the retrieved data is extracted as a recommended service. For example, when the estimated occupant configuration is “couple (two people)” and the estimated action purpose is “pickup”, the control device 11 is stored in the highest priority recommended service column. The “favorite recommendation” is extracted as a recommendation service. In this case, the “favorable recommendation” is specified as follows. That is, the control device 11 matches the occupant configuration stored in the occupant configuration column of the recommendation service history database 23 with the occupant configuration estimated by the above-described occupant configuration estimation process, and is stored in the action purpose column. Of the data whose behavioral purpose matches the behavioral purpose estimated by the behavioral purpose estimation process described above, data in which information indicating “like” (frequency “3”) is stored in the likability column is extracted. Then, the service stored in the provided recommended service column of the extracted data is specified as “favorable recommendation”. In addition, when there are a plurality of extracted data, for example, the date stored in the date column is selected to be close to the current date, or the time stored in the time column matches the current time. Alternatively, it is possible to specify any one of the plurality of extracted data as a “favorable recommendation” by selecting approximate data.

レコメンドサービス決定処理では、制御装置11は、ステップE1によって抽出されたレコメンドサービス、或いは、ステップE4によって抽出されたレコメンドサービスを、車内に提供するレコメンドサービスとして決定する。制御装置11は、このレコメンドサービス決定処理を完了すると、このレコメンドサービス抽出決定処理を終了する。
制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理によって決定されたレコメンドサービスを、レコメンドサービス実行部36によって実行し車内に提供する。
In the recommendation service determination process, the control device 11 determines the recommendation service extracted in step E1 or the recommendation service extracted in step E4 as a recommendation service to be provided in the vehicle. When completing the recommendation service determination process, the control device 11 ends the recommendation service extraction determination process.
The control device 11 executes the recommendation service determined by the recommendation service extraction determination process by the recommendation service determination unit 35 by the recommendation service execution unit 36 and provides it to the vehicle.

以上に説明したように本実施形態によれば、車載装置10の制御装置11は、車載マイク12により、車内に発生した音声を収集し、シートセンサ19により、車内において乗員が着座した座席の位置を着座位置として特定する。そして、制御装置11は、発話者推定部31による発話者推定処理により、車載マイク12が収集した音声、および、シートセンサ19が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する。また、制御装置11は、会話内容推定部32による会話内容推定処理により、車載マイク12が収集した音声に基づいて、発話者による会話の内容を推定する。また、制御装置11は、乗員構成推定部33による乗員構成推定処理により、シートセンサ19が特定した着座位置、発話者推定部31が推定した発話者、および、会話内容推定部32が推定した会話内容に基づいて、車内に存在する乗員の構成を推定する。また、制御装置11は、行動目的推定部34による行動目的推定処理により、会話内容推定部32が推定した会話内容、および、乗員構成推定部33が推定した乗員構成に基づいて、車内に存在する乗員の行動目的を推定する。そして、制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理により、乗員構成推定部33が推定した乗員構成、および、行動目的推定部34が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定する。即ち、制御装置11は、どのような乗員(乗員構成)が、どのようなことをしようとしているか(行動目的)に応じて、車内に提供するレコメンドサービスを決定する。   As described above, according to the present embodiment, the control device 11 of the in-vehicle device 10 collects the sound generated in the vehicle by the in-vehicle microphone 12, and the position of the seat where the occupant is seated in the vehicle by the seat sensor 19. Is identified as the seating position. And the control apparatus 11 is a speaker among the passengers present in the vehicle based on the voice collected by the in-vehicle microphone 12 and the seating position specified by the seat sensor 19 by the speaker estimation process by the speaker estimation unit 31. Is estimated. Further, the control device 11 estimates the content of the conversation by the speaker based on the voice collected by the in-vehicle microphone 12 by the conversation content estimation process by the conversation content estimation unit 32. In addition, the control device 11 performs the occupant configuration estimation process by the occupant configuration estimation unit 33, the seating position specified by the seat sensor 19, the speaker estimated by the speaker estimation unit 31, and the conversation estimated by the conversation content estimation unit 32. Based on the content, the configuration of the occupants present in the vehicle is estimated. Further, the control device 11 exists in the vehicle based on the conversation content estimated by the conversation content estimation unit 32 and the occupant configuration estimated by the occupant configuration estimation unit 33 by the behavior purpose estimation process by the behavior purpose estimation unit 34. Estimate the behavioral purpose of the occupant. Then, the control device 11 recommends a service based on the occupant configuration estimated by the occupant configuration estimation unit 33 and the behavior purpose estimated by the behavior purpose estimation unit 34 by the recommendation service extraction determination process by the recommendation service determination unit 35. Is determined as a recommendation service. That is, the control device 11 determines a recommendation service to be provided in the vehicle according to what kind of occupant (occupant configuration) is going to do what (behavior purpose).

これにより、車内に存在する乗員の構成、さらには、その乗員の行動目的に応じたサービスが提供されるようになり、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる。   As a result, it is possible to provide services according to the configuration of the passengers present in the vehicle and the purpose of action of the passengers, even if a person other than the driver is on the vehicle. It is possible to provide the optimal service for the passenger configuration at the time.

また、制御装置11は、パターンデータ蓄積処理部37により、過去に車両に乗車した乗員の声紋パターンを声紋パターンデータPD1に蓄積する。そして、制御装置11は、発話者推定部31による発話者推定処理においては、車載マイク12によって収集された音声の声紋パターンとパターンデータ蓄積処理部37によって蓄積された声紋パターンとを照合することにより、発話者を推定する。
これにより、制御装置11が発話者推定部31によって実行する発話者推定処理による発話者の推定精度を向上することができる。
Further, the control device 11 causes the pattern data storage processing unit 37 to store the voice print pattern of the occupant who has boarded the vehicle in the voice print pattern data PD1. Then, in the speaker estimation process by the speaker estimation unit 31, the control device 11 collates the voice print pattern collected by the in-vehicle microphone 12 with the voice print pattern stored by the pattern data storage processing unit 37. Estimate the speaker.
Thereby, the estimation precision of the speaker by the speaker estimation process which the control apparatus 11 performs by the speaker estimation part 31 can be improved.

さらに、この場合、制御装置11は、パターンデータ蓄積処理部37により、頻度が最も多い声紋パターンを車両の所有者の声紋パターンとして声紋パターンデータPD1に蓄積する。
このようにパターンデータ蓄積処理部37による声紋パターンの蓄積機能に学習機能を備えることにより、発話者が特定の者(この場合、車両の所有者)である場合における当該発話者の推定精度を一層向上することができる。
Further, in this case, the control device 11 causes the pattern data storage processing unit 37 to store the most frequently used voice print pattern in the voice print pattern data PD1 as the voice print pattern of the vehicle owner.
Thus, by providing the voice print pattern accumulation function by the pattern data accumulation processing unit 37 with the learning function, the estimation accuracy of the speaker when the speaker is a specific person (in this case, the owner of the vehicle) is further increased. Can be improved.

また、制御装置11は、レコメンドサービス履歴蓄積処理部38により、レコメンドサービス決定部35が過去に決定したサービスを、そのときの乗員構成および行動目的に対応付けてレコメンドサービス履歴データベース23に蓄積する。そして、制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理により、乗員構成推定部33が推定した乗員構成、および、行動目的推定部34が推定した行動目的に対応するサービスをレコメンドサービス履歴データベース23、或いは、レコメンドパターンデータPD6から抽出し、抽出したサービスを、車内に提供するレコメンドサービスとして決定する。
これにより、過去において実際にレコメンドサービスとして決定され提供されたサービスが再び提供されるようになり、不適切なサービス(例えば、過去に一度も推奨サービスとして決定されておらず、車内の乗員を満足させることができない可能性の高いサービス)が提供されてしまう可能性を極力低くすることができる。
Further, the control device 11 causes the recommendation service history accumulation processing unit 38 to accumulate the service determined by the recommendation service determination unit 35 in the past in the recommendation service history database 23 in association with the occupant configuration and action purpose at that time. Then, the control device 11 recommends a service corresponding to the occupant configuration estimated by the occupant configuration estimation unit 33 and the behavior purpose estimated by the behavior purpose estimation unit 34 by the recommendation service extraction determination process by the recommendation service determination unit 35. Extracted from the history database 23 or the recommended pattern data PD6, and the extracted service is determined as a recommended service to be provided in the vehicle.
As a result, services that were actually determined and provided as recommended services in the past will be provided again, and inappropriate services (for example, they have never been determined as recommended services in the past, satisfying passengers in the car) Service that is highly likely not to be provided) can be reduced as much as possible.

なお、本発明は、上述した一実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
パターンデータ記憶部22、レコメンドサービス履歴データベース23を、車載装置10の外部(例えば情報サーバ)に設け、各種パターンデータやレコメンドサービス履歴の情報を、車載装置10の外部から獲得する構成としてもよい。
上述した各パターンデータPD1〜PD6は一例であり、その構成を適宜変更して実施することができ、また、各パターンデータPD1〜PD6の各欄には適当な情報を格納することができる。また、上述したレコメンドサービス履歴データベース23も一例であり、その構成を適宜変更して実施することができ、また、当該データベース23の各欄には適当な情報を格納することができる。
In addition, this invention is not limited only to one embodiment mentioned above, It can apply to various embodiment in the range which does not deviate from the summary, For example, it can deform | transform or expand as follows. .
The pattern data storage unit 22 and the recommendation service history database 23 may be provided outside the in-vehicle device 10 (for example, an information server), and various pattern data and recommendation service history information may be acquired from the outside of the in-vehicle device 10.
Each of the pattern data PD1 to PD6 described above is an example, and the configuration can be changed as appropriate, and appropriate information can be stored in each column of the pattern data PD1 to PD6. The recommended service history database 23 described above is also an example, and the configuration can be changed as appropriate, and appropriate information can be stored in each column of the database 23.

図面中、10は車載装置、12は車載マイク(音声収集手段)、19はシートセンサ(着座位置特定手段)、31は発話者推定部(発話者推定手段)、32は会話内容推定部(会話内容推定手段)、33は乗員構成推定部(乗員構成推定手段)、34は行動目的推定部(行動目的推定手段)、35はレコメンドサービス決定部(レコメンドサービス決定手段)、37はパターンデータ蓄積処理部(声紋パターン蓄積手段)、38はレコメンドサービス履歴蓄積処理部(レコメンドサービス履歴蓄積手段)を示す。   In the drawings, 10 is a vehicle-mounted device, 12 is a vehicle-mounted microphone (sound collecting means), 19 is a seat sensor (sitting position specifying means), 31 is a speaker estimation unit (speaker estimation unit), and 32 is a conversation content estimation unit (conversation). Content estimation means), 33 an occupant configuration estimation unit (occupant configuration estimation means), 34 an action purpose estimation unit (behavior purpose estimation means), 35 a recommendation service determination unit (recommendation service determination means), and 37 a pattern data storage process Reference numeral (voice print pattern storage means) 38 denotes a recommended service history storage processing section (recommended service history storage means).

Claims (4)

車内に発生した音声を収集する音声収集手段と、
車内において乗員が着座した座席の位置を着座位置として特定する着座位置特定手段と、
前記音声収集手段が収集した音声、および、前記着座位置特定手段が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する発話者推定手段と、
前記音声収集手段が収集した音声に基づいて、前記発話者による会話の内容を推定する会話内容推定手段と、
前記着座位置特定手段が特定した着座位置、前記発話者推定手段が推定した発話者、および、前記会話内容推定手段が推定した会話内容に基づいて、前記車内に存在する乗員の構成を推定する乗員構成推定手段と、
前記会話内容推定手段が推定した会話内容、および、前記乗員構成推定手段が推定した乗員構成に基づいて、前記車内に存在する乗員の行動目的を推定する行動目的推定手段と、
前記乗員構成推定手段が推定した乗員構成、および、前記行動目的推定手段が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定するレコメンドサービス決定手段と、
を備えることを特徴とする車載装置。
Voice collecting means for collecting voice generated in the vehicle;
Seating position specifying means for specifying the position of the seat on which the passenger is seated in the vehicle as the seating position;
Based on the voice collected by the voice collecting means and the seating position specified by the seating position specifying means, a speaker estimation means for estimating a speaker among passengers present in the vehicle;
Conversation content estimation means for estimating the content of the conversation by the speaker based on the voice collected by the voice collection means;
An occupant that estimates the configuration of the occupant present in the vehicle based on the sitting position specified by the sitting position specifying unit, the speaker estimated by the speaker estimating unit, and the conversation content estimated by the conversation content estimating unit Configuration estimation means;
Based on the conversation content estimated by the conversation content estimation means, and the occupant configuration estimated by the occupant configuration estimation means, the behavior purpose estimation means for estimating the behavior purpose of the occupant existing in the vehicle;
A recommended service determining unit that determines a recommended service as a recommended service based on the passenger configuration estimated by the passenger configuration estimating unit and the behavior purpose estimated by the behavior purpose estimating unit;
A vehicle-mounted device comprising:
過去に車両に乗車した乗員の声紋パターンを蓄積する声紋パターン蓄積手段をさらに備え、
前記発話者推定手段は、前記音声収集手段が収集した音声の声紋パターンと前記声紋パターン蓄積手段が蓄積する声紋パターンとを照合することにより、発話者を推定することを特徴とする請求項1に記載の車載装置。
Voice pattern storing means for storing voice print patterns of occupants who have boarded the vehicle in the past;
2. The speaker estimation unit according to claim 1, wherein the speaker estimation unit estimates a speaker by comparing a voice print pattern collected by the voice collection unit with a voice print pattern stored by the voice print pattern storage unit. The in-vehicle device described.
前記声紋パターン蓄積手段は、頻度が最も多い声紋パターンを車両の所有者の声紋パターンとして蓄積することを特徴とする請求項2に記載の車載装置。   The in-vehicle device according to claim 2, wherein the voice print pattern storage unit stores a voice print pattern having the highest frequency as a voice print pattern of a vehicle owner. 前記レコメンドサービス決定手段が過去に決定したサービスを、そのときの乗員構成および行動目的に対応付けて蓄積するレコメンドサービス履歴蓄積手段をさらに備え、
前記レコメンドサービス決定手段は、前記乗員構成推定手段が推定した乗員構成、および、前記行動目的推定手段が推定した行動目的に対応するサービスを前記レコメンドサービス履歴蓄積手段から抽出し、抽出したサービスをレコメンドサービスとして決定することを特徴とする請求項1から3の何れか1項に記載の車載装置。
The recommended service history accumulating means for accumulating the service determined by the recommended service determining means in the past in association with the occupant configuration and action purpose at that time,
The recommended service determining means extracts from the recommended service history accumulating means the service corresponding to the occupant configuration estimated by the occupant configuration estimating means and the behavior purpose estimated by the behavior purpose estimation means, and the extracted service is recommended. It determines as a service, The vehicle-mounted apparatus of any one of Claim 1 to 3 characterized by the above-mentioned.
JP2010284482A 2010-12-21 2010-12-21 On-vehicle device Pending JP2012133530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010284482A JP2012133530A (en) 2010-12-21 2010-12-21 On-vehicle device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010284482A JP2012133530A (en) 2010-12-21 2010-12-21 On-vehicle device

Publications (1)

Publication Number Publication Date
JP2012133530A true JP2012133530A (en) 2012-07-12

Family

ID=46649067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010284482A Pending JP2012133530A (en) 2010-12-21 2010-12-21 On-vehicle device

Country Status (1)

Country Link
JP (1) JP2012133530A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539403A (en) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア Method and apparatus for identifying media files based on contextual relationships
WO2017009887A1 (en) * 2015-07-10 2017-01-19 株式会社日立製作所 Information distribution system and method
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing device, service providing method, and service providing program
JP2019021019A (en) * 2017-07-18 2019-02-07 パナソニック株式会社 Human flow analysis method, human flow analysis device and human flow analysis system
DE102018118575A1 (en) 2017-08-10 2019-02-14 TOYOTA Connected Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM
JP2019053785A (en) * 2019-01-09 2019-04-04 本田技研工業株式会社 Service providing device
WO2019097674A1 (en) 2017-11-17 2019-05-23 日産自動車株式会社 Vehicle operation assistance device
CN109835216A (en) * 2017-11-29 2019-06-04 丰田自动车株式会社 Seat adjuster
JP2019104354A (en) * 2017-12-12 2019-06-27 日産自動車株式会社 Information processing method and information processor
JP2019159790A (en) * 2018-03-13 2019-09-19 日産自動車株式会社 Information processing method and information processing device
JP2019158975A (en) * 2018-03-08 2019-09-19 トヨタ自動車株式会社 Utterance system
JP2019219859A (en) * 2018-06-19 2019-12-26 トヨタ自動車株式会社 Information processing device, information processing method, and program
US10984792B2 (en) 2018-01-11 2021-04-20 Toyota Jidosha Kabushiki Kaisha Voice output system, voice output method, and program storage medium
US11004450B2 (en) 2018-07-03 2021-05-11 Hyundai Motor Company Dialogue system and dialogue processing method
CN113312070A (en) * 2021-06-03 2021-08-27 海信集团控股股份有限公司 Application name updating method of vehicle-mounted application and vehicle
WO2022270234A1 (en) * 2021-06-25 2022-12-29 株式会社デンソー Device for mobile object and control method for mobile object

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016539403A (en) * 2013-10-14 2016-12-15 ノキア テクノロジーズ オサケユイチア Method and apparatus for identifying media files based on contextual relationships
US10437830B2 (en) 2013-10-14 2019-10-08 Nokia Technologies Oy Method and apparatus for identifying media files based upon contextual relationships
WO2017009887A1 (en) * 2015-07-10 2017-01-19 株式会社日立製作所 Information distribution system and method
US10394519B2 (en) 2016-10-11 2019-08-27 Honda Motor Co., Ltd. Service providing apparatus and method
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing device, service providing method, and service providing program
JP2019021019A (en) * 2017-07-18 2019-02-07 パナソニック株式会社 Human flow analysis method, human flow analysis device and human flow analysis system
DE102018118575A1 (en) 2017-08-10 2019-02-14 TOYOTA Connected Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM
US10885897B2 (en) 2017-08-10 2021-01-05 Toyota Jidosha Kabushiki Kaisha Information providing device and information providing system
JP7024799B2 (en) 2017-11-17 2022-02-24 日産自動車株式会社 Operation support device for vehicles
CN111801667A (en) * 2017-11-17 2020-10-20 日产自动车株式会社 Vehicle operation assisting device
RU2768509C2 (en) * 2017-11-17 2022-03-24 Ниссан Мотор Ко., Лтд. Vehicle control aid device
WO2019097674A1 (en) 2017-11-17 2019-05-23 日産自動車株式会社 Vehicle operation assistance device
JPWO2019097674A1 (en) * 2017-11-17 2020-12-03 日産自動車株式会社 Operation support device for vehicles
CN111801667B (en) * 2017-11-17 2024-04-02 日产自动车株式会社 Vehicle operation support device and vehicle operation support method
KR20200074168A (en) 2017-11-17 2020-06-24 닛산 지도우샤 가부시키가이샤 Vehicle operation support device and operation support method
CN109835216A (en) * 2017-11-29 2019-06-04 丰田自动车株式会社 Seat adjuster
JP7081132B2 (en) 2017-12-12 2022-06-07 日産自動車株式会社 Information processing method and information processing equipment
JP2019104354A (en) * 2017-12-12 2019-06-27 日産自動車株式会社 Information processing method and information processor
US10984792B2 (en) 2018-01-11 2021-04-20 Toyota Jidosha Kabushiki Kaisha Voice output system, voice output method, and program storage medium
JP2019158975A (en) * 2018-03-08 2019-09-19 トヨタ自動車株式会社 Utterance system
JP7192222B2 (en) 2018-03-08 2022-12-20 トヨタ自動車株式会社 speech system
JP7123581B2 (en) 2018-03-13 2022-08-23 日産自動車株式会社 Information processing method and information processing apparatus
JP2019159790A (en) * 2018-03-13 2019-09-19 日産自動車株式会社 Information processing method and information processing device
JP7095431B2 (en) 2018-06-19 2022-07-05 トヨタ自動車株式会社 Information processing equipment, information processing method, information processing system
JP2019219859A (en) * 2018-06-19 2019-12-26 トヨタ自動車株式会社 Information processing device, information processing method, and program
US11004450B2 (en) 2018-07-03 2021-05-11 Hyundai Motor Company Dialogue system and dialogue processing method
JP2019053785A (en) * 2019-01-09 2019-04-04 本田技研工業株式会社 Service providing device
CN113312070A (en) * 2021-06-03 2021-08-27 海信集团控股股份有限公司 Application name updating method of vehicle-mounted application and vehicle
WO2022270234A1 (en) * 2021-06-25 2022-12-29 株式会社デンソー Device for mobile object and control method for mobile object

Similar Documents

Publication Publication Date Title
JP2012133530A (en) On-vehicle device
JP4566844B2 (en) NAVIGATION SYSTEM AND STORAGE DEVICE USED FOR THE NAVIGATION SYSTEM
US10059287B2 (en) System and method for enhanced comfort prediction
EP1909069B1 (en) Intelligent destination setting for navigation systems
US9630611B1 (en) System and method for acceleration event prediction
US8775080B2 (en) Destination estimating apparatus, navigation system including the destination estimating apparatus, destination estimating method, and destination estimating program
US7683767B2 (en) Control device for controlling in-vehicle unit
JP4371057B2 (en) Vehicle agent device, agent system, and agent control method
US7728737B2 (en) Systems and methods for output of information messages in a vehicle
US20110060523A1 (en) Method of utilizing a personal navigation device to suggest alternate routes being identified by recognizable street names
KR20140051411A (en) Method for assisting a user of a motor vehicle, multimedia system, and motor vehicle
US11511755B2 (en) Arousal support system and arousal support method
WO2015133142A1 (en) Reporting apparatus
JP2007108134A (en) Content data regeneration device
JP2008142411A (en) Massage control device for vehicle
JP2020095475A (en) Matching method, matching server, matching system, and program
CN110136466B (en) Road condition information pushing method and system and vehicle
CN111916069A (en) System and method for providing information based on speech recognition and vehicle
KR100767458B1 (en) On-vehicle electronic apparatus and information notification method
JP2008225537A (en) Safety device for vehicle
JP2000203465A (en) Information recording device
CN113739816A (en) Vehicle navigation control method and device and vehicle
WO2023162192A1 (en) Content output device, content output method, program, and recording medium
US20240134596A1 (en) Content output device, content output method, program and storage medium
WO2023276037A1 (en) Content output device, content output method, program, and storage medium