JP2012133530A - On-vehicle device - Google Patents
On-vehicle device Download PDFInfo
- Publication number
- JP2012133530A JP2012133530A JP2010284482A JP2010284482A JP2012133530A JP 2012133530 A JP2012133530 A JP 2012133530A JP 2010284482 A JP2010284482 A JP 2010284482A JP 2010284482 A JP2010284482 A JP 2010284482A JP 2012133530 A JP2012133530 A JP 2012133530A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- speaker
- service
- unit
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えば音楽や映像の再生サービスなど種々のサービスを提供する機能を備えた車載装置に関する。 The present invention relates to an in-vehicle device having a function of providing various services such as music and video playback services.
この種の車載装置においては、より最適なサービスを提供することが望まれており、例えば特許文献1に記載の装置は、車両の運転者が発する音声に基づいて当該運転者の心理状態を推定し、その心理状態に応じた楽曲を自動再生するように構成されている。この構成によれば、車両の運転者に最適なサービスを提供することができる。
ところで、車両に乗車する乗員は、運転者1人のみに限られず、乗員の構成としては、例えば、カップル、友人、家族、仕事仲間など様々なシチュエーションが考えられる。このように運転者以外の者が乗車している場合に、上記特許文献1の構成により運転者のみに最適なサービスを提供してしまうと、運転者を満足させることはできたとしても、他の同乗者をも満足させることができるとは限らない。場合によっては、提供した運転者向けのサービスにより他の同乗者に不快感を与えてしまうおそれもある。
In this type of in-vehicle device, it is desired to provide a more optimal service. For example, the device described in
By the way, the occupant who gets into the vehicle is not limited to only one driver, and as the occupant configuration, various situations such as a couple, friends, family, and work associates are conceivable. In this way, when a person other than the driver is on board, if the optimum service is provided only to the driver by the configuration of the above-mentioned
そこで、本発明の目的は、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる車載装置を提供することにある。 Accordingly, an object of the present invention is to provide an in-vehicle device that can provide an optimum service for the passenger configuration at that time even when a person other than the driver is on the vehicle.
請求項1の車載装置によれば、音声収集手段は、車内に発生した音声を収集する。着座位置特定手段は、車内において乗員が着座した座席の位置を着座位置として特定する。発話者推定手段は、音声収集手段が収集した音声、および、着座位置特定手段が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する。会話内容推定手段は、音声収集手段が収集した音声に基づいて、発話者による会話の内容を推定する。乗員構成推定手段は、着座位置特定手段が特定した着座位置、発話者推定手段が推定した発話者、および、会話内容推定手段が推定した会話内容に基づいて、車内に存在する乗員の構成を推定する。行動目的推定手段は、会話内容推定手段が推定した会話内容、および、乗員構成推定手段が推定した乗員構成に基づいて、車内に存在する乗員の行動目的を推定する。レコメンドサービス決定手段は、乗員構成推定手段が推定した乗員構成、および、行動目的推定手段が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定する。
これにより、車内に存在する乗員の構成、さらには、その乗員の行動目的に応じたサービスが提供されるようになり、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる。
According to the in-vehicle device of the first aspect, the voice collecting means collects the voice generated in the vehicle. The seating position specifying means specifies the position of the seat where the occupant is seated in the vehicle as the seating position. The speaker estimation unit estimates a speaker among passengers present in the vehicle based on the voice collected by the voice collection unit and the seating position specified by the seating position specification unit. The conversation content estimation means estimates the content of the conversation by the speaker based on the voice collected by the voice collection means. The occupant configuration estimating means estimates the configuration of the occupant existing in the vehicle based on the sitting position specified by the sitting position specifying means, the speaker estimated by the speaker estimating means, and the conversation content estimated by the conversation content estimating means. To do. The behavioral purpose estimation means estimates the behavioral purpose of the occupant existing in the vehicle based on the conversation content estimated by the conversation content estimation means and the occupant configuration estimated by the occupant configuration estimation means. The recommended service determining unit determines a recommended service as a recommended service based on the occupant configuration estimated by the occupant configuration estimating unit and the behavior purpose estimated by the behavior purpose estimation unit.
As a result, it is possible to provide services according to the configuration of the passengers present in the vehicle and the purpose of action of the passengers, even if a person other than the driver is on the vehicle. It is possible to provide the optimal service for the passenger configuration at the time.
請求項2の車載装置によれば、声紋パターン蓄積手段は、過去に車両に乗車した乗員の声紋パターンを蓄積する。そして、発話者推定手段は、音声収集手段が収集した音声の声紋パターンと声紋パターン蓄積手段が蓄積する声紋パターンとを照合することにより、発話者を推定する。
これにより、発話者推定手段による発話者の推定精度を向上することができる。
According to the in-vehicle device of the second aspect, the voice print pattern storage means stores the voice print pattern of the passenger who has boarded the vehicle in the past. The speaker estimation unit estimates the speaker by comparing the voice print pattern collected by the voice collection unit with the voice print pattern stored by the voice print pattern storage unit.
Thereby, the estimation accuracy of the speaker by the speaker estimation means can be improved.
この場合、請求項3の車載装置のように、声紋パターン蓄積手段は、頻度が最も多い声紋パターンを車両の所有者の声紋パターンとして蓄積する構成とするとよい。
このように声紋パターン蓄積手段による声紋パターンの蓄積機能に学習機能を備えることにより、発話者が特定の者(この場合、車両の所有者)である場合における当該発話者の推定精度を一層向上することができる。
In this case, as in the in-vehicle device according to the third aspect, the voice print pattern storage means may be configured to store the voice print pattern having the highest frequency as the voice print pattern of the owner of the vehicle.
Thus, by providing the learning function in the voiceprint pattern storage function by the voiceprint pattern storage means, the estimation accuracy of the speaker is further improved when the speaker is a specific person (in this case, the owner of the vehicle). be able to.
請求項4の車載装置によれば、レコメンドサービス履歴蓄積手段は、レコメンドサービス決定手段が過去に決定したサービスを、そのときの乗員構成および行動目的に対応付けて蓄積する。そして、レコメンドサービス決定手段は、乗員構成推定手段が推定した乗員構成、および、行動目的推定手段が推定した行動目的に対応するサービスをレコメンドサービス履歴蓄積手段から抽出し、抽出したサービスをレコメンドサービスとして決定する。
これにより、過去において実際にレコメンドサービスとして決定され提供されたサービスが再び提供されるようになり、不適切なサービスが提供されてしまう可能性を極力低くすることができる。
According to the in-vehicle apparatus of the fourth aspect, the recommended service history accumulating unit accumulates the service determined by the recommended service determining unit in the past in association with the occupant configuration and the action purpose at that time. The recommended service determining means extracts the service corresponding to the occupant configuration estimated by the occupant configuration estimating means and the behavior purpose estimated by the behavior purpose estimating means from the recommended service history accumulating means, and the extracted service as the recommended service. decide.
As a result, the service actually determined and provided as the recommendation service in the past is provided again, and the possibility that an inappropriate service is provided can be reduced as much as possible.
以下、本発明の一実施形態について図面を参照しながら説明する。
図1に示すように、車載装置10は、例えば自動車などの車両に搭載され、制御装置11、車載マイク12(音声収集手段に相当)、車載スピーカ13、表示部14、ナビゲーション部15、操作スイッチ部16、外部メモリ17、通信部18、シートセンサ19(着座位置特定手段に相当)を含む車両情報検出部20、RTC21(Real Time Clock)、パターンデータ記憶部22、レコメンドサービス履歴データベース23などを備えている。
制御装置11は、図示しないCPU、ROMおよびRAMを有するマイクロコンピュータを主体として構成されている。車載装置10は、制御装置11のCPUにおいて制御プログラムを実行することにより、発話者推定部31(発話者推定手段に相当)、会話内容推定部32(会話内容推定手段に相当)、乗員構成推定部33(乗員構成推定手段に相当)、行動目的推定部34(行動目的推定手段に相当)、レコメンドサービス決定部35(レコメンドサービス決定手段に相当)、レコメンドサービス実行部36、パターンデータ蓄積処理部37(声紋パターン蓄積手段に相当)、レコメンドサービス履歴蓄積処理部38(レコメンドサービス履歴蓄積手段に相当)をソフトウェアによって仮想的に実現する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the in-
The
車載マイク12は、車内に発生した音声を収集し、収集した音声を音声信号に変換して制御装置11に入力する。制御装置11は、ソフトウェアによる処理(後述する声紋パターン抽出処理)を実行することにより、車載マイク12が収集した音声から発話者の声紋パターンを抽出可能に構成されている。また、制御装置11は、ソフトウェアによる処理(後述するーワード抽出処理)を実行することにより、車載マイク12が収集した音声から所定のキーワードを抽出可能に構成されている。
車載スピーカ13は、図示しない音声コントローラを介して制御装置11に接続されており、制御装置11からの音声出力信号に基づいて各種の音声を出力する。車載スピーカ13から出力される音声は、案内に関する音声、操作説明に関する音声、盗難防止機能の動作中であることを報知する音声、音声認識結果に応じたトークバック音声などのほか、音楽データに基づいて再生される音楽や映像データに基づいて再生される音声なども含まれる。
The in-
The in-
表示部14は、例えば液晶や有機ELなどのカラーディスプレイを有している。表示部14には、例えば経路案内用の画面、操作説明用の画面、各種の設定用の画面、映像データに基づいて再生される映像画面などが表示される。
ナビゲーション部15は、GPS(Global Positioning System)により車両の現在位置を測位するためにGPS衛星から送信される電波を受信するGPS受信器(図示せず)、地図データ記憶部に記憶されている地図データを入力する地図データ入力部(何れも図示せず)などを備えており、車両の現在位置および地図データに基づいて車両の経路案内を実行するものである。
The
The
操作スイッチ部16は、表示部14の画面の近傍に設けられているメカニカルスイッチや、表示部14の画面に設けられているタッチパネルスイッチなどから構成されている。ユーザは、操作スイッチ部16の各スイッチを用いて、車両の経路案内の目的地、表示部14の画面や表示態様の切り替え(例えば、地図縮尺の変更、メニュー画面の選択、経路の探索、経路案内の開始、現在位置の修正および音量の調整など)を行う各種のコマンドの入力を行う。
外部メモリ17は、例えば着脱可能なハードディスクドライブやフラッシュメモリなどの記憶媒体によって構成されている。なお、外部メモリ17は、例えば車載装置10の制御装置11に設けられているRAMやEEPROMなどと共用してもよい。
The
The
通信部18は、例えば無線の通信回線を経由して、図示しない情報サーバとの間でデータ通信を行う。即ち、通信部18は、各種のデータの送信機能および受信機能を有する。
シートセンサ19は、車内において乗員が着座した座席の位置を着座位置として特定するものであり、車内の各座席(運転席、助手席、後部座席など)にそれぞれ備えられている。例えば、運転者が運転席に着座すると、当該運転席に備えられたシートセンサ19が着座信号を出力する。制御装置11は、この運転席のシートセンサ19から出力された着座信号に基づいて、着座位置として「運転席」を検出する。その他の席(助手席や後部座席など)についても、制御装置11は、同様にして着座位置を検出する。
The
The
車両情報検出部20は、各種の装置類(例えば、エンジン制御装置、ブレーキ制御装置、トランスミッション制御装置など)、各種のセンサ類(例えば、加速度センサ、速度センサ、アクセルセンサなど)、各種のスイッチ類(例えば、イグニッションスイッチ、ヘッドライトスイッチなど)を有する。なお、上述のシートセンサ19は、この車両情報検出部20を構成するセンサ類に含まれるものである。車両情報検出部20は、これら装置類、センサ類、スイッチ類などによって検出される各種の情報を車両情報として制御装置11に入力する。
RTC21は、例えば日付、時刻、経過時間など時間に関する情報を取得するための計時手段である。RTC21は、図示しない発信器が出力したクロックパルスのパルス数をカウントし、カウントしたカウント値が基準値に到達すると単位時間を示す単位時間信号を生成する。そして、RTC21は、生成した単位時間信号に基づいて端末時刻を生成する。
The vehicle
The
パターンデータ記憶部22は、例えば、ハードディスクドライブやフラッシュメモリなどの記憶媒体で構成されている。このパターンデータ記憶部22には、この場合、図2に示す声紋パターンデータPD1、図3に示す発話者パターンデータPD2、図4に示す会話内容パターンデータPD3、図5に示す乗員構成パターンデータPD4、図6に示す行動目的パターンデータPD5、図7に示すレコメンドパターンデータPD6などの各種のパターンデータが構築されている。
The pattern
声紋パターンデータPD1(図2参照)には、車載マイク12が収集した音声から抽出された声紋パターンが、その声紋パターンが得られたときに検出された各着座位置の検出回数、および、その声紋パターンの総抽出回数(着座位置の検出回数の総数)に対応付けられて格納される。例えば、「声紋パターンA」が得られたときに着座位置として「運転席」が検出されていれば、声紋パターンAに対応する運転席欄の着座位置検出回数が1だけカウントアップされ、これに伴い、総抽出回数も1だけカウントアップされる。着座位置として「助手席」や「後部座席」が検出されている場合も同様である。なお、この声紋パターンデータPD1の更新処理は、制御装置11が、パターンデータ蓄積処理部37によって実行するものである。即ち、パターンデータ蓄積処理部37は、過去に車両に乗車した乗員の声紋パターンを蓄積するものである。また、このパターンデータ蓄積処理部37は、声紋パターンデータPD1の更新処理のみならず、その他のパターンデータPD2〜PD6の更新処理も実行可能である。
In the voiceprint pattern data PD1 (see FIG. 2), the voiceprint pattern extracted from the voice collected by the in-
発話者パターンデータPD2(図3参照)には、発話者の候補(例えば、車両の「所有者」、所有者の「家族」、所有者の「友人」、「他人」など)が、声紋パターン、および、発話者推定用の会話キーワードの各情報に対応付けられて格納される。この場合、「所有者」に対応する声紋パターン欄には、上述の声紋パターンデータPD1において頻度が最も多い声紋パターン(運転席欄の検出回数が最も多い声紋パターン、或いは、総抽出回数が最も多い声紋パターンであり、この場合、声紋パターンAが該当)が格納される。また、「家族」に対応する声紋パターン欄、および、「友人」に対応する声紋パターン欄には、上述の声紋パターンデータPD1において頻度(総抽出回数)が1回以上である声紋パターン、つまり、声紋パターンデータPD1に格納されている声紋パターンのうち「所有者」の声紋パターンを除く声紋パターン(この場合、声紋パターンAを除く声紋パターンであり、声紋パターンB,Cが該当)が格納される。なお、「他人」に対応する声紋パターンには、この場合、何れの声紋パターンも格納されない。即ち、この発話者パターンデータPD2は、声紋パターンデータPD1において頻度が多い声紋パターンであるほど、所有者との関係が近い者(所有者本人も含む)の声紋パターンであるとみなす構成である。 In the speaker pattern data PD2 (see FIG. 3), the speaker candidates (for example, “owner” of the vehicle, “family” of the owner, “friends” of the owner, “others”, etc.) , And stored in association with each piece of information of the conversation keyword for speaker estimation. In this case, in the voiceprint pattern column corresponding to “owner”, the voiceprint pattern having the highest frequency in the voiceprint pattern data PD1 described above (the voiceprint pattern having the highest number of detections in the driver's seat column or the highest number of total extractions). A voiceprint pattern, in this case, voiceprint pattern A) is stored. In the voice print pattern column corresponding to “family” and the voice print pattern column corresponding to “friend”, a voice print pattern having a frequency (total number of extractions) of one or more in the above voice print pattern data PD1, that is, Of the voiceprint patterns stored in the voiceprint pattern data PD1, voiceprint patterns excluding the “owner” voiceprint pattern (in this case, the voiceprint pattern excluding the voiceprint pattern A and corresponding to the voiceprint patterns B and C) are stored. . In this case, any voice print pattern corresponding to “other person” is not stored. That is, the speaker pattern data PD2 is considered to be a voiceprint pattern of a person (including the owner himself) who has a closer relationship with the owner as the voiceprint pattern dataF1 has a higher frequency.
また、この場合、「所有者」,「友人」,「他人」に対応する発話者推定用の会話キーワード欄には、何れのキーワードも格納されないが、「家族」に対応する発話者推定用の会話キーワード欄には、家族の呼称(例えば、家族の名前、家族に関連する呼び名(お父さん、お母さんなど)、家族のあだ名など)がキーワードとして格納される。なお、「家族」以外の発話者に対応する発話者推定用の会話キーワード欄に、適当なキーワードを格納することも当然に可能である。 In this case, no keyword is stored in the conversation keyword column for estimating the speaker corresponding to “owner”, “friend”, or “other”, but for estimating the speaker corresponding to “family”. In the conversation keyword field, family names (for example, family names, names related to the family (such as father and mother), family nicknames, etc.) are stored as keywords. It is naturally possible to store an appropriate keyword in the conversation keyword column for estimating a speaker corresponding to a speaker other than “family”.
会話内容パターンデータPD3(図4参照)には、会話内容(例えば、「仕事関係」、「家庭関係」、「趣味関係」、「レジャー関係」、「その他」)が、会話内容推定用の会話キーワードに対応付けられて格納される。この場合、「仕事関係」に対応する会話内容推定用の会話キーワード欄には、役職名(例えば、「社長」、「部長」、「課長」)、企業名(例えば、「○○株式会社」、「△△事務所」)、ビジネス単語(例えば、「取引」、「納期」、「契約」、 「打合せ」)などがキーワードとして格納される。「家庭関係」に対応する会話内容推定用の会話キーワード欄には、家族の呼称がキーワードとして格納される。「趣味関係」に対応する会話内容推定用の会話キーワード欄には、映画の名称、楽曲の名称、スポーツ用語などがキーワードとして格納される。「レジャー関係」に対応する会話内容推定用の会話キーワード欄には、観光名所の名称、娯楽施設の名称、宿泊施設の名称などがキーワードとして格納される。なお、「その他」に対応する会話内容推定用の会話キーワード欄には、この場合、何れのキーワードも格納されないが、適当なキーワードを格納することも当然に可能である。 In the conversation content pattern data PD3 (see FIG. 4), the conversation content (for example, “work relationship”, “home relationship”, “hobby relationship”, “leisure relationship”, “others”) includes the conversation content estimation conversation. Stored in association with the keyword. In this case, in the conversation keyword column for estimating conversation contents corresponding to “work relation”, the title (for example, “president”, “department manager”, “section manager”), company name (for example, “XX Corporation”) , “ΔΔ office”), business words (for example, “transaction”, “delivery date”, “contract”, “meeting”) and the like are stored as keywords. The name of the family is stored as a keyword in the conversation keyword column for estimating the conversation content corresponding to “family relations”. In the conversation keyword column for estimating conversation contents corresponding to “hobby relation”, the name of a movie, the name of a song, sports terms, and the like are stored as keywords. In the conversation keyword column for estimating conversation contents corresponding to “leisure relation”, the name of a tourist attraction, the name of an entertainment facility, the name of an accommodation facility, and the like are stored as keywords. In this case, no keyword is stored in the conversation keyword column for estimating the conversation content corresponding to “others”, but it is naturally possible to store an appropriate keyword.
乗員構成パターンデータPD4(図5参照)には、乗員構成の候補(例えば、乗員が1人の場合の構成として「所有者(1人)」,「所有者以外の者(1人)」など、乗員が2人の場合の構成として「カップル(2人)」,「夫婦(2人)」など、乗員が3人以上の構成として「家族(3人以上)」,「友人(3人以上)」,「仕事関係者(3人以上)」など)が、着座位置、発話者、および、会話内容の各情報に対応付けられて格納されている。この場合、例えば「所有者(1人)」に対応する着座位置欄には「運転席」が格納され、発話者欄には「所有者」が格納され,会話内容欄には何れの条件も格納されない。また、例えば「家族(3人以上)」に対応する着座位置欄には「運転席」,「助手席」,「後部座席」が格納され、発話者欄には「家族」が格納され、会話内容欄には「家庭関係」が格納される。 In the occupant configuration pattern data PD4 (see FIG. 5), occupant configuration candidates (for example, “owner (1 person)”, “non-owner (1 person)”, etc.) In the case of two passengers, “Couple (two)”, “Couple (two)”, etc., “Family (three or more)”, “Friends (three or more) ) "," Work-related persons (three or more) ", etc.) are stored in association with each information of the sitting position, the speaker, and the conversation content. In this case, for example, “driver's seat” is stored in the seating position column corresponding to “owner (one person)”, “owner” is stored in the speaker column, and any condition is set in the conversation content column. Not stored. In addition, for example, “driver's seat”, “passenger seat”, and “rear seat” are stored in the seating position column corresponding to “family (three or more)”, and “family” is stored in the speaker column. In the content column, “family relations” is stored.
行動目的パターンデータPD5(図6参照)には、行動目的の候補(例えば、「帰宅」,「レジャー」,「旅行」,「送迎」など)が、会話内容、乗員構成、目的地、曜日、運転時間(車両が走行を開始してからの経過時間)の各情報に対応付けられて格納されている。この場合、例えば「帰宅」に対応する乗員構成欄には「所有者(1人)」,「夫婦(2人)」,「家族(3人以上)」が格納され、目的地欄には「自宅」が格納され、会話内容欄、曜日欄、運転時間欄には何れの条件も格納されない。また、例えば、「送迎」に対応する乗員構成欄には「夫婦(2人)」が格納され、会話内容欄には「仕事関係」,「家庭関係」が格納され、目的地欄には「交通施設」が格納され、曜日欄には平日である「月曜日」,「火曜日」,「水曜日」,「木曜日」,「金曜日」が格納され、運転時間欄には何れの条件も格納されない。 In the action purpose pattern data PD5 (see FIG. 6), the action purpose candidates (for example, “return home”, “leisure”, “travel”, “pick-up”, etc.) include the conversation contents, crew composition, destination, day of the week, It is stored in association with each piece of information of driving time (elapsed time since the vehicle started traveling). In this case, for example, “Owner (1 person)”, “Couple (2 persons)”, “Family (3 persons or more)” are stored in the passenger composition field corresponding to “Return home”, and “ "Home" is stored, and no condition is stored in the conversation content column, day of week column, and driving time column. Further, for example, “couple (two people)” is stored in the passenger composition column corresponding to “pick-up”, “work relationship” and “family relationship” are stored in the conversation content column, and “ “Transportation facility” is stored, “Monday”, “Tuesday”, “Wednesday”, “Thursday”, and “Friday”, which are weekdays, are stored in the day of week column, and no conditions are stored in the driving time column.
レコメンドパターンデータPD6(図7参照)には、レコメンドサービスの候補が、乗員構成、および、行動目的の各情報に対応付けられて格納されている。この場合、レコメンドサービスは、最優先レコメンドサービス、次優先レコメンドサービス、次々優先レコメンドサービスに分割して構成されており、例えば、乗員構成欄が「所有者(1人)」であり、且つ、行動目的欄が「帰宅」である場合における最優先レコメンドサービスには「好感レコメンドサービス」が格納され、次優先レコメンドサービスには「音楽再生」が格納され、次々優先レコメンドサービスには「映像再生」が格納されている。また、例えば、乗員構成欄が「家族(3人以上)」であり、且つ、行動目的欄が「帰宅」,「レジャー」,「旅行」の何れかである場合における最優先レコメンドサービスには「好感レコメンドサービス」が格納され、次優先レコメンドサービスには「映像再生」が格納され、次々優先レコメンドサービスには「音楽再生」が格納されている。なお、この図7に示す「目的地情報提供」は、ナビゲーション部15を介して設定された目的地に関する情報(例えば、その目的地において開催されているイベント情報や、その目的地の営業時間など)を表示部14や車載スピーカ13を介して出力(提供)するサービスである。また、「道路情報提供」は、各道路に発生している渋滞情報、交通規制情報、事故情報などを表示部14や車載スピーカ13を介して出力(提供)するサービスである。
In the recommendation pattern data PD6 (see FIG. 7), candidates for recommendation services are stored in association with information on the occupant configuration and behavioral purpose. In this case, the recommendation service is divided into the highest priority recommendation service, the next priority recommendation service, and the next priority recommendation service. For example, the occupant configuration column is “owner (one person)” and the action When the purpose column is “Return home”, “Favorite recommendation service” is stored in the highest priority recommendation service, “Music playback” is stored in the next priority recommendation service, and “Video playback” is stored in the priority priority service one after another. Stored. Further, for example, when the occupant configuration column is “family (3 or more)” and the action purpose column is “return home”, “leisure”, or “travel”, the highest priority recommendation service is “ “Favorite recommendation service” is stored, “Video playback” is stored in the next priority recommendation service, and “Music playback” is stored in the priority priority recommendation service one after another. The “destination information provision” shown in FIG. 7 is information related to the destination set via the navigation unit 15 (for example, event information held at the destination, business hours of the destination, etc. ) Is output (provided) via the
次に、レコメンドサービス履歴データベース23について説明する。レコメンドサービス履歴データベース23は、後述するレコメンドサービス抽出決定処理によって決定されたレコメンドサービスを蓄積するためのデータベースである。このレコメンドサービス履歴データベース23により、過去に車内に提供されたレコメンドサービスの履歴を把握することができる。ここで、このレコメンドサービス履歴データベース23の構成について図8を参照しながら説明する。
Next, the recommended
このレコメンドサービス履歴データベース23には、後述するレコメンドサービス抽出決定処理によって決定されたレコメンドサービス、つまり、過去に車内に実際に提供されたレコメンドサービス(提供レコメンドサービス)が、乗員構成(そのレコメンドサービスが提供されたときにおける推定乗員構成)、および、行動目的(そのレコメンドサービスが提供されたときにおける推定行動目的)、さらに日付(そのレコメンドサービスを提供したときの日付)、時刻(そのレコメンドサービスを提供したときの時刻)、および、好感度の各情報に対応付けられて格納されている。なお、好感度は、実際に車内に提供されたレコメンドサービスに対して車両の乗員がどの程度の好感を持ったか(気に入ったか)を示す情報である。制御装置11は、例えば、提供したサービスが、提供直後(提供後の所定時間内)に停止された場合には好感度欄に「嫌い」を示す情報(この場合、度数「1」)を格納し、サービスを例えば半分以上提供した段階で停止された場合には好感度欄に「普通」を示す情報(この場合、度数「2」)を格納し、サービスを最後まで実行した場合には好感度欄に「好き」を示す情報(この場合、度数「3」)を格納する。なお、このレコメンドサービス履歴データベース23の更新処理は、制御装置11が、レコメンドサービス履歴蓄積処理部38によって実行するものである。即ち、レコメンドサービス履歴蓄積処理部38は、レコメンドサービス決定部35が過去に決定したサービスを、そのときの乗員構成(そのときにおける推定乗員構成)および行動目的(そのときにおける推定行動目的)に対応付けて蓄積するものである。
In the recommendation
次に、発話者推定部31について説明する。発話者推定部31は、車載マイク12によって収集された音声、および、シートセンサ19によって特定された着座位置に基づいて、車内に存在する乗員のうち「発話者」を推定するものである。ここで、制御装置11がこの発話者推定部31によって実行する発話者推定処理について図9を参照しながら説明する。
Next, the
制御装置11は、声紋パターン抽出処理を実行することにより、車載マイク12から入力された音声信号から発話者の声紋パターンを抽出する(ステップA1)。次に、制御装置11は、声紋パターンのマッチング処理を実行する(ステップA2)。このマッチング処理では、制御装置11は、上述の声紋パターン抽出処理(ステップA1参照)によって抽出した声紋パターンが声紋パターンデータPD1に存在するか否かを検索する。次に、制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在したか否かを判断する(ステップA3)。
The
制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在した場合(ステップA3:YES)には、キーワード抽出処理を実行する(ステップA4)。一方、制御装置11は、該当する声紋パターンが声紋パターンデータPD1に存在しない場合(ステップA3:NO)には、ステップA1の処理(声紋パターン抽出処理)によって抽出した声紋パターンを新たに声紋パターンデータPD1に格納(追加)するための更新処理(ステップA5)を実行し、その後、キーワード抽出処理を実行する(ステップA4)。
When the corresponding voice print pattern exists in the voice print pattern data PD1 (step A3: YES), the
キーワード抽出処理では、制御装置11は、車載マイク12が収集した音声から所定のキーワード(この場合、発話者パターンデータPD2の発話者推定用の会話キーワード欄に格納されているキーワード)を抽出する。なお、車載マイク12が収集した音声の内容によっては、このキーワード抽出処理によって何れのキーワードも抽出されない場合もある。
In the keyword extraction process, the
次に、制御装置11は、発話者のマッチング処理を実行する(ステップA5)。この発話者のマッチング処理では、制御装置11は、発話者パターンデータPD2の声紋パターン欄に格納されている声紋パターンが声紋パターン抽出処理(ステップA1参照)によって抽出された声紋パターンに一致し、且つ、発話者推定用の会話キーワード欄に格納されているキーワードがキーワード抽出処理(ステップA4参照)によって抽出されたキーワードに一致するデータを検索する。そして、制御装置11は、検索されたデータの発話者欄に格納されている者を、現在の車内に存在する「発話者」として推定する。例えば、抽出された声紋パターンが声紋パターンAであり、且つ、キーワードが抽出されなかった場合には、制御装置11は、「所有者」を「発話者」として推定する。制御装置11は、発話者のマッチング処理を完了すると、この発話者推定処理を終了する。
Next, the
次に、会話内容推定部32について説明する。会話内容推定部32は、車載マイク12によって収集された音声に基づいて、上述の発話者推定処理によって推定された発話者による「会話の内容」を推定するものである。ここで、制御装置11がこの会話内容推定部32によって実行する会話内容推定処理について図10を参照しながら説明する。
Next, the conversation
制御装置11は、キーワード抽出処理を実行することにより、車載マイク12が収集した音声から所定のキーワード(この場合、会話内容パターンデータPD3の会話内容推定用の会話キーワードに格納されているキーワード)を抽出する。なお、車載マイク12が収集した音声の内容によっては、このキーワード抽出処理によって何れのキーワードも抽出されない場合もある。
The
次に、制御装置11は、会話内容のマッチング処理を実行する(ステップB2)。この会話内容のマッチング処理では、制御装置11は、会話内容パターンデータPD3の会話内容推定用の会話キーワード欄に格納されているキーワードがキーワード抽出処理(ステップB1参照)によって抽出されたキーワードに一致するデータを検索する。そして、制御装置11は、検索されたデータの会話内容欄に格納されている内容を、現在の車内における「会話内容」として推定する。例えば、抽出されたキーワードが役職名、企業名、ビジネス単語などである場合には、制御装置11は、「仕事関係」を「会話内容」として推定する。制御装置11は、この会話内容のマッチング処理を完了すると、この会話内容推定処理を終了する。
Next, the
次に、乗員構成推定部33について説明する。この乗員構成推定部33は、シートセンサ19によって特定された着座位置、上述の発話者推定処理によって推定された発話者、および、上述の会話内容推定処理によって推定された会話内容に基づいて、車内に存在する「乗員の構成」を推定するものである。ここで、制御装置11がこの乗員構成推定部33によって実行する乗員構成推定処理について図11を参照しながら説明する。
Next, the occupant
この乗員構成推定処理では、制御装置11は、乗員構成のマッチング処理を実行する(ステップC1)。この乗員構成のマッチング処理では、制御装置11は、乗員構成パターンデータPD4の着座位置欄に格納されている着座位置がシートセンサ19からの入力信号によって特定された着座位置に一致し、発話者欄に格納されている発話者が上述の発話者推定処理によって推定された発話者に一致し、さらに、会話内容欄に格納されている会話内容が上述の会話内容推定処理によって推定された会話内容に一致するデータを検索する。そして、制御装置11は、検索されたデータの乗員構成欄に格納されている構成を、現在の車内の「乗員構成」として推定する。例えば、特定された着座位置が「運転席」,「助手席」,「後部座席」の3種の座席であって、推定された発話者が「家族」であって、さらに、推定された会話内容が「家庭関係」である場合には、制御装置11は、「家族(3人以上)」を「乗員構成」として推定する。制御装置11は、この乗員構成のマッチング処理を完了すると、この乗員構成推定処理を終了する。
In this occupant configuration estimation process, the
次に、行動目的推定部34について説明する。この行動目的推定部34は、上述の会話内容推定処理によって推定された会話内容、および、上述の乗員構成推定処理によって推定された乗員構成に基づいて、車内に存在する乗員の「行動目的」を推定するものである。ここで、制御装置11がこの行動目的推定部34によって実行する行動目的推定処理について図12を参照しながら説明する。
Next, the behavior
この行動目的推定処理では、制御装置11は、行動目的のマッチング処理を実行する(ステップD1)。この行動目的のマッチング処理では、制御装置11は、行動目的パターンデータPD5の会話内容欄に格納されている会話内容が上述の会話内容推定処理によって推定された会話内容に一致し、乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、さらに、目的地欄に格納されている目的地がナビゲーション部15を介して設定された目的地に一致し、曜日欄に格納されている曜日が現時点における曜日に一致し、運転時間欄に格納されている運転時間が現時点における運転時間に該当するデータを検索する。そして、制御装置11は、検索されたデータの行動目的欄に格納されている内容を、現在の車内に存在する乗員の「行動目的」として推定する。例えば、推定された会話内容が「無い」場合であって、推定された乗員構成が「カップル(2人)」,「夫婦(2人)」,「家族(3人以上)」,「友人(3人以上)」の何れかであって、設定された目的地が「観光名所」または「宿泊施設」であって、現時点の曜日が「土曜日」,「日曜日」,「祝日」の何れかであって、現時点の運転時間が「2時間以上」である場合には、制御装置11は、「旅行」を行動目的として推定する。制御装置11は、この行動目的のマッチング処理を完了すると、この行動目的推定処理を終了する。
In this behavior purpose estimation process, the
次に、レコメンドサービス決定部35について説明する。このレコメンドサービス決定部35は、上述の乗員構成推定処理によって推定された乗員構成、および、上述の行動目的推定処理によって推定された行動目的に基づいて、車内に提供するサービスとして推奨するサービスを「レコメンドサービス」として決定するものである。ここで、制御装置11がこのレコメンドサービス決定部35によって実行するレコメンドサービス抽出決定処理について図13を参照しながら説明する。
Next, the recommendation
このレコメンドサービス抽出決定処理では、制御装置11は、レコメンドサービス検索処理(ステップE1)を実行する。このレコメンドサービス検索処理では、制御装置11は、レコメンドサービス履歴データベース23の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータを検索する。そして、制御装置11は、検索されたデータの提供レコメンドサービス欄に格納されているレコメンドサービスを「レコメンドサービス」として抽出する。例えば、推定された乗員構成が「家族(3人以上)」であって、且つ、推定された行動目的が「ドライブ」である場合には、制御装置11は、「道路情報提供」をレコメンドサービスとして抽出する。
In this recommendation service extraction determination process, the
次に、制御装置11は、このレコメンドサービス検索処理によりレコメンドサービスが抽出されたか否か、つまり、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在したか否かを判断する(ステップE2)。制御装置11は、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在した場合(ステップE2:YES)には、レコメンドサービス決定処理を実行する(ステップE3)。一方、制御装置11は、該当するレコメンドサービスの履歴がレコメンドサービス履歴データベース23に存在しない場合(ステップE2:NO)には、レコメンドサービスマッチング処理(ステップE4)を実行し、その後、レコメンドサービス決定処理を実行する(ステップE3)。
Next, the
レコメンドサービスマッチング処理では、制御装置11は、レコメンドパターンデータPD6の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータを検索する。そして、検索されたデータの最優先レコメンドサービス欄に格納されているサービスをレコメンドサービスとして抽出する。例えば、推定された乗員構成が「夫婦(2人)」であって、且つ、推定された行動目的が「送迎」である場合には、制御装置11は、最優先レコメンドサービス欄に格納されている「好感レコメンド」をレコメンドサービスとして抽出する。なお、「好感レコメンド」は、この場合、次のようにして特定される。即ち、制御装置11は、レコメンドサービス履歴データベース23の乗員構成欄に格納されている乗員構成が上述の乗員構成推定処理によって推定された乗員構成に一致し、且つ、行動目的欄に格納されている行動目的が上述の行動目的推定処理によって推定された行動目的に一致するデータのうち、好感度欄に「好き」を示す情報(度数「3」)が格納されているデータを抽出する。そして、抽出されたデータの提供レコメンドサービス欄に格納されているサービスを「好感レコメンド」として特定する。なお、抽出されたデータが複数である場合には、例えば、日付欄に格納されている日付が現在の日付に近いデータを選択したり、時刻欄に格納されている時刻が現在の時刻に一致または近似するデータを選択したりすることで、抽出された複数のデータのうち何れか1つのデータを「好感レコメンド」として特定することが可能である。
In the recommendation service matching process, the
レコメンドサービス決定処理では、制御装置11は、ステップE1によって抽出されたレコメンドサービス、或いは、ステップE4によって抽出されたレコメンドサービスを、車内に提供するレコメンドサービスとして決定する。制御装置11は、このレコメンドサービス決定処理を完了すると、このレコメンドサービス抽出決定処理を終了する。
制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理によって決定されたレコメンドサービスを、レコメンドサービス実行部36によって実行し車内に提供する。
In the recommendation service determination process, the
The
以上に説明したように本実施形態によれば、車載装置10の制御装置11は、車載マイク12により、車内に発生した音声を収集し、シートセンサ19により、車内において乗員が着座した座席の位置を着座位置として特定する。そして、制御装置11は、発話者推定部31による発話者推定処理により、車載マイク12が収集した音声、および、シートセンサ19が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する。また、制御装置11は、会話内容推定部32による会話内容推定処理により、車載マイク12が収集した音声に基づいて、発話者による会話の内容を推定する。また、制御装置11は、乗員構成推定部33による乗員構成推定処理により、シートセンサ19が特定した着座位置、発話者推定部31が推定した発話者、および、会話内容推定部32が推定した会話内容に基づいて、車内に存在する乗員の構成を推定する。また、制御装置11は、行動目的推定部34による行動目的推定処理により、会話内容推定部32が推定した会話内容、および、乗員構成推定部33が推定した乗員構成に基づいて、車内に存在する乗員の行動目的を推定する。そして、制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理により、乗員構成推定部33が推定した乗員構成、および、行動目的推定部34が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定する。即ち、制御装置11は、どのような乗員(乗員構成)が、どのようなことをしようとしているか(行動目的)に応じて、車内に提供するレコメンドサービスを決定する。
As described above, according to the present embodiment, the
これにより、車内に存在する乗員の構成、さらには、その乗員の行動目的に応じたサービスが提供されるようになり、車両に運転者以外の者が乗車している場合であっても、そのときの乗員構成に最適なサービスを提供することができる。 As a result, it is possible to provide services according to the configuration of the passengers present in the vehicle and the purpose of action of the passengers, even if a person other than the driver is on the vehicle. It is possible to provide the optimal service for the passenger configuration at the time.
また、制御装置11は、パターンデータ蓄積処理部37により、過去に車両に乗車した乗員の声紋パターンを声紋パターンデータPD1に蓄積する。そして、制御装置11は、発話者推定部31による発話者推定処理においては、車載マイク12によって収集された音声の声紋パターンとパターンデータ蓄積処理部37によって蓄積された声紋パターンとを照合することにより、発話者を推定する。
これにより、制御装置11が発話者推定部31によって実行する発話者推定処理による発話者の推定精度を向上することができる。
Further, the
Thereby, the estimation precision of the speaker by the speaker estimation process which the
さらに、この場合、制御装置11は、パターンデータ蓄積処理部37により、頻度が最も多い声紋パターンを車両の所有者の声紋パターンとして声紋パターンデータPD1に蓄積する。
このようにパターンデータ蓄積処理部37による声紋パターンの蓄積機能に学習機能を備えることにより、発話者が特定の者(この場合、車両の所有者)である場合における当該発話者の推定精度を一層向上することができる。
Further, in this case, the
Thus, by providing the voice print pattern accumulation function by the pattern data
また、制御装置11は、レコメンドサービス履歴蓄積処理部38により、レコメンドサービス決定部35が過去に決定したサービスを、そのときの乗員構成および行動目的に対応付けてレコメンドサービス履歴データベース23に蓄積する。そして、制御装置11は、レコメンドサービス決定部35によるレコメンドサービス抽出決定処理により、乗員構成推定部33が推定した乗員構成、および、行動目的推定部34が推定した行動目的に対応するサービスをレコメンドサービス履歴データベース23、或いは、レコメンドパターンデータPD6から抽出し、抽出したサービスを、車内に提供するレコメンドサービスとして決定する。
これにより、過去において実際にレコメンドサービスとして決定され提供されたサービスが再び提供されるようになり、不適切なサービス(例えば、過去に一度も推奨サービスとして決定されておらず、車内の乗員を満足させることができない可能性の高いサービス)が提供されてしまう可能性を極力低くすることができる。
Further, the
As a result, services that were actually determined and provided as recommended services in the past will be provided again, and inappropriate services (for example, they have never been determined as recommended services in the past, satisfying passengers in the car) Service that is highly likely not to be provided) can be reduced as much as possible.
なお、本発明は、上述した一実施形態のみに限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能であり、例えば、以下のように変形または拡張することができる。
パターンデータ記憶部22、レコメンドサービス履歴データベース23を、車載装置10の外部(例えば情報サーバ)に設け、各種パターンデータやレコメンドサービス履歴の情報を、車載装置10の外部から獲得する構成としてもよい。
上述した各パターンデータPD1〜PD6は一例であり、その構成を適宜変更して実施することができ、また、各パターンデータPD1〜PD6の各欄には適当な情報を格納することができる。また、上述したレコメンドサービス履歴データベース23も一例であり、その構成を適宜変更して実施することができ、また、当該データベース23の各欄には適当な情報を格納することができる。
In addition, this invention is not limited only to one embodiment mentioned above, It can apply to various embodiment in the range which does not deviate from the summary, For example, it can deform | transform or expand as follows. .
The pattern
Each of the pattern data PD1 to PD6 described above is an example, and the configuration can be changed as appropriate, and appropriate information can be stored in each column of the pattern data PD1 to PD6. The recommended
図面中、10は車載装置、12は車載マイク(音声収集手段)、19はシートセンサ(着座位置特定手段)、31は発話者推定部(発話者推定手段)、32は会話内容推定部(会話内容推定手段)、33は乗員構成推定部(乗員構成推定手段)、34は行動目的推定部(行動目的推定手段)、35はレコメンドサービス決定部(レコメンドサービス決定手段)、37はパターンデータ蓄積処理部(声紋パターン蓄積手段)、38はレコメンドサービス履歴蓄積処理部(レコメンドサービス履歴蓄積手段)を示す。 In the drawings, 10 is a vehicle-mounted device, 12 is a vehicle-mounted microphone (sound collecting means), 19 is a seat sensor (sitting position specifying means), 31 is a speaker estimation unit (speaker estimation unit), and 32 is a conversation content estimation unit (conversation). Content estimation means), 33 an occupant configuration estimation unit (occupant configuration estimation means), 34 an action purpose estimation unit (behavior purpose estimation means), 35 a recommendation service determination unit (recommendation service determination means), and 37 a pattern data storage process Reference numeral (voice print pattern storage means) 38 denotes a recommended service history storage processing section (recommended service history storage means).
Claims (4)
車内において乗員が着座した座席の位置を着座位置として特定する着座位置特定手段と、
前記音声収集手段が収集した音声、および、前記着座位置特定手段が特定した着座位置に基づいて、車内に存在する乗員のうち発話者を推定する発話者推定手段と、
前記音声収集手段が収集した音声に基づいて、前記発話者による会話の内容を推定する会話内容推定手段と、
前記着座位置特定手段が特定した着座位置、前記発話者推定手段が推定した発話者、および、前記会話内容推定手段が推定した会話内容に基づいて、前記車内に存在する乗員の構成を推定する乗員構成推定手段と、
前記会話内容推定手段が推定した会話内容、および、前記乗員構成推定手段が推定した乗員構成に基づいて、前記車内に存在する乗員の行動目的を推定する行動目的推定手段と、
前記乗員構成推定手段が推定した乗員構成、および、前記行動目的推定手段が推定した行動目的に基づいて、推奨するサービスをレコメンドサービスとして決定するレコメンドサービス決定手段と、
を備えることを特徴とする車載装置。 Voice collecting means for collecting voice generated in the vehicle;
Seating position specifying means for specifying the position of the seat on which the passenger is seated in the vehicle as the seating position;
Based on the voice collected by the voice collecting means and the seating position specified by the seating position specifying means, a speaker estimation means for estimating a speaker among passengers present in the vehicle;
Conversation content estimation means for estimating the content of the conversation by the speaker based on the voice collected by the voice collection means;
An occupant that estimates the configuration of the occupant present in the vehicle based on the sitting position specified by the sitting position specifying unit, the speaker estimated by the speaker estimating unit, and the conversation content estimated by the conversation content estimating unit Configuration estimation means;
Based on the conversation content estimated by the conversation content estimation means, and the occupant configuration estimated by the occupant configuration estimation means, the behavior purpose estimation means for estimating the behavior purpose of the occupant existing in the vehicle;
A recommended service determining unit that determines a recommended service as a recommended service based on the passenger configuration estimated by the passenger configuration estimating unit and the behavior purpose estimated by the behavior purpose estimating unit;
A vehicle-mounted device comprising:
前記発話者推定手段は、前記音声収集手段が収集した音声の声紋パターンと前記声紋パターン蓄積手段が蓄積する声紋パターンとを照合することにより、発話者を推定することを特徴とする請求項1に記載の車載装置。 Voice pattern storing means for storing voice print patterns of occupants who have boarded the vehicle in the past;
2. The speaker estimation unit according to claim 1, wherein the speaker estimation unit estimates a speaker by comparing a voice print pattern collected by the voice collection unit with a voice print pattern stored by the voice print pattern storage unit. The in-vehicle device described.
前記レコメンドサービス決定手段は、前記乗員構成推定手段が推定した乗員構成、および、前記行動目的推定手段が推定した行動目的に対応するサービスを前記レコメンドサービス履歴蓄積手段から抽出し、抽出したサービスをレコメンドサービスとして決定することを特徴とする請求項1から3の何れか1項に記載の車載装置。 The recommended service history accumulating means for accumulating the service determined by the recommended service determining means in the past in association with the occupant configuration and action purpose at that time,
The recommended service determining means extracts from the recommended service history accumulating means the service corresponding to the occupant configuration estimated by the occupant configuration estimating means and the behavior purpose estimated by the behavior purpose estimation means, and the extracted service is recommended. It determines as a service, The vehicle-mounted apparatus of any one of Claim 1 to 3 characterized by the above-mentioned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010284482A JP2012133530A (en) | 2010-12-21 | 2010-12-21 | On-vehicle device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010284482A JP2012133530A (en) | 2010-12-21 | 2010-12-21 | On-vehicle device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012133530A true JP2012133530A (en) | 2012-07-12 |
Family
ID=46649067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010284482A Pending JP2012133530A (en) | 2010-12-21 | 2010-12-21 | On-vehicle device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012133530A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016539403A (en) * | 2013-10-14 | 2016-12-15 | ノキア テクノロジーズ オサケユイチア | Method and apparatus for identifying media files based on contextual relationships |
WO2017009887A1 (en) * | 2015-07-10 | 2017-01-19 | 株式会社日立製作所 | Information distribution system and method |
JP2018063486A (en) * | 2016-10-11 | 2018-04-19 | 本田技研工業株式会社 | Service providing device, service providing method, and service providing program |
JP2019021019A (en) * | 2017-07-18 | 2019-02-07 | パナソニック株式会社 | Human flow analysis method, human flow analysis device and human flow analysis system |
DE102018118575A1 (en) | 2017-08-10 | 2019-02-14 | TOYOTA Connected Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM |
JP2019053785A (en) * | 2019-01-09 | 2019-04-04 | 本田技研工業株式会社 | Service providing device |
WO2019097674A1 (en) | 2017-11-17 | 2019-05-23 | 日産自動車株式会社 | Vehicle operation assistance device |
CN109835216A (en) * | 2017-11-29 | 2019-06-04 | 丰田自动车株式会社 | Seat adjuster |
JP2019104354A (en) * | 2017-12-12 | 2019-06-27 | 日産自動車株式会社 | Information processing method and information processor |
JP2019159790A (en) * | 2018-03-13 | 2019-09-19 | 日産自動車株式会社 | Information processing method and information processing device |
JP2019158975A (en) * | 2018-03-08 | 2019-09-19 | トヨタ自動車株式会社 | Utterance system |
JP2019219859A (en) * | 2018-06-19 | 2019-12-26 | トヨタ自動車株式会社 | Information processing device, information processing method, and program |
US10984792B2 (en) | 2018-01-11 | 2021-04-20 | Toyota Jidosha Kabushiki Kaisha | Voice output system, voice output method, and program storage medium |
US11004450B2 (en) | 2018-07-03 | 2021-05-11 | Hyundai Motor Company | Dialogue system and dialogue processing method |
CN113312070A (en) * | 2021-06-03 | 2021-08-27 | 海信集团控股股份有限公司 | Application name updating method of vehicle-mounted application and vehicle |
WO2022270234A1 (en) * | 2021-06-25 | 2022-12-29 | 株式会社デンソー | Device for mobile object and control method for mobile object |
-
2010
- 2010-12-21 JP JP2010284482A patent/JP2012133530A/en active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016539403A (en) * | 2013-10-14 | 2016-12-15 | ノキア テクノロジーズ オサケユイチア | Method and apparatus for identifying media files based on contextual relationships |
US10437830B2 (en) | 2013-10-14 | 2019-10-08 | Nokia Technologies Oy | Method and apparatus for identifying media files based upon contextual relationships |
WO2017009887A1 (en) * | 2015-07-10 | 2017-01-19 | 株式会社日立製作所 | Information distribution system and method |
US10394519B2 (en) | 2016-10-11 | 2019-08-27 | Honda Motor Co., Ltd. | Service providing apparatus and method |
JP2018063486A (en) * | 2016-10-11 | 2018-04-19 | 本田技研工業株式会社 | Service providing device, service providing method, and service providing program |
JP2019021019A (en) * | 2017-07-18 | 2019-02-07 | パナソニック株式会社 | Human flow analysis method, human flow analysis device and human flow analysis system |
DE102018118575A1 (en) | 2017-08-10 | 2019-02-14 | TOYOTA Connected Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM |
US10885897B2 (en) | 2017-08-10 | 2021-01-05 | Toyota Jidosha Kabushiki Kaisha | Information providing device and information providing system |
JP7024799B2 (en) | 2017-11-17 | 2022-02-24 | 日産自動車株式会社 | Operation support device for vehicles |
CN111801667A (en) * | 2017-11-17 | 2020-10-20 | 日产自动车株式会社 | Vehicle operation assisting device |
RU2768509C2 (en) * | 2017-11-17 | 2022-03-24 | Ниссан Мотор Ко., Лтд. | Vehicle control aid device |
WO2019097674A1 (en) | 2017-11-17 | 2019-05-23 | 日産自動車株式会社 | Vehicle operation assistance device |
JPWO2019097674A1 (en) * | 2017-11-17 | 2020-12-03 | 日産自動車株式会社 | Operation support device for vehicles |
CN111801667B (en) * | 2017-11-17 | 2024-04-02 | 日产自动车株式会社 | Vehicle operation support device and vehicle operation support method |
KR20200074168A (en) | 2017-11-17 | 2020-06-24 | 닛산 지도우샤 가부시키가이샤 | Vehicle operation support device and operation support method |
CN109835216A (en) * | 2017-11-29 | 2019-06-04 | 丰田自动车株式会社 | Seat adjuster |
JP7081132B2 (en) | 2017-12-12 | 2022-06-07 | 日産自動車株式会社 | Information processing method and information processing equipment |
JP2019104354A (en) * | 2017-12-12 | 2019-06-27 | 日産自動車株式会社 | Information processing method and information processor |
US10984792B2 (en) | 2018-01-11 | 2021-04-20 | Toyota Jidosha Kabushiki Kaisha | Voice output system, voice output method, and program storage medium |
JP2019158975A (en) * | 2018-03-08 | 2019-09-19 | トヨタ自動車株式会社 | Utterance system |
JP7192222B2 (en) | 2018-03-08 | 2022-12-20 | トヨタ自動車株式会社 | speech system |
JP7123581B2 (en) | 2018-03-13 | 2022-08-23 | 日産自動車株式会社 | Information processing method and information processing apparatus |
JP2019159790A (en) * | 2018-03-13 | 2019-09-19 | 日産自動車株式会社 | Information processing method and information processing device |
JP7095431B2 (en) | 2018-06-19 | 2022-07-05 | トヨタ自動車株式会社 | Information processing equipment, information processing method, information processing system |
JP2019219859A (en) * | 2018-06-19 | 2019-12-26 | トヨタ自動車株式会社 | Information processing device, information processing method, and program |
US11004450B2 (en) | 2018-07-03 | 2021-05-11 | Hyundai Motor Company | Dialogue system and dialogue processing method |
JP2019053785A (en) * | 2019-01-09 | 2019-04-04 | 本田技研工業株式会社 | Service providing device |
CN113312070A (en) * | 2021-06-03 | 2021-08-27 | 海信集团控股股份有限公司 | Application name updating method of vehicle-mounted application and vehicle |
WO2022270234A1 (en) * | 2021-06-25 | 2022-12-29 | 株式会社デンソー | Device for mobile object and control method for mobile object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012133530A (en) | On-vehicle device | |
JP4566844B2 (en) | NAVIGATION SYSTEM AND STORAGE DEVICE USED FOR THE NAVIGATION SYSTEM | |
US10059287B2 (en) | System and method for enhanced comfort prediction | |
EP1909069B1 (en) | Intelligent destination setting for navigation systems | |
US9630611B1 (en) | System and method for acceleration event prediction | |
US8775080B2 (en) | Destination estimating apparatus, navigation system including the destination estimating apparatus, destination estimating method, and destination estimating program | |
US7683767B2 (en) | Control device for controlling in-vehicle unit | |
JP4371057B2 (en) | Vehicle agent device, agent system, and agent control method | |
US7728737B2 (en) | Systems and methods for output of information messages in a vehicle | |
US20110060523A1 (en) | Method of utilizing a personal navigation device to suggest alternate routes being identified by recognizable street names | |
KR20140051411A (en) | Method for assisting a user of a motor vehicle, multimedia system, and motor vehicle | |
US11511755B2 (en) | Arousal support system and arousal support method | |
WO2015133142A1 (en) | Reporting apparatus | |
JP2007108134A (en) | Content data regeneration device | |
JP2008142411A (en) | Massage control device for vehicle | |
JP2020095475A (en) | Matching method, matching server, matching system, and program | |
CN110136466B (en) | Road condition information pushing method and system and vehicle | |
CN111916069A (en) | System and method for providing information based on speech recognition and vehicle | |
KR100767458B1 (en) | On-vehicle electronic apparatus and information notification method | |
JP2008225537A (en) | Safety device for vehicle | |
JP2000203465A (en) | Information recording device | |
CN113739816A (en) | Vehicle navigation control method and device and vehicle | |
WO2023162192A1 (en) | Content output device, content output method, program, and recording medium | |
US20240134596A1 (en) | Content output device, content output method, program and storage medium | |
WO2023276037A1 (en) | Content output device, content output method, program, and storage medium |