JP2009064186A - Interactive system for vehicle - Google Patents

Interactive system for vehicle Download PDF

Info

Publication number
JP2009064186A
JP2009064186A JP2007230602A JP2007230602A JP2009064186A JP 2009064186 A JP2009064186 A JP 2009064186A JP 2007230602 A JP2007230602 A JP 2007230602A JP 2007230602 A JP2007230602 A JP 2007230602A JP 2009064186 A JP2009064186 A JP 2009064186A
Authority
JP
Japan
Prior art keywords
preference
vehicle
dialogue
database
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007230602A
Other languages
Japanese (ja)
Inventor
Masatomo Sumimoto
雅友 隅本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2007230602A priority Critical patent/JP2009064186A/en
Publication of JP2009064186A publication Critical patent/JP2009064186A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interactive system for a vehicle, in which proper interaction control on which characters such as the sensitivity or tastes of a user are reflected, is performed. <P>SOLUTION: A detection means detects the occupant of a vehicle. A discrimination means discriminates the taste of the occupant based on the speech of the detected occupant. A determination means determines interaction content based on the taste of the occupant decided by the discrimination means. A control means controls interaction with the occupant based on the interaction content determined by the determination means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両におけるカーナビゲーションなどをタスクとする、インタラクティブな対話システムに関する。   The present invention relates to an interactive interactive system that uses car navigation in a vehicle as a task.

近年、人間と機械が対話することでタスクを達成する対話システムの利用が進んでいる。特に音声による対話システムは、自動車のドライバーのように手が離せない者に対するカーナビゲーションなどのタスクへの応用が期待されている。   In recent years, the use of a dialogue system that achieves a task through dialogue between a human and a machine has been advanced. In particular, the voice interaction system is expected to be applied to tasks such as car navigation for those who cannot keep their hands like car drivers.

特開2006−195637号公報JP 2006-195637 A

対話システムにおいては、タスクを効率的に達成するための対話戦略の選択あるいは対話制御が重要である。とりわけ、カーナビゲーションのように、ユーザによって、あるいは、時や場所によって、目的がさまざまに変化するアプリケーションでは、適切な対話戦略の選択あるいは対話制御は非常に難しい。画一的な対話戦略では、あるユーザには満足度は高くても別のユーザには満足度は低いものとなることも多い。   In a dialog system, it is important to select a dialog strategy or control dialog to efficiently accomplish a task. In particular, it is very difficult to select or control an appropriate dialogue strategy in an application whose purpose changes variously depending on the user or depending on the time and place, such as car navigation. In a uniform dialogue strategy, satisfaction is often high for one user but low for another user.

したがって、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが必要とされている。   Therefore, there is a need for a dialogue system in which appropriate dialogue control that reflects characters such as user sensitivity and preferences is performed.

本発明の一側面によれば、車両の乗員を検出する検出手段と、前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段とを備えることを特徴とする車両用対話システムが提供される。   According to one aspect of the present invention, detection means for detecting an occupant of a vehicle, determination means for determining a passenger's preference based on an utterance of the occupant detected by the detection means, and determination by the determination means A vehicle dialogue comprising: a determination unit that determines a conversation content based on the passenger's preference; and a control unit that controls a conversation with the passenger based on the conversation content determined by the determination unit. A system is provided.

この構成によれば、乗員の嗜好を反映した対話処理を実現することができる。   According to this configuration, it is possible to realize dialogue processing that reflects the passenger's preference.

本発明の好適な実施形態によれば、前記乗員の発話を認識する音声認識手段と、前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段とを更に有し、前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することが好ましい。   According to a preferred embodiment of the present invention, the speech recognition means for recognizing the utterance of the passenger, the speech recognized by the speech recognition means is converted into text, and the grammatical dependency between the morphemes constituting the text It is preferable to further include dependency analysis means for analyzing the relationship, and the determination means determines the passenger's preference based on the dependency relationship analyzed by the dependency analysis means.

この構成によれば、乗員の嗜好を高精度に判定することができる。   According to this structure, a passenger | crew's preference can be determined with high precision.

本発明の好適な実施形態によれば、前記乗員の顔画像を認識する顔画像認識手段を更に備え、前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することが好ましい。   According to a preferred embodiment of the present invention, the image processing apparatus further comprises face image recognition means for recognizing the face image of the occupant, wherein the determination means is based on the face image of the occupant recognized by the face image recognition means. It is preferable to determine the preference.

この構成によれば、乗員の嗜好を高精度に判定することができる。   According to this structure, a passenger | crew's preference can be determined with high precision.

本発明の好適な実施形態によれば、前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、ネットワークを介して収集した話題データを蓄積する話題データベースとを更に有し、前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することが好ましい。   According to a preferred embodiment of the present invention, there is further provided a preference database for accumulating vocabulary relating to the passenger's preference determined by the determination means, and a topic database for accumulating topic data collected via a network, It is preferable that the determination unit determines the conversation contents by extracting a vocabulary corresponding to the determination result of the determination unit from the preference database and extracting a topic related to the extracted vocabulary from the topic database.

この構成によれば、乗員に対して豊富な話題を提供することができる。   According to this configuration, a wide variety of topics can be provided to the occupant.

本発明の好適な実施形態によれば、前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することが好ましい。   According to a preferred embodiment of the present invention, the apparatus further comprises a forming unit that generates a self-organizing map of the preference database and forms an occupant utterance content cluster based on the self-organizing map, and the determining unit includes: It is preferable to determine the conversation content based on the utterance content cluster.

この構成によれば、乗員に対して豊富な話題を提供することができる。   According to this configuration, a wide variety of topics can be provided to the occupant.

本発明の好適な実施形態によれば、前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることが好ましい。   According to a preferred embodiment of the present invention, the preference database and the topic database are preferably configured to store data transferred from an external device via a network.

この構成によれば、乗員に対して豊富な話題を提供することができる。   According to this configuration, a wide variety of topics can be provided to the occupant.

本発明の好適な実施形態によれば、対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することが好ましい。また、前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することが好ましい。   According to a preferred embodiment of the present invention, it is preferable to further include a hierarchical interactive content database in which interactive content is classified and stored hierarchically according to priority. Moreover, it is preferable that the said determination means determines the said priority based on the said passenger | crew's preference which the said determination means determined.

この構成によれば、乗員の要望に合った対話を提供することができる。   According to this configuration, it is possible to provide a dialogue that meets the needs of the occupant.

本発明の好適な実施形態によれば、前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることが好ましい。   According to a preferred embodiment of the present invention, it is preferable that each of the topic database and the preference database is associated with a target facility provided by a navigation system.

この構成によれば、ナビゲーションシステムを介して、乗員の嗜好、話題に適合した目的施設を選定することができる。   According to this configuration, it is possible to select a destination facility that suits the passenger's preference and topic via the navigation system.

さらには、前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することが好ましい。   Further, the topic database is associated with a roadside facility provided by the navigation system, and the determining means is based on the topic database and the preference database, and the dialogue content regarding the roadside facility according to the position of the vehicle. Is preferably determined.

この構成によれば、自車周辺の施設情報の対話を行うことができる。   According to this configuration, it is possible to interact with facility information around the vehicle.

本発明によれば、ユーザの感性や好みなどのキャラクタを反映した適切な対話制御が行われる対話システムが提供される。   ADVANTAGE OF THE INVENTION According to this invention, the dialogue system in which appropriate dialogue control reflecting characters, such as a user's sensitivity and liking, is performed is provided.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It shows only the specific example advantageous for implementation of this invention. In addition, not all combinations of features described in the following embodiments are indispensable as means for solving the problems of the present invention.

図1は、本実施形態における車両用対話システムの構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a vehicle dialogue system in the present embodiment.

車両用対話システムは基本的に、車両にサービスを提供するサービスセンタ100と、車両に搭載され、ネットワーク10を介してサービスセンタ100と通信を行う車載ユニット200とで構成される。   The vehicle dialogue system basically includes a service center 100 that provides services to the vehicle, and an in-vehicle unit 200 that is mounted on the vehicle and communicates with the service center 100 via the network 10.

サービスセンタ100は、サーバ101、ユーザ判定データベース(DB)102、嗜好判定用DB103、ユーザ嗜好DB104、話題DB105、階層型対話コンテンツDB106を含む。本実施形態では図示の如く、これらはネットワーク10を介して相互に通信可能に接続されているが、各DBはサーバ101と直接接続される形態やサーバ101に内蔵される形態でもよい。また、図示するように、携帯電話20、パーソナルコンピュータ(PC)21、家庭用ロボット22なども、ネットワーク10に接続することが可能となっている。   The service center 100 includes a server 101, a user determination database (DB) 102, a preference determination DB 103, a user preference DB 104, a topic DB 105, and a hierarchical interactive content DB 106. In the present embodiment, as shown in the figure, these are communicably connected via the network 10, but each DB may be connected directly to the server 101 or built in the server 101. As shown in the figure, a mobile phone 20, a personal computer (PC) 21, a home robot 22, and the like can also be connected to the network 10.

車載ユニット200において、201は乗員(ユーザ)の音声を収集する車室内マイクロホン201、202は車室内マイクロホン201から入力される乗員(ユーザ)の音声を検出する音声検出部202である。203は、ユーザの顔を含む画像を撮影する車室内カメラ203、204は車室内カメラ203により撮影された画像からユーザの顔画像を検出する画像検出部である。205は音声検出部202で検出された音声及び画像検出部204で検出された顔画像の分析を行うマルチモーダル情報処理部である。   In the in-vehicle unit 200, 201 is a vehicle interior microphone 201 that collects the sound of the passenger (user), and 202 is a sound detection unit 202 that detects the sound of the passenger (user) input from the vehicle interior microphone 201. 203 denotes an in-vehicle camera 203 and 204 that captures an image including the user's face, and an image detection unit that detects the user's face image from the image captured by the in-vehicle camera 203. Reference numeral 205 denotes a multimodal information processing unit that analyzes the sound detected by the sound detection unit 202 and the face image detected by the image detection unit 204.

206は、マルチモーダル情報処理部205での分析結果及びユーザ判定DB102を用いてユーザの判定を行うユーザ判定部である。207は嗜好判定用DB103を用いてユーザの嗜好判定処理を行いユーザ嗜好DB104の更新を行うユーザ嗜好判定部、208はユーザ嗜好判定部207で判定されたユーザの嗜好を分類するユーザ嗜好データ分類部である。   Reference numeral 206 denotes a user determination unit that performs user determination using the analysis result in the multimodal information processing unit 205 and the user determination DB 102. Reference numeral 207 denotes a user preference determination unit that performs user preference determination processing using the preference determination DB 103 and updates the user preference DB 104. Reference numeral 208 denotes a user preference data classification unit that classifies user preferences determined by the user preference determination unit 207. It is.

209は、ユーザ嗜好DB104に基づいてユーザの発話の対象ワードについて要求度を判定する要求度判定部である。210は、要求度判定部209の判定結果に基づいてユーザに対する対話プランを生成する対話プランニング部である。211は、GPSを利用するナビゲーション装置212で特定される車両の現在位置及び地図データ213に基づいて割り込みによる音声出力を行うかどうかを判定する発話割り込み判定部である。   Reference numeral 209 denotes a request level determination unit that determines a request level for a target word of a user's utterance based on the user preference DB 104. 210 is a dialogue planning unit that generates a dialogue plan for the user based on the determination result of the request level determination unit 209. 211 is an utterance interruption determination unit that determines whether or not to perform voice output by interruption based on the current position of the vehicle specified by the navigation device 212 using GPS and the map data 213.

214は、対話プランニング部210及び発話割り込み判定部211の処理結果に従い対話出力を制御する対話出力制御部である。音声合成部215は、対話出力制御部214からの制御指令に従い音声合成を行いスピーカ216を通じて合成音声を出力する。また、画像表示部217は、対話出力制御部214からの制御指令に従いディスプレイ218に画像を表示させる。   A dialog output control unit 214 controls the dialog output according to the processing results of the dialog planning unit 210 and the speech interruption determination unit 211. The voice synthesizer 215 synthesizes voice according to the control command from the dialogue output controller 214 and outputs synthesized voice through the speaker 216. The image display unit 217 displays an image on the display 218 in accordance with a control command from the dialogue output control unit 214.

図2は、本実施形態における車両用対話システムの処理内容を示すフローチャートである。   FIG. 2 is a flowchart showing the processing contents of the vehicle dialogue system in the present embodiment.

まず、サービスセンタ100におけるサーバ101により行われる処理を説明する。   First, processing performed by the server 101 in the service center 100 will be described.

ステップS1において、ユーザデータ保存処理が行われる。ここでは、声紋分析に用いられる音声の周波数パターンのデータ及び、顔画像認識に用いられる顔画像の特徴量を、ユーザデータとして、携帯電話20、PC21、家庭用ロボット22などを通じて、ユーザ別に収集し、ユーザ判定DB102に登録する。   In step S1, user data storage processing is performed. Here, voice frequency pattern data used for voiceprint analysis and facial image feature quantities used for face image recognition are collected as user data for each user through the mobile phone 20, the PC 21, the home robot 22, and the like. And registering in the user determination DB 102.

次に、ステップS2において、嗜好判定用データ登録処理が行われる。ここでは、嗜好を判定するための感情を表す語彙を、携帯電話20、PC21、家庭用ロボット22などを通じて、嗜好判定用DB103に登録する。本実施形態では、図6に示すように、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙が、「ポジティブ」と「ネガティブ」に分類されて登録されるものとする。   Next, in step S2, preference determination data registration processing is performed. Here, the vocabulary representing the emotion for determining the preference is registered in the preference determination DB 103 through the mobile phone 20, the PC 21, the home robot 22, and the like. In the present embodiment, as shown in FIG. 6, vocabulary representing emotions for determining preference is classified and registered as “positive” and “negative” in the preference determination DB 103.

次に、ステップS3において、話題データ分類処理が行われる。この話題データ分類処理の詳細を、図3のフローチャートに示す。   Next, in step S3, topic data classification processing is performed. Details of the topic data classification process are shown in the flowchart of FIG.

まず、ユーザ嗜好DB104から、「ポジティブ」に分類されている対象ワードを全て読み出す(ステップS31)。「ポジティブ」に分類されている対象ワード(ポジティブワード)がある場合(ステップS32,YES)は、各対象ワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS33)、抽出された情報の全文を、その対象ワード及び予め定められた大分類に関連付けて話題DB105に記憶する(ステップS34)。   First, all target words classified as “positive” are read from the user preference DB 104 (step S31). When there is a target word (positive word) classified as “positive” (step S32, YES), information related to each target word is extracted from the Internet using, for example, a known search engine (step S33). The entire sentence of the extracted information is stored in the topic DB 105 in association with the target word and a predetermined large classification (step S34).

その後、全てのポジティブワードについて処理を行ったかどうかを判定し(ステップS35)、否であれば別のポジティブワードについてステップS33,S34の処理を繰り返す。こうして全てのポジティブワードについて処理を終えるとステップS36に進む。また、ステップS32でポジティブワードがなかった場合もそのままステップS36に進む。   Thereafter, it is determined whether or not all positive words have been processed (step S35). If no, the processes of steps S33 and S34 are repeated for another positive word. When the processing is completed for all positive words in this way, the process proceeds to step S36. If there is no positive word in step S32, the process proceeds to step S36.

ステップS36では、ユーザ嗜好DB104にノーリアクションワードがあるかどうかを判定する。「ノーリアクション」ワードとは、「ポジティブ」にも「ネガティブ」にも分類されていないワードをいう。ノーリアクションワードがユーザ嗜好DB104に含まれていない場合は、そのままこの話題データ分類処理を抜ける。一方、ノーリアクションワードがユーザ嗜好DB104に含まれている場合には、各ノーリアクションワードに関連する情報を、例えば公知の検索エンジンを用いてインターネットから抽出し(ステップS37)、抽出された情報の要約文を、そのノーリアクションワード及び上記大分類に関連付けて話題DB105に記憶する(ステップS38)。   In step S36, it is determined whether there is a no reaction word in the user preference DB 104. A “no-reaction” word is a word that is not classified as “positive” or “negative”. If the no-reaction word is not included in the user preference DB 104, the topic data classification process is directly exited. On the other hand, when the no-reaction word is included in the user preference DB 104, information related to each no-reaction word is extracted from the Internet using, for example, a known search engine (step S37). The summary sentence is stored in the topic DB 105 in association with the no-reaction word and the major classification (step S38).

その後、全てのノーリアクションワードについて処理を行ったかどうかを判定し(ステップS39)、否であれば別のノーリアクションワードについて上記のステップS37,S38の処理を繰り返す。こうして全てのノーリアクションワードについて処理を終えると、この話題データ分類処理を抜ける。   Thereafter, it is determined whether or not processing has been performed for all no-reaction words (step S39). If not, the processing of steps S37 and S38 is repeated for another no-reaction word. When processing is completed for all no-reaction words in this way, the topic data classification processing is exited.

このステップS3の話題データ分類処理で生成された話題DB105の一例を図4に示す。各話題は、「スポーツ」、「施設」、「食事」といった大分類に分類されている。なお、そして、「サッカー」がポジティブワードである場合には、サッカー関連の情報が全文で登録されている。一方、「野球」がノーリアクションワードである場合には、野球関連の情報が要約で登録されている。   An example of the topic DB 105 generated by the topic data classification process in step S3 is shown in FIG. Each topic is classified into large categories such as “sports”, “facility”, and “meal”. If “soccer” is a positive word, soccer-related information is registered in full text. On the other hand, when “baseball” is a no-reaction word, baseball-related information is registered as a summary.

次に、説明を図2のフローチャートに戻して、車載ユニット200により行われる処理を説明する。   Next, the description will be returned to the flowchart of FIG. 2, and the process performed by the in-vehicle unit 200 will be described.

まず、音声検出部202が、車室内マイクロホン201に入力されたユーザの発話を検出する(ステップS4)とともに、画像検出部204が、車室内カメラ203で撮像された画像からユーザの顔画像を検出する(ステップS5)。その後、マルチモーダル情報処理部205が、ステップS4で検出された音声から、声紋分析に用いられる音声の周波数パターンのデータを算出するとともに、ステップS5で検出された顔画像データから、顔画像認識に用いられる顔画像の特徴量を算出する(ステップS6)。そして、ユーザ判定部206が、ステップS5で算出された音声の周波数パターンのデータ及び顔画像の特徴量を、ユーザ判定DB102に記憶されているデータと比較照合することでユーザを判定する(ステップS7)。すなわち、ステップS6及びS7では音声認識及び顔画像認識を行っている。   First, the voice detection unit 202 detects the user's utterance input to the vehicle interior microphone 201 (step S4), and the image detection unit 204 detects the user's face image from the image captured by the vehicle interior camera 203. (Step S5). Thereafter, the multimodal information processing unit 205 calculates voice frequency pattern data used for voiceprint analysis from the voice detected in step S4, and performs face image recognition from the face image data detected in step S5. A feature amount of the face image to be used is calculated (step S6). Then, the user determination unit 206 determines the user by comparing and collating the voice frequency pattern data and the facial image feature amount calculated in step S5 with the data stored in the user determination DB 102 (step S7). ). That is, voice recognition and face image recognition are performed in steps S6 and S7.

次に、ユーザ嗜好判定部207が、ステップS7で判定されたユーザの嗜好判定処理を行う(ステップS8)。ユーザ嗜好判定処理の一例に係るフローチャートを、図5に示す。   Next, the user preference determination unit 207 performs a user preference determination process determined in step S7 (step S8). FIG. 5 shows a flowchart according to an example of the user preference determination process.

まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS81)。次に、係り受け解析を行って、抽出されたキーワードとその評価表現語との組である係り受け組を抽出する(ステップS82)。なお、上記の形態素解析及び係り受け解析は自然言語処理の分野で公知の技術を利用すればよい。   First, morphological analysis is performed on the text of the user utterance obtained by speech recognition, and the word registered in the preference determination DB 103 is extracted as a keyword (target word) from the result (step S81). Next, dependency analysis is performed to extract a dependency set that is a set of the extracted keyword and its evaluation expression word (step S82). Note that the morphological analysis and dependency analysis described above may use techniques known in the field of natural language processing.

次に、ステップS82で得られた評価表現語が嗜好判定用DB103において何に分類されているのかを判定する(ステップS83〜S88)。ここでは、後の処理のために、評価表現語が「ポジティブ」の場合はその対象ワードに要求度ポイント(評価値)として2が与えられる。他方、評価表現語が「ノーリアクション」の場合はその対象ワードに要求度ポイントとして1が与えられ、「ネガティブ」の場合はその対象ワードに要求度ポイントとして0が与えられる。   Next, it is determined what the evaluation expression word obtained in step S82 is classified in the preference determination DB 103 (steps S83 to S88). Here, for the subsequent processing, when the evaluation expression word is “positive”, 2 is given to the target word as a required degree point (evaluation value). On the other hand, when the evaluation expression word is “no reaction”, 1 is given as the required degree point to the target word, and when it is “negative”, 0 is given as the required degree point to the target word.

そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS89)。例えば、図6に示すように、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」であった場合、ユーザ嗜好DB104には、対象ワードとその評価表現語との組である係り受け組として抽出される、
「食事」→「する」、
「野球」→「見た」、
「サッカー」→「面白い」
が、その評価値(ポジティブ、ネガティブ、ノーリアクション)と共に登録される。具体的には、この場合の評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられる。
Then, the target word and the determination result are registered in the user preference DB 104 (step S89). For example, as shown in FIG. 6, when the user's utterance is “I watched a baseball game while having dinner last night, but soccer is interesting”, the user preference DB 104 stores the target word and its evaluation expression. Extracted as a dependency group that is a pair with a word,
“Meals” → “Yes”,
"Baseball" → "I saw",
“Soccer” → “Interesting”
Are registered together with their evaluation values (positive, negative, no reaction). Specifically, as evaluation values in this case, 1 is given to the target words “meal” and “baseball”, and 2 is given to “soccer”.

このとき、図6に示すように、各係り受け組の属性情報として、対象ワードが発話された際の会話の中で使用される関連語も併せて登録するとよい。   At this time, as shown in FIG. 6, related words used in the conversation when the target word is spoken may be registered as attribute information of each dependency group.

図7及び図8は、ユーザ嗜好判定処理の別の例を示す図である。   7 and 8 are diagrams illustrating another example of the user preference determination process.

この別の例では、嗜好判定用DB103には、嗜好を判定するための感情を表す語彙ではなく、図8に示すように、嗜好を判定するための感情を表す顔の表情のデータが登録される。   In this other example, not the vocabulary representing the emotion for judging the preference but the facial expression data representing the emotion for judging the preference are registered in the preference judging DB 103 as shown in FIG. The

まず、音声認識によって得られたユーザ発話のテキストに対し形態素解析を行い、その結果から嗜好判定用DB103に登録されているワードをキーワード(対象ワード)として抽出する(ステップS811)。次に、その発話時におけるユーザの顔の表情を検出する(ステップS812)。   First, morphological analysis is performed on the text of the user utterance obtained by speech recognition, and the words registered in the preference determination DB 103 are extracted as keywords (target words) from the results (step S811). Next, the facial expression of the user at the time of the utterance is detected (step S812).

そして、ステップS812で得られた表情が、嗜好判定用DB103において何に分類されているのかを判定する(ステップS813〜S818)。ここでは、上記の例と同様に、後の処理のために、その評価表現語が「ポジティブ」の場合は要求度ポイントとして2が与えられる。他方、その評価表現語が「ノーリアクション」の場合は要求度ポイントとして1が、「ネガティブ」の場合は要求度ポイントとして0が与えられる。   Then, it is determined what the facial expression obtained in step S812 is classified in the preference determination DB 103 (steps S813 to S818). Here, as in the above example, for the subsequent processing, when the evaluation expression word is “positive”, 2 is given as the required degree point. On the other hand, when the evaluation expression word is “no reaction”, 1 is given as the required degree point, and when it is “negative”, 0 is given as the required degree point.

そして、対象ワードと上記判定結果を、ユーザ嗜好DB104に登録する(ステップS819)。   Then, the target word and the determination result are registered in the user preference DB 104 (step S819).

以上が、ステップS8におけるユーザ嗜好判定処理の例である。   The above is an example of the user preference determination process in step S8.

次に、ユーザ嗜好データ分類部208がユーザ嗜好データ分類処理を行う(ステップS9)。このユーザ嗜好データ分類処理では、例えば、図9に示すように、ユーザ嗜好DBに追加されるワード対象抽出が行われ(ステップS91)、自己組織化マップ学習用データに変換される(ステップS92)。ステップS92で得られた自己組織化マップ学習用データを用いて、後述する自己組織化マップ学習によるワード分類処理を行い(ステップS93)、さらに、大分類&中分類クラスの抽出処理が行われる(ステップS94)。   Next, the user preference data classification unit 208 performs user preference data classification processing (step S9). In this user preference data classification process, for example, as shown in FIG. 9, word target extraction added to the user preference DB is performed (step S91) and converted into self-organizing map learning data (step S92). . Using the self-organizing map learning data obtained in step S92, word classification processing by self-organizing map learning described later is performed (step S93), and further, large classification and middle classification class extraction processing is performed ( Step S94).

図10、図11に、ステップS93の自己組織化マップ学習によるワード分類処理の内容を示す。   10 and 11 show the contents of the word classification processing by self-organizing map learning in step S93.

まず、対象ワードの属性情報の関連度を入力ベクトルXjとする(ステップS931)。次に、入力ベクトルXjと最も良く一致する参照ベクトルm(t)を持つ勝利ノードcを、式1に従って探索する(ステップS932)。 First, the relevance of the attribute information of the target word is set as the input vector Xj (step S931). Next, the winning node c having the reference vector m c (t) that best matches the input vector Xj is searched according to the equation 1 (step S932).

この勝利ノードcとその近傍ノードiを式2に従って更新する。これをすべての入力信号x,…,xに対して行う。学習(更新回数)を進めるに従い、学習の範囲と大きさを減らし、収束させる。 The winning node c and its neighboring node i are updated according to Equation 2. This is performed for all input signals x 1 ,..., X m . As learning (number of updates) proceeds, the range and size of learning are reduced and converged.

この式は、1層のニューラルネットワークを意味している。学習(更新回数)を進めるに従い、近傍サイズσと学習率係数αの値を減らしていくが、その代表的なものを式3、式4、式5に示す。   This equation means a one-layer neural network. As the learning (the number of updates) is advanced, the neighborhood size σ and the learning rate coefficient α are decreased. Typical examples are shown in Equations 3, 4, and 5.

そして、対象ワードが、この勝利ノードcの分類に属すると判定する(ステップS933)。   Then, it is determined that the target word belongs to the classification of the winning node c (step S933).

図12の(a)に、ステップS93の自己組織化マップによるワード分類処理結果を、近傍ノードを六角(Hexagon)に設定した場合の例で示す。この例によれば、スポーツ、食事、情報、エンターテインメントの4つの大分類と、スポーツの大分類下にサッカー日本代表、サッカーJリーグ、野球メジャーリーグ、野球国内リーグの4つの中分類に処理されていることがわかる。   FIG. 12A shows an example of the word classification processing result based on the self-organizing map in step S93 when the neighboring node is set to a hexagon. According to this example, it is processed into four major categories of sports, meal, information, and entertainment, and four major categories of Japan national soccer, soccer J-league, baseball major league, and baseball domestic league under the major category of sports. I understand that.

次に、この学習後の自己組織化マップに未知データxが入力された場合について説明する。入力データに対する学習が終了すると、各ノードの出力状態(参照ベクトル)m(T)は一定となる。すなわち、各ノードの特性は参照ベクトルm(T)で表現される。この学習後の自己組織化マップに未知データxが入力された場合は、式6に従い、自己組織化マップ上の未知データが属するノードqが算出される。 Next, a case where unknown data x p is input to the self-organizing map after learning will be described. When learning with respect to the input data is completed, the output state (reference vector) mi (T) of each node becomes constant. That is, the characteristic of each node is expressed by the reference vector m i (T). When unknown data xp is input to the self-organizing map after learning, a node q to which the unknown data on the self-organizing map belongs is calculated according to Equation 6.

例えば、図12の(b)に示すように、「走る」ワードに関する未知データが入力されれば、関連する大分類・中分類クラスが関連度の度合いで判定されることとなる。さらに、ユーザ嗜好の特徴においても、この学習後の自己組織化マップ上で、判定可能である。例えば、図12の(c)に示すように、Aさんは、スポーツに対してポジティブ、エンターテインメントに対してネガティブであり、Bさんは観光に対してポジティブ、スポーツに対してネガティブなユーザ嗜好の特徴の判定結果を示している。   For example, as shown in FIG. 12B, if unknown data related to the “run” word is input, the related major classification / medium classification is determined based on the degree of relevance. Further, the user preference feature can also be determined on the self-organizing map after learning. For example, as shown in FIG. 12C, A is positive for sports and negative for entertainment, and B is positive for tourism and negative for sports. The determination result is shown.

次にステップS94における大分類&中分類抽出処理を図13に示す。まず、大分類&中分類クラスの抽出を行い(ステップS941)、大分類&中分類クラスをユーザ嗜好DBに追加する(ステップS942)。その例を図14に示す。   Next, the large classification & middle classification extraction process in step S94 is shown in FIG. First, a large classification & middle classification class is extracted (step S941), and a large classification & middle classification class is added to the user preference DB (step S942). An example is shown in FIG.

次に、要求度判定部209が要求度判定処理を行う(ステップS10)。この要求度判定処理のフローチャートを、図15に示す。   Next, the request level determination unit 209 performs a request level determination process (step S10). FIG. 15 shows a flowchart of the request level determination process.

はじめに、ユーザの発話の対象ワードについて、ステップS8のユーザ嗜好判定処理の結果を抽出する(ステップS101)。図6に示した例の場合、ユーザの発話が「昨夜、食事をしながら、野球の試合を見たけど、サッカーが面白い」に対して、評価値として、対象ワード「食事」及び「野球」には1が、「サッカー」には2が与えられており、これらが抽出される。   First, the result of the user preference determination process in step S8 is extracted for the target word of the user's utterance (step S101). In the case of the example shown in FIG. 6, the user's utterance is “Last night, while watching a baseball game while eating, but soccer is interesting”, as evaluation values, the target words “meal” and “baseball” 1 is given to “Soccer”, and 2 is given to “soccer”.

次に、そのユーザ発話の対象ワードの大分類ごとの要求度ポイントの合計値を算出する(ステップS102)。具体的には、上記の例において、大分類「スポーツ」は、「野球」1+「サッカー」2=3、大分類「食事」は1、大分類「施設」は0となる。   Next, the total value of the request points for each major classification of the target word of the user utterance is calculated (step S102). Specifically, in the above example, the major category “sport” is “baseball” 1+ “soccer” 2 = 3, the major category “meal” is 1, and the major category “facility” is 0.

そして、ステップS102で求められた要求度ポイントに応じて、大分類の要求優先度を算出する。上記の例の場合、要求優先度は高い順に「スポーツ」、「食事」、「施設」となる。   Then, the request priority of the large classification is calculated according to the request point obtained in step S102. In the case of the above example, the request priority is “sport”, “meal”, and “facility” in descending order.

次に、対話プランニング部210が対話プランニング処理を行う。図16に、この対話プランニング処理の一例を示す。   Next, the dialogue planning unit 210 performs dialogue planning processing. FIG. 16 shows an example of this dialogue planning process.

はじめに、最上位の要求優先度の大分類を選択し(ステップS111)、選択された大分類に対応するユーザ嗜好DB104の語彙を抽出する(ステップS112)。   First, the major category with the highest request priority is selected (step S111), and the vocabulary of the user preference DB 104 corresponding to the selected major category is extracted (step S112).

ステップS112で抽出された語彙にポジティブワードが含まれるかどうかを判定し(ステップS113)、ポジティブワードが含まれる場合には、そのポジティブワードに関係付けられる話題DB105に蓄積された話題の全文を抽出する(ステップS114)。一方、ステップS112で抽出された語彙にポジティブワードが含まれない場合は、ステップS112で抽出された語彙にノーリアクションワードが含まれるか否かを判定し(ステップS115)、ノーリアクションワードが含まれる場合にはそのノーリアクションワードに関係付けられる話題DB105に蓄積された話題の要約を抽出する(ステップS116)。   It is determined whether or not the vocabulary extracted in step S112 includes a positive word (step S113). If a positive word is included, the full text of the topic stored in the topic DB 105 related to the positive word is extracted. (Step S114). On the other hand, if the vocabulary extracted in step S112 does not include a positive word, it is determined whether the vocabulary extracted in step S112 includes a no reaction word (step S115), and the no reaction word is included. In this case, a summary of topics accumulated in the topic DB 105 related to the no-reaction word is extracted (step S116).

ステップS114又はステップS116で抽出された話題の全文又は要約は、階層型対話コンテンツDB106に格納される(ステップS117)。   The full text or summary of the topic extracted in step S114 or step S116 is stored in the hierarchical interactive content DB 106 (step S117).

そして、全ての大分類の処理が終了したかを判断し(ステップS118)、まだ全ての大分類の処理が終了していなければ、次に高い優先度の大分類を選択して(ステップS119)、ステップS112に戻って処理を繰り返す。   Then, it is determined whether all major classification processes have been completed (step S118). If all major classification processes have not yet been completed, the next highest priority major classification is selected (step S119). Returning to step S112, the process is repeated.

このようにして作成された階層型対話コンテンツDB106の一例を図17に示す。   An example of the hierarchical interactive content DB 106 created in this way is shown in FIG.

次に、発話割り込み判定部211が、発話割り込み判定処理を行う。この発話割り込み判定処理の内容を、図18に示す。   Next, the speech interrupt determination unit 211 performs speech interrupt determination processing. The contents of this utterance interruption determination process are shown in FIG.

まず、ナビゲーション装置212から供給されるデータに基づいて車両の走行位置を検出する(ステップS121)。次いで、地図データ213を用いて、ステップS121で検出された車両の走行位置から所定距離内の路側施設を抽出する(ステップS122)。次に、ステップS122で抽出された路側施設から更に、ユーザ嗜好DB104にポジティブ又はノーリアクションとして登録されている路側施設を抽出する(ステップS123)。   First, the traveling position of the vehicle is detected based on the data supplied from the navigation device 212 (step S121). Next, roadside facilities within a predetermined distance are extracted from the travel position of the vehicle detected in step S121 using the map data 213 (step S122). Next, the roadside facility registered as positive or no reaction in the user preference DB 104 is further extracted from the roadside facility extracted in step S122 (step S123).

そして、ステップS123で抽出された路側施設がある場合には(ステップS124,YES)、対話出力制御部214を通じて、その路側施設の情報を、ユーザの興味ある情報として、割り込みにより音声又は画像にて出力する(ステップS125)。   If there is a roadside facility extracted in step S123 (YES in step S124), the information on the roadside facility is set as information of interest to the user through voice / image by interruption through the dialog output control unit 214. Output (step S125).

一方、ステップS123で抽出された路側施設がなければ(ステップS124,NO)、対話出力制御部214を通じて、階層型対話コンテンツDB106により、優先度に基づく音声又は画像の出力を行う(ステップS126)。具体的には、ここでは、優先度が最上位のポジティブワードについては全文による情報提示がされ、ノーリアクションワードについては要約による情報提示がされることになる。   On the other hand, if there is no roadside facility extracted in step S123 (step S124, NO), voice or image based on priority is output by the hierarchical interactive content DB 106 through the interactive output control unit 214 (step S126). Specifically, here, information is presented in full text for the positive word with the highest priority, and information is presented in summary for the no-reaction word.

実施形態における車両用対話システムの構成を示すブロック図である。It is a block diagram which shows the structure of the dialog system for vehicles in embodiment. 実施形態における車両用対話システムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the dialogue system for vehicles in embodiment. 実施形態におけるサービスセンタのサーバによる話題データ分類処理を示すフローチャートである。It is a flowchart which shows the topic data classification | category process by the server of the service center in embodiment. 実施形態における話題DBの一例を模式的に示す図である。It is a figure which shows typically an example of topic DB in embodiment. 実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user preference determination process in embodiment. 実施形態におけるユーザ嗜好判定処理の一例を説明する図である。It is a figure explaining an example of the user preference determination process in embodiment. 実施形態におけるユーザ嗜好判定処理の別の例を示すフローチャートである。It is a flowchart which shows another example of the user preference determination process in embodiment. 実施形態におけるユーザ嗜好判定処理の別の例を説明する図である。It is a figure explaining another example of user taste judging processing in an embodiment. 実施形態におけるユーザ嗜好判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user preference determination process in embodiment. 実施形態における自己組織化マップによるワード分類処理の一例を示すフローチャートである。It is a flowchart which shows an example of the word classification | category process by the self-organization map in embodiment. 実施形態における自己組織化マップによるワード分類処理の一例を説明する図である。It is a figure explaining an example of the word classification | category process by the self-organization map in embodiment. 実施形態における自己組織化マップによるワード分類処理結果の一例を説明する図である。It is a figure explaining an example of the word classification | category process result by the self-organization map in embodiment. 実施形態における大分類&中分類クラスの抽出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the extraction process of the large classification & middle classification class in embodiment. 実施形態における自己組織化マップによるワード分類処理後のユーザ嗜好DBの一例を説明する図である。It is a figure explaining an example of user taste DB after word classification processing by a self-organization map in an embodiment. 実施形態における要求度判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the request | requirement degree determination process in embodiment. 実施形態における対話プランニング処理の一例を示すフローチャートである。It is a flowchart which shows an example of the dialogue planning process in embodiment. 実施形態における階層型対話コンテンツDBの一例を示す図である。It is a figure which shows an example of the hierarchical dialogue content DB in embodiment. 実施形態における発話割り込み判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the speech interruption determination process in embodiment.

符号の説明Explanation of symbols

10:ネットワーク
20:携帯電話
21:パーソナルコンピュータ
22:家庭用ロボット
100:サービスセンタ
101:サーバ
102:ユーザ判定DB
103:嗜好判定用DB
104:ユーザ嗜好DB
105:話題DB
106:階層型対話コンテンツDB
200:車載ユニット
201:車室内マイクロホン
202:音声検出部
203:車室内カメラ
204:画像検出部
205:マルチモーダル情報処理部
206:ユーザ判定部
207:ユーザ嗜好判定部
208:ユーザ嗜好データ分類部
209:要求度判定部
210:対話プランニング部
211:発話割り込み判定部
212:ナビゲーション装置
213:地図データ
214:対話出力制御部
215:音声合成部
216:スピーカ
217:画像表示部
218:ディスプレイ
10: Network 20: Mobile phone 21: Personal computer 22: Home robot 100: Service center 101: Server 102: User determination DB
103: DB for taste determination
104: User preference DB
105: Topic DB
106: Hierarchical dialogue content DB
200: vehicle-mounted unit 201: vehicle interior microphone 202: sound detection unit 203: vehicle interior camera 204: image detection unit 205: multimodal information processing unit 206: user determination unit 207: user preference determination unit 208: user preference data classification unit 209 : Request level determination unit 210: Dialog planning unit 211: Speech interruption determination unit 212: Navigation device 213: Map data 214: Dialog output control unit 215: Speech synthesis unit 216: Speaker 217: Image display unit 218: Display

Claims (10)

車両の乗員を検出する検出手段と、
前記検出手段により検出された乗員の発話に基づいて該乗員の嗜好を判定する判定手段と、
前記判定手段により判定された前記乗員の嗜好に基づいて、対話内容を決定する決定手段と、
前記決定手段により決定された前記対話内容に基づき前記乗員との対話を制御する制御手段と、
を備えることを特徴とする車両用対話システム。
Detecting means for detecting a vehicle occupant;
A determination unit that determines the preference of the occupant based on the utterance of the occupant detected by the detection unit;
Determining means for determining the content of the dialogue based on the passenger's preference determined by the determining means;
Control means for controlling a dialogue with the occupant based on the dialogue content decided by the decision means;
A vehicle dialogue system comprising:
前記乗員の発話を認識する音声認識手段と、
前記音声認識手段が認識した音声をテキストに変換し、該テキストを構成する形態素間の文法上の係り受け関係を解析する係り受け解析手段と、
を更に有し、
前記判定手段は、前記係り受け解析手段が解析した前記係り受け関係に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
Voice recognition means for recognizing the utterance of the passenger;
Dependency analysis means for converting speech recognized by the speech recognition means into text and analyzing grammatical dependency relationships between morphemes constituting the text;
Further comprising
2. The vehicle dialogue system according to claim 1, wherein the determination unit determines the preference of the occupant based on the dependency relationship analyzed by the dependency analysis unit.
前記乗員の顔画像を認識する顔画像認識手段を更に備え、
前記判定手段は、前記顔画像認識手段が認識した前記乗員の顔画像に基づいて前記乗員の嗜好を判定することを特徴とする請求項1に記載の車両用対話システム。
A face image recognition means for recognizing the face image of the occupant;
2. The vehicle dialogue system according to claim 1, wherein the determination unit determines the preference of the occupant based on the face image of the occupant recognized by the face image recognition unit.
前記判定手段で判定された上記乗員の嗜好に関する語彙を蓄積する嗜好データベースと、
ネットワークを介して収集した話題データを蓄積する話題データベースと、
を更に有し、
前記決定手段は、前記判定手段の判定結果に応じた語彙を前記嗜好データベースから抽出し、該抽出した語彙に関連する話題を前記話題データベースから抽出することで前記対話内容を決定することを特徴とする請求項1から3までのいずれか1項に記載の車両用対話システム。
A preference database that accumulates vocabulary related to the passenger's preference determined by the determination means;
A topic database that accumulates topic data collected over the network;
Further comprising
The determining means extracts a vocabulary according to a determination result of the determining means from the preference database, and determines the conversation content by extracting a topic related to the extracted vocabulary from the topic database. The vehicle dialogue system according to any one of claims 1 to 3.
前記嗜好データベースの自己組織化マップを生成し、該自己組織化マップに基づいて乗員の発話コンテンツクラスタを形成する形成手段を更に備え、
前記決定手段は、前記発話コンテンツクラスタに基づき対話内容を決定することを特徴とする請求項4に記載の車両用対話システム。
Generating a self-organizing map of the preference database, and forming a speech content cluster of an occupant based on the self-organizing map;
5. The vehicle dialogue system according to claim 4, wherein the decision means decides dialogue contents based on the utterance content cluster.
前記嗜好データベース及び前記話題データベースは、ネットワークを介して外部機器から転送されるデータを蓄積するように構成されていることを特徴とする請求項4に記載の車両用対話システム。   5. The vehicle dialogue system according to claim 4, wherein the preference database and the topic database are configured to store data transferred from an external device via a network. 対話内容を優先度に応じて階層的に分類して格納した階層型対話コンテンツデータベースを更に有することを特徴とする請求項1に記載の車両用対話システム。   The vehicle dialogue system according to claim 1, further comprising a hierarchical dialogue content database in which dialogue contents are classified and stored hierarchically according to priority. 前記決定手段は、前記判定手段が判定した前記乗員の嗜好に基づいて前記優先度を決定することを特徴とする請求項7に記載の車両用対話システム。   8. The vehicle dialogue system according to claim 7, wherein the determination unit determines the priority based on the passenger's preference determined by the determination unit. 前記話題データベース及び前記嗜好データベースはそれぞれ、ナビゲーションシステムが提供する目的施設に関連付けられていることを特徴とする請求項4に記載の車両用対話システム。   The interactive system for vehicles according to claim 4, wherein each of the topic database and the preference database is associated with a target facility provided by a navigation system. 前記話題データベースは、前記ナビゲーションシステムが提供する路側施設に関連付けられており、
前記決定手段は、前記話題データベース及び前記嗜好データベースに基づいて、前記車両の位置に応じた路側施設に関する対話内容を決定することを特徴とする請求項9に記載の車両用対話システム。
The topic database is associated with a roadside facility provided by the navigation system,
10. The vehicle dialogue system according to claim 9, wherein the decision means decides a dialogue content related to a roadside facility according to the position of the vehicle based on the topic database and the preference database.
JP2007230602A 2007-09-05 2007-09-05 Interactive system for vehicle Pending JP2009064186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007230602A JP2009064186A (en) 2007-09-05 2007-09-05 Interactive system for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007230602A JP2009064186A (en) 2007-09-05 2007-09-05 Interactive system for vehicle

Publications (1)

Publication Number Publication Date
JP2009064186A true JP2009064186A (en) 2009-03-26

Family

ID=40558726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007230602A Pending JP2009064186A (en) 2007-09-05 2007-09-05 Interactive system for vehicle

Country Status (1)

Country Link
JP (1) JP2009064186A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138492A (en) * 2009-12-03 2011-07-14 Panasonic Corp Lifestyle collection apparatus, user interface apparatus and lifestyle collection method
WO2014181524A1 (en) * 2013-05-09 2014-11-13 ソフトバンクモバイル株式会社 Conversation processing system and program
JP2015004754A (en) * 2013-06-19 2015-01-08 ヤフー株式会社 Interaction device, interaction method and interaction program
JP2015125198A (en) * 2013-12-25 2015-07-06 Kddi株式会社 Interactive program, server and method for controlling inserting action of dynamic interactive node to interactive scenario
JP2016071050A (en) * 2014-09-29 2016-05-09 シャープ株式会社 Voice interactive device, voice interactive system, terminal, voice interactive method, program for letting computer function as voice interactive device
JP2017049427A (en) * 2015-09-01 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2017156854A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP2019191828A (en) * 2018-04-23 2019-10-31 トヨタ自動車株式会社 Information provision system and information provision method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219288A (en) * 2002-01-18 2003-07-31 Aruze Corp Broadcast information providing system, broadcast information providing method, broadcast information providing apparatus and broadcast information providing program
JP2003308338A (en) * 2002-04-18 2003-10-31 Sharp Corp Device and method for providing information, mobile terminal equipment, mobile terminal system, program for providing information, and recording medium for program
JP2004219714A (en) * 2003-01-15 2004-08-05 Will Being:Kk Method and system for speech interaction by computer that discriminate scene of interaction belonging to specific scene predetermined according to human's indication, generate answer sentence constituting natural interaction conforming with scene, speech interaction by synthesizing voice of it
JP2006171709A (en) * 2004-11-17 2006-06-29 Denso Corp Voice interactive apparatus and speech interactive method
JP2006195637A (en) * 2005-01-12 2006-07-27 Toyota Motor Corp Voice interaction system for vehicle
JP2007212421A (en) * 2006-02-13 2007-08-23 Denso Corp Entertainment information providing system for automobile

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219288A (en) * 2002-01-18 2003-07-31 Aruze Corp Broadcast information providing system, broadcast information providing method, broadcast information providing apparatus and broadcast information providing program
JP2003308338A (en) * 2002-04-18 2003-10-31 Sharp Corp Device and method for providing information, mobile terminal equipment, mobile terminal system, program for providing information, and recording medium for program
JP2004219714A (en) * 2003-01-15 2004-08-05 Will Being:Kk Method and system for speech interaction by computer that discriminate scene of interaction belonging to specific scene predetermined according to human's indication, generate answer sentence constituting natural interaction conforming with scene, speech interaction by synthesizing voice of it
JP2006171709A (en) * 2004-11-17 2006-06-29 Denso Corp Voice interactive apparatus and speech interactive method
JP2006195637A (en) * 2005-01-12 2006-07-27 Toyota Motor Corp Voice interaction system for vehicle
JP2007212421A (en) * 2006-02-13 2007-08-23 Denso Corp Entertainment information providing system for automobile

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138492A (en) * 2009-12-03 2011-07-14 Panasonic Corp Lifestyle collection apparatus, user interface apparatus and lifestyle collection method
US8909636B2 (en) 2009-12-03 2014-12-09 Panasonic Intellectual Property Corporation Of America Lifestyle collecting apparatus, user interface device, and lifestyle collecting method
WO2014181524A1 (en) * 2013-05-09 2014-11-13 ソフトバンクモバイル株式会社 Conversation processing system and program
JP2014219594A (en) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 Conversation processing system and program
JP2015004754A (en) * 2013-06-19 2015-01-08 ヤフー株式会社 Interaction device, interaction method and interaction program
JP2015125198A (en) * 2013-12-25 2015-07-06 Kddi株式会社 Interactive program, server and method for controlling inserting action of dynamic interactive node to interactive scenario
JP2016071050A (en) * 2014-09-29 2016-05-09 シャープ株式会社 Voice interactive device, voice interactive system, terminal, voice interactive method, program for letting computer function as voice interactive device
JP2017049427A (en) * 2015-09-01 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2017156854A (en) * 2016-02-29 2017-09-07 Kddi株式会社 Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP2019191828A (en) * 2018-04-23 2019-10-31 トヨタ自動車株式会社 Information provision system and information provision method
JP7091807B2 (en) 2018-04-23 2022-06-28 トヨタ自動車株式会社 Information provision system and information provision method

Similar Documents

Publication Publication Date Title
CN110660397B (en) Dialogue system, vehicle and method for controlling a vehicle
JP2009064186A (en) Interactive system for vehicle
US11282522B2 (en) Artificial intelligence apparatus and method for recognizing speech of user
CN108346430A (en) Conversational system, the vehicle with conversational system and dialog process method
US11200892B1 (en) Speech-enabled augmented reality user interface
US20130173269A1 (en) Methods, apparatuses and computer program products for joint use of speech and text-based features for sentiment detection
TWI395201B (en) Method and system for identifying emotional voices
KR20190041569A (en) Dialogue processing apparatus, vehicle having the same and dialogue service processing method
US11574637B1 (en) Spoken language understanding models
CN113168832A (en) Alternating response generation
US20180068659A1 (en) Voice recognition device and voice recognition method
US20200043498A1 (en) Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency
US20200058290A1 (en) Artificial intelligence apparatus for correcting synthesized speech and method thereof
CN111341349A (en) Emotion estimation device, emotion estimation method, and storage medium
KR102281504B1 (en) Voice sythesizer using artificial intelligence and operating method thereof
US11508368B2 (en) Agent system, and, information processing method
US11862170B2 (en) Sensitive data control
US20220338281A1 (en) Artificial intelligence device for providing device control function based on interworking between devices and method therefor
JP2004325936A (en) Speech recognition device, speech recognition method, and speech recognition program, and recording medium recorded with its program
JP2010217318A (en) Passenger search device and passenger search program
US11468247B2 (en) Artificial intelligence apparatus for learning natural language understanding models
CN107885720B (en) Keyword generation device and keyword generation method
US20220208187A1 (en) Information processing device, information processing method, and storage medium
KR102642617B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer readable recording medium
KR102631143B1 (en) Voice synthesizer using artificial intelligence, operating method of voice synthesizer and computer redable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100316

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20101001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101102

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121211