JP2018055452A - キーワード生成装置およびキーワード生成方法 - Google Patents

キーワード生成装置およびキーワード生成方法 Download PDF

Info

Publication number
JP2018055452A
JP2018055452A JP2016191436A JP2016191436A JP2018055452A JP 2018055452 A JP2018055452 A JP 2018055452A JP 2016191436 A JP2016191436 A JP 2016191436A JP 2016191436 A JP2016191436 A JP 2016191436A JP 2018055452 A JP2018055452 A JP 2018055452A
Authority
JP
Japan
Prior art keywords
keyword
user
position information
generation device
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016191436A
Other languages
English (en)
Other versions
JP6477648B2 (ja
Inventor
拓磨 峰村
Takuma Minemura
拓磨 峰村
整 加藤
Hitoshi Kato
整 加藤
純一 伊藤
Junichi Ito
純一 伊藤
洋平 脇阪
Yohei Wakisaka
洋平 脇阪
池野 篤司
Tokuji Ikeno
篤司 池野
西島 敏文
Toshifumi Nishijima
敏文 西島
史憲 片岡
Fuminori Kataoka
史憲 片岡
刀根川 浩巳
Hiromi Tonegawa
浩巳 刀根川
倫秀 梅山
Norihide Umeyama
倫秀 梅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016191436A priority Critical patent/JP6477648B2/ja
Priority to US15/705,973 priority patent/US10593323B2/en
Priority to CN201710902182.5A priority patent/CN107885720B/zh
Publication of JP2018055452A publication Critical patent/JP2018055452A/ja
Application granted granted Critical
Publication of JP6477648B2 publication Critical patent/JP6477648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

【課題】ユーザが位置する地域に特有なキーワードを生成する。【解決手段】第一のユーザから発せられたキーワードを取得する語彙取得手段と、前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報を取得する第一の位置情報取得手段と、前記第一の位置情報と、前記キーワードとを関連付けて記憶する記憶手段と、第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の位置情報取得手段と、前記第二の位置情報に基づいて、前記記憶手段から、前記第二のユーザが位置する地域に特有なキーワードを抽出する抽出手段と、を有する。【選択図】図1

Description

本発明は、ユーザとの対話で使用するキーワードを生成する装置に関する。
ユーザが発した音声を認識し、人と対話をすることによって、様々な情報を提供する音声対話装置が実用化されている。
また、ユーザに対して音声対話装置が自発的に話題を提供するシステムが考案されている。例えば、特許文献1には、ユーザが発した音声と動作の特徴量に基づいて、予め記憶された複数の話題の中から話題を選択し、関連する情報をユーザに提供する対話装置が記載されている。また、特許文献2には、入力されたキーワードに関連する関連語を検索する関連語検索装置が記載されている。
特開2009−037050号公報 特開2009−237755号公報 特開2001−188784号公報 特開2010−072811号公報 特開2004−109323号公報
特許文献1に記載の発明には、予め定められた話題しか提供することができないという課題がある。例えば、移動中のユーザに対して話題を提供したい場合であっても、ユーザの現在位置や目的地など、地域に応じた話題を生成することができない。
一方、ユーザの現在位置や目的地に関する情報を、特許文献2に記載の装置に入力し、位置情報に関連したキーワードを取得したうえで話題を生成するという方法も考えられる。しかし、当該発明では、キーワード同士の関連性を重視しているため、位置情報と関係のない汎用的な単語が多く出力されてしまい、地域に特有な話題を提供することができない。
この課題を解決するためには、移動中のユーザが位置する地域に特有なキーワードを取得する必要がある。
本発明は上記の課題を考慮してなされたものであり、ユーザが位置する地域に特有なキーワードを生成するキーワード生成装置を提供することを目的とする。
本発明に係るキーワード生成装置は、
第一のユーザから発せられたキーワードを取得する語彙取得手段と、前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報を取得する第一の位置情報取得手段と、前記第一の位置情報と、前記キーワードとを関連付けて記憶する記憶手段と、第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の位置情報取得手段と、前記第二の位置情報に基づいて、前記記憶手段から、前記第二のユーザが位置する地域に特有なキーワードを抽出する抽出手段と、を有することを特徴とする。
本発明に係るキーワード生成装置は、第一のユーザが発したキーワードと、第一のユー
ザが当該キーワードを発した場所を表す第一の位置情報を取得し、両者を関連付けて記憶する。キーワードは、音声によって発せられたものであってもよいし、電子的に発せられたものであってもよい。例えば、第一のユーザが所持するユーザ端末から発せられたメッセージ(例えば、メッセンジャー、メール、SNSなどによって発せられたメッセージ)であってもよい。
また、本発明に係るキーワード生成装置は、第二のユーザの現在位置を表す第二の位置情報を取得し、当該第二の位置情報に基づいて、記憶手段から適合するキーワードを抽出する。
このように、第一のユーザがキーワードを発した場所と、第二のユーザの現在位置に基づいて抽出するキーワードを決定することで、第二のユーザが位置する地域に特有なキーワードを得ることができ、第二のユーザに対して有益な情報を提供することができる。
なお、抽出したキーワードは、第二のユーザに対する情報提供の用に供されてもよいし、第二のユーザにサービスを提供するための補助的なデータとして用いてもよい。例えば、音声対話装置による話題の提供に利用してもよいし、音声認識処理における重み付けなどに利用してもよい。
また、前記抽出手段は、前記第二のユーザが位置する地域において、前記第一のユーザによるキーワードの発現率が、他の地域と比較してより高いキーワードがある場合に、当該キーワードを優先的に抽出することを特徴としてもよい。
ある地域におけるキーワードの発現率が他の地域よりも高い、すなわち、当該地域において、他の地域よりも多く発せられているキーワードがある場合、当該キーワードを優先的に抽出することが好ましい。このようなキーワードは、当該地域に特有なキーワードである可能性が高いためである。なお、地域とは、特定の分類方法に限定されない。例えば、行政区画であってもよいし、メッシュなどによって分割したもの(ジオハッシュ等)であってもよい。
また、本発明に係るキーワード生成装置は、前記第二のユーザの嗜好を表すデータを記憶する手段をさらに有し、前記抽出手段は、前記第二のユーザの嗜好に適合したキーワードを抽出することを特徴としてもよい。
第二のユーザの嗜好に関するデータを記憶しておくことで、第二のユーザにより適合したキーワードを抽出することができる。嗜好は、キーワードのジャンルであってもよいし、キーワードそのものであってもよい。なお、第二のユーザの嗜好を表すデータには、優先的に抽出するものを定義してもよいし、除外すべきものを定義してもよい。また、重みなどを定義してもよい。
また、前記第一の位置情報は、前記第一のユーザの移動方向に関する情報をさらに含み、前記記憶手段は、前記キーワードに、前記移動方向をさらに関連付けて記憶することを特徴としてもよい。
また、前記第二の位置情報は、前記第二のユーザの移動方向に関する情報をさらに含み、前記抽出手段は、前記第二のユーザの移動方向にさらに基づいて前記キーワードを抽出することを特徴としてもよい。
位置情報が同一(実質同一)であっても、移動方向によって、適切なキーワードが変化する場合がありうる。例えば、あるランドマークから離れる方向にユーザが移動している場合、当該ランドマークの名称を記録および抽出しないほうがよい場合がある。よって、移動方向にさらに基づいてキーワードの記憶および抽出を行うようにすると好ましい。
なお、移動方向とは、必ずしも方位角によって表される必要はない。例えば、あるラン
ドマークに対してどちら向きに移動しているかといった情報であってもよい。
また、前記第一の位置情報は、前記第一のユーザの目的地に関する情報をさらに含み、
前記記憶手段は、前記キーワードに、前記目的地をさらに関連付けて記憶することを特徴としてもよい。
また、前記第二の位置情報は、前記第二のユーザの目的地に関する情報をさらに含み、
前記抽出手段は、前記第二のユーザの目的地にさらに基づいて前記キーワードを抽出することを特徴としてもよい。
位置情報が同一(実質同一)であっても、目的地によって適切なキーワードが変化する場合がありうる。例えば、ある地域に居住している人と、目的地に向かって当該地域を通過している人とで、提供すべきキーワードが異なる場合がある。よって、目的地にさらに基づいてキーワードの記憶および抽出を行うようにすると好ましい。
また、本発明に係る対話文生成システムは、前記キーワード生成装置と、前記キーワード生成装置が取得したキーワードを用いて、ユーザに提供する対話文を生成する対話文生成装置と、を含む。
本発明に係るキーワード生成装置によって生成されたキーワードを対話文生成装置に入力することで、ユーザに提供する適切な対話文を生成することができる。
また、本発明の別形態に係るキーワード生成装置は、
第一のユーザから発せられたキーワードと、前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報と、を関連付けたキーワードデータを取得する第一の取得手段と、第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の取得手段と、前記第二の位置情報に基づいて、前記キーワードデータから、前記第二のユーザが位置する地域に特有なキーワードを抽出する抽出手段と、を有することを特徴とする。
なお、本発明は、上記手段の少なくとも一部を含むキーワード生成装置として特定することができる。また、前記キーワード生成装置が行うキーワード生成方法として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、ユーザが位置する地域に特有なキーワードを生成するキーワード生成装置を提供することができる。
第一の実施形態に係る対話システムのシステム構成図である。 第一の実施形態で用いられるキーワードデータの例である。 第一の実施形態(収集フェーズ)におけるデータフロー図である。 第一の実施形態(生成フェーズ)におけるデータフロー図である。 第二の実施形態で用いられるキーワードデータの例である。 第三の実施形態に係る対話システムのシステム構成図である。 第三の実施形態で用いられるキーワードデータの例である。
(第一の実施形態)
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
第一の実施形態に係る対話システムは、車両に搭乗しているユーザに対して自発的に話題を提供するシステムである。
<システム構成>
図1は、第一の実施形態に係る対話システムのシステム構成図である。本実施形態に係る対話システムは、ユーザ端末10と対話文生成装置20から構成される。
ユーザ端末10は、音声の取得を行う機能と、音声の出力を行う機能と、位置情報を取得する機能を有するコンピュータである。ユーザ端末10は、典型的には、車両に搭乗しているユーザが所持する携帯型コンピュータであるが、車両に搭載されたコンピュータ(例えば、カーナビゲーション装置など)であってもよい。
また、対話文生成装置20は、ユーザ端末10から送信されたデータを蓄積し、ユーザ端末10から要求を受けた場合に対話文を生成する装置である。
本実施形態に係る対話システムが行う処理は、収集フェーズと生成フェーズの二つに分類される。
収集フェーズは、対話文生成装置20が、複数のユーザ端末10から音声データと位置情報を収集し、音声データからキーワードを抽出したうえで、位置情報とキーワードとを関連付けて記憶するフェーズである。
また、生成フェーズは、対話文生成装置20が、ユーザ端末10から位置情報を取得し、記憶されたデータから位置情報に対応するキーワードを抽出し、抽出したキーワードに基づいて対話文を生成するフェーズである。なお、収集フェーズで通信を行うユーザ端末10と、生成フェーズで通信を行うユーザ端末10は別の装置であってもよい。
ユーザ端末10は、通信部11、制御部12、位置情報取得部13、音声合成部14から構成される。
通信部11は、通信回線(例えば携帯電話網)を介してネットワークにアクセスすることで、対話文生成装置20との通信を行う手段である。
制御部12は、ユーザ端末10の制御を司る手段である。具体的には、収集フェーズにおいては、不図示のマイクを用いて音声を取得し、音声データを、後述する位置情報取得部13が取得した位置情報とともに対話文生成装置20に送信する制御を行う。また、生成フェーズにおいては、位置情報を対話文生成装置20に送信し、対話文生成装置20から対話文を取得して、当該対話文を音声に変換し、不図示のスピーカを用いて出力する制御を行う。
位置情報取得部13は、装置に備えられたGPSモジュール(不図示)から、ユーザ端末10の現在位置(緯度および経度)を取得する手段である。
音声合成部14は、既知の音声合成技術によって、対話文生成装置20が生成した文章(テキスト)を音声データに変換する手段である。生成された音声データは制御部12を介してユーザに提供される。
対話文生成装置20は、音声認識部21、自然文解析部22、キーワード記憶部23、キーワード抽出部24、通信部25、対話文生成部26から構成される。
音声認識部21は、取得した音声データに対して音声認識を行い、テキストに変換する手段である。音声認識は、既知の技術によって行うことができる。例えば、音声認識部21には、音響モデルと認識辞書が記憶されており、取得した音声データと音響モデルとを比較して特徴を抽出し、抽出した特徴を認識辞書とをマッチングさせることで音声認識を行う。音声認識の結果得られたテキストは、自然文解析部22に送信される。
自然文解析部22は、音声認識の結果得られたテキストに対して形態素解析を行い、文章を単語に分解し、助詞や副詞などを除外した残りの単語を抽出する手段である。自然文解析部22が抽出した単語は、キーワードとしてキーワード記憶部23に送信される。
キーワード記憶部23は、ユーザ端末10から送信された位置情報と、自然文解析部22が出力したキーワードの関連付けを行い、記憶する手段である。
ここで、位置情報について説明する。本実施形態では、ユーザ端末10は、取得した音声と位置情報の双方を対話文生成装置20に送信する。位置情報は、緯度および経度によって表された情報であり、キーワード記憶部23によって取得される。
本実施形態では、キーワード記憶部23は、取得した位置情報をメッシュで表された地域に分類し、地域を特定する値をキーワードとともに記憶する。図2は、キーワード記憶部23に記憶されるキーワードデータの例である。ここで示したキーワードは、自然文解析部22が出力したキーワードである。位置情報のメッシュ化は、例えばジオハッシュのような既知の技術によって行うことができる。
なお、本明細書においては、メッシュによって区分けされた領域を「地域」と称する。
キーワード記憶部23は、地域とキーワードに出現頻度を関連付けて記憶する。例えば、図2に示した例は、「xn774ch」という地域において、ユーザによって「新宿西口」というキーワードが15回発せられた旨を表している。
対話文生成装置20の説明を続ける。
キーワード抽出部24は、キーワード記憶部23に記憶されたキーワードデータと、ユーザ端末10から取得した位置情報に基づいて、当該位置情報に対応するキーワードを抽出する手段である。本実施形態では、ユーザ端末10から取得した位置情報に対応する地域と、キーワードデータに記録された地域が同一である場合に、対応するキーワードを抽出する。
通信部25が有する機能は、前述した通信部11と同様であるため、詳細な説明は省略する。
対話文生成部26は、キーワード抽出部24が抽出したキーワードに基づいて、ユーザに提供する応答文を生成する手段である。提供する応答文は、例えば、事前に記憶された対話シナリオ(対話辞書)に基づくものであってもよいし、データベースやウェブを検索して得られた情報に基づくものであってもよい。対話文の生成には、既知の手法を用いることができる。
対話文生成部26が生成した応答文は、ユーザ端末10へテキスト形式で送信され、その後、合成音声に変換され、ユーザに向けて出力される。
<処理フローチャート>
次に、収集フェーズの詳細について説明する。収集フェーズでは、対話文生成装置20が、ユーザ端末10から音声データおよび位置情報を収集し、収集したデータに基づいてキーワードデータを生成ないし更新する。
図3は、収集フェーズにおけるデータフロー図である。なお、図3に示した処理は、ユーザが音声を発した場合に自動的に開始される。
まず、ステップS11で、ユーザ端末10が有する制御部12が、ユーザが発した音声を取得する。音声は、単位時間で区切って取得してもよいし、ユーザが発話したと認められる範囲を自動的に切り出して取得してもよい。
次に、ステップS12で、制御部12が、位置情報取得部13から位置情報を取得する

取得された音声データおよび位置情報は、互いが関連付いた状態で、対話文生成装置20が有する音声認識部21およびキーワード記憶部23にそれぞれ送信される。
音声データは、音声認識部21によってテキストに変換され、変換が完了次第、自然文解析部22へ送信される(ステップS13)。そして、自然文解析部22が、取得したテキストに対して形態素解析を実行し、文章を単語に分解する(ステップS14)。なお、この際、助詞や副詞などは除外される。自然文解析部22が抽出した単語は、キーワードとしてキーワード記憶部23に送信される。
次に、ステップS15で、キーワード記憶部23が、ユーザ端末10から受信した位置情報と、自然文解析部22が送信したキーワードを関連付け、キーワードデータを更新する。具体的には、ユーザ端末10から受信した位置情報をハッシュ値に変換し、対応するキーワードがキーワードデータに存在するかを判定する。この結果、対応するキーワードが存在しない場合、新しいレコードを追加する。この際の出現頻度は1となる。一方、対応するキーワードが存在する場合、出現頻度を加算(インクリメント)する。
以上に説明した処理によると、ユーザが発した音声に基づいてキーワードを抽出し、当該抽出したキーワードを、位置情報と関連付けて蓄積することができる。
なお、以上に説明した処理は、複数のユーザ端末10に対して実行される。すなわち、キーワードデータには、複数のユーザが発したキーワードに関する情報が、個人を特定しない形で記録される。
次に、生成フェーズの詳細について説明する。生成フェーズでは、ユーザ端末10が、対話文生成装置20に対して位置情報を含むリクエストを発行し、対話文生成装置20が、位置情報に基づいてキーワードを抽出し、当該キーワードを用いて対話文を生成する。図4は、生成フェーズにおけるデータフロー図である。図4に示した処理は、ユーザ端末10が、ユーザに対話文を提供すると決定したタイミングで開始される。
まず、ステップS21で、制御部12が、位置情報取得部13から位置情報を取得する。取得された位置情報は、対話文生成装置20が有するキーワード抽出部24に送信される。
次に、ステップS22で、キーワード抽出部24が、キーワード記憶部23に記憶されているキーワードデータにアクセスし、位置情報(地域)に対応するキーワードを取得する。なお、複数のキーワードが取得された場合、スコアリングを行い、どのキーワードを採用するかを決定してもよい。
ここで、スコアリングを行う方法について例示する。
(1)出現頻度が高いキーワードに高いスコアを与える
例えば、複数のキーワードのうち、最も出現頻度が高いキーワードを抽出してもよい。(2)出現率が他の地域と比較して突出しているキーワードに高いスコアを与える
ターゲットとなる地域に割り当たっているキーワードを全て抽出し、それぞれのキーワードについて、当該地域における出現率αと、全国(すなわち全レコード)における出現率βを算出する。出現率とは、全てのキーワードの出現頻度の合計に対する、当該キーワードの出現頻度の割合である。
この結果、αがβよりも突出して大きいキーワードがある場合、当該キーワードは、当該地域において特有なキーワードであると判定することができる。このように、αとβの比に基づいてスコアリングを行うようにしてもよい。
もちろん、他のスコアリング方法も採用可能である。
選択されたキーワードは、対話文生成部26に送信され、対話文の生成が行われる(ステップS23)。生成された対話文は、制御部12に送信され、音声合成部14によって音声データに変換されたのち、不図示のスピーカを通して再生される(ステップS24)。
以上説明したように、第一の実施形態に係る対話システムは、複数のユーザが発したキーワードを、当該キーワードが発せられた場所と関連付けて記憶し、ユーザ端末10からリクエストがあった場合に、場所に対応するキーワードを抽出したうえで対話文を生成する。かかる構成によると、ユーザが位置する地域に特有なキーワードを抽出することができ、移動中のユーザに対して適切な話題を提供することができる。
(第二の実施形態)
第一の実施形態では、位置情報のみに基づいてキーワードの抽出を行った。これに対し、第二の実施形態は、ユーザ端末10の移動方向をさらに考慮してキーワードの抽出を行う実施形態である。
第二の実施形態における位置情報取得部13は、位置情報に加えて移動方向を検出する機能を有している。また、第二の実施形態では、図5(A)に示したように、キーワードデータに「移動方向」がさらに関連付けられている。移動方向は、ステップS15でキーワードデータを更新する際と、ステップS22でキーワードを抽出する際に位置情報とともに使用される。すなわち、位置情報と移動方向の双方が一致している場合に、対応するキーワードが抽出される。
第二の実施形態によると、移動方向にさらに基づいてキーワードを抽出するため、移動方向ごとに適切なキーワードを変化させることができる。
なお、本例では、移動方向として東西南北の4つを例示したが、移動方向はこれらに限られない。例えば、方位角や、方位角によって分類されたラベルによって表されてもよい。また、道路ごとに個別に定義された走行方向などによって表されてもよい。また、移動方向は、リアルタイム情報でなくてもよい。例えば、対象のユーザにおける、出発地から見た目的地の方向を移動方向としてもよい。
(第二の実施形態の変形例)
第二の実施形態では、移動方向を用いてキーワードの抽出を行ったが、これ以外の要素を用いてキーワードの抽出を行うようにしてもよい。
例えば、ユーザ端末10が、ユーザの移動経路を取得可能である場合、当該移動経路に関する情報を用いてキーワードの抽出を行うようにしてもよい。例えば、移動方向の代わりにユーザの目的地を用いてもよい。図5(B)は、キーワードデータに「目的地」をさらに関連付けた例である。
ユーザの目的地は、例えば、経路案内装置、カーナビゲーション装置、ユーザが所持する携帯端末などから取得してもよいし、目的地を推定する手段を有している場合、当該手段から取得してもよい。また、ユーザが、目的地に向かって移動しているか否か(経路案内を受けているか否か)に基づいてキーワードの抽出を行うようにしてもよい。
(第三の実施形態)
第三の実施形態は、ユーザの嗜好をさらに考慮してキーワードの抽出を行う実施形態である。
図6は、第三の実施形態に係る対話システムのシステム構成図である。第三の実施形態では、対話文生成装置20が、プロファイル記憶部27をさらに有している。
プロファイル記憶部27は、ユーザ端末10に関連付いたユーザのプロファイルを記憶する手段である。本実施形態では、プロファイル記憶部27が、プロファイルとして、情報の提供における嗜好に関する情報をユーザごとに記憶する。
図7は、第三の実施形態においてキーワード記憶部23に記憶されるキーワードデータの例である。本実施形態では、キーワードごとに、当該キーワードのジャンルを表すラベルが付与されている。
また、第三の実施形態では、ステップS21で、制御部12が、ユーザの識別子を対話文生成装置20(キーワード抽出部24)に送信し、キーワード抽出部24が、ユーザに対応するプロファイルを取得したうえで、抽出するキーワードを選択する。
例えば、対象ユーザのプロファイルに、あるジャンルを好む旨の定義がある場合、当該ジャンルに対してより大きい重みを与えてスコアリングを行う。また、対象ユーザのプロファイルに、あるジャンルを好まない旨の定義がある場合、当該ジャンルに対してより小さい重みを与えてスコアリングを行う。
なお、ここではスコアリングを行う際の重みを変更する例を挙げたが、これ以外の方法を用いてキーワードの抽出を行ってもよい。
第三の実施形態によると、ユーザの嗜好に合わせたキーワードを選択することができるため、ユーザビリティがより向上する。
(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、ユーザが発話した音声に基づいてキーワードを生成したが、ユーザが発したキーワードであれば、音声以外を収集してもよい。例えば、音声のかわりに、ユーザが所持する携帯端末から発信されたメッセージを収集してもよい。
また、実施形態の説明では、抽出したキーワードに基づいて対話文を生成したが、抽出したキーワードは、対話文の生成以外に用いてもよい。例えば、抽出したキーワードを音声認識装置に提供し、当該音声認識装置が、取得したキーワードに対してより大きい重みを与えたうえで音声認識を行うようにしてもよい。このように、ユーザにサービスを提供するための補助的なデータとしてキーワードを利用することも可能である。
また、実施形態の説明では、メッシュで分割された領域を地域としたが、必ずしもメッシュ化を行う必要はない。例えば、取得した座標を中心とした所定の形状(例えば円)内を一つの地域として扱ってもよい。また、地図データを参照し、座標を地域(例えば市区町村など)に分類するようにしてもよい。
また、実施形態の説明では、自然文解析部22が助詞や副詞を除外すると述べたが、名詞(あるいは固有名詞)のみを抽出するようにしてもよい。
また、実施形態の説明では、キーワードデータを全てのユーザで共有したが、ユーザごとに異なるキーワードデータを用いてもよい。かかる構成によると、過去にドライバーや同乗者の間で行われた会話に基づいてキーワードを抽出するため、よりパーソナライズされた話題を提供することができる。
10・・・ユーザ端末
11,25・・・通信部
12・・・制御部
13・・・位置情報取得部
14・・・音声合成部
20・・・対話文生成装置
21・・・音声認識部
22・・・自然文解析部
23・・・キーワード記憶部
24・・・キーワード抽出部
26・・・対話文生成部

Claims (10)

  1. 第一のユーザから発せられたキーワードを取得する語彙取得手段と、
    前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報を取得する第一の位置情報取得手段と、
    前記第一の位置情報と、前記キーワードとを関連付けて記憶する記憶手段と、
    第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の位置情報取得手段と、
    前記第二の位置情報に基づいて、前記記憶手段から、前記第二のユーザが位置する地域に特有なキーワードを抽出する抽出手段と、を有する、
    キーワード生成装置。
  2. 前記抽出手段は、前記第二のユーザが位置する地域において、前記第一のユーザによるキーワードの発現率が、他の地域と比較してより高いキーワードがある場合に、当該キーワードを優先的に抽出する
    請求項1に記載のキーワード生成装置。
  3. 前記第二のユーザの嗜好を表すデータを記憶する手段をさらに有し、
    前記抽出手段は、前記第二のユーザの嗜好に適合したキーワードを抽出する、
    請求項1または2に記載のキーワード生成装置。
  4. 前記第一の位置情報は、前記第一のユーザの移動方向に関する情報をさらに含み、
    前記記憶手段は、前記キーワードに、前記移動方向をさらに関連付けて記憶する、
    請求項1から3のいずれかに記載のキーワード生成装置。
  5. 前記第二の位置情報は、前記第二のユーザの移動方向に関する情報をさらに含み、
    前記抽出手段は、前記第二のユーザの移動方向にさらに基づいて前記キーワードを抽出する、
    請求項4に記載のキーワード生成装置。
  6. 前記第一の位置情報は、前記第一のユーザの目的地に関する情報をさらに含み、
    前記記憶手段は、前記キーワードに、前記目的地をさらに関連付けて記憶する、
    請求項1から5のいずれかに記載のキーワード生成装置。
  7. 前記第二の位置情報は、前記第二のユーザの目的地に関する情報をさらに含み、
    前記抽出手段は、前記第二のユーザの目的地にさらに基づいて前記キーワードを抽出する、
    請求項6に記載のキーワード生成装置。
  8. 請求項1から7のいずれかに記載のキーワード生成装置と、
    前記キーワード生成装置が取得したキーワードを用いて、ユーザに提供する対話文を生成する対話文生成装置と、
    を含む、対話文生成システム。
  9. 第一のユーザから発せられたキーワードと、前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報と、を関連付けたキーワードデータを取得する第一の取得手段と、
    第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の取得手段と、
    前記第二の位置情報に基づいて、前記キーワードデータから、前記第二のユーザが位置
    する地域に特有なキーワードを抽出する抽出手段と、を有する、
    キーワード生成装置。
  10. 第一のユーザから発せられたキーワードを取得する語彙取得ステップと、
    前記第一のユーザが前記キーワードを発した場所を表す情報を含んだ第一の位置情報を取得する第一の位置情報取得ステップと、
    前記第一の位置情報と、前記キーワードとを関連付けて記憶する記憶ステップと、
    第二のユーザの現在位置を表す情報を含んだ第二の位置情報を取得する第二の位置情報取得ステップと、
    前記第二の位置情報に基づいて、前記記憶手段から、前記第二のユーザが位置する地域に特有なキーワードを抽出する抽出ステップと、を含む、
    キーワード生成方法。
JP2016191436A 2016-09-29 2016-09-29 キーワード生成装置およびキーワード生成方法 Active JP6477648B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016191436A JP6477648B2 (ja) 2016-09-29 2016-09-29 キーワード生成装置およびキーワード生成方法
US15/705,973 US10593323B2 (en) 2016-09-29 2017-09-15 Keyword generation apparatus and keyword generation method
CN201710902182.5A CN107885720B (zh) 2016-09-29 2017-09-29 关键词生成装置以及关键词生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016191436A JP6477648B2 (ja) 2016-09-29 2016-09-29 キーワード生成装置およびキーワード生成方法

Publications (2)

Publication Number Publication Date
JP2018055452A true JP2018055452A (ja) 2018-04-05
JP6477648B2 JP6477648B2 (ja) 2019-03-06

Family

ID=61685628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016191436A Active JP6477648B2 (ja) 2016-09-29 2016-09-29 キーワード生成装置およびキーワード生成方法

Country Status (3)

Country Link
US (1) US10593323B2 (ja)
JP (1) JP6477648B2 (ja)
CN (1) CN107885720B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110365726B (zh) * 2018-04-09 2022-07-19 阿里巴巴集团控股有限公司 通信处理方法、装置、终端及服务器
CN110517703B (zh) * 2019-08-15 2021-12-07 北京小米移动软件有限公司 一种声音采集方法、装置及介质
JP7196122B2 (ja) * 2020-02-18 2022-12-26 株式会社東芝 インタフェース提供装置、インタフェース提供方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123160A (ja) * 2007-11-19 2009-06-04 Nec Corp コンテンツ情報配信装置、コンテンツ情報配信システムおよびコンテンツ情報配信方法
JP2012047703A (ja) * 2010-08-30 2012-03-08 Toyota Motor Corp ナビゲーションシステム向け検索支援システム
JP2013069175A (ja) * 2011-09-22 2013-04-18 Nec Corp キーワード抽出システム、キーワード抽出方法及びプログラム
JP2014109998A (ja) * 2012-12-04 2014-06-12 Nec Software Tohoku Ltd 対話装置及びコンピュータ対話方法
US20140188883A1 (en) * 2012-12-28 2014-07-03 Kabushiki Kaisha Toshiba Information extracting server, information extracting client, information extracting method, and information extracting program
JP2015219225A (ja) * 2014-05-21 2015-12-07 クラリオン株式会社 支援システム、及び支援装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188784A (ja) 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP3945356B2 (ja) 2002-09-17 2007-07-18 株式会社デンソー 音声対話装置及びプログラム
US7328155B2 (en) * 2002-09-25 2008-02-05 Toyota Infotechnology Center Co., Ltd. Method and system for speech recognition using grammar weighted based upon location information
CN1956056B (zh) * 2006-10-16 2010-05-12 同济大学 语音合成装置、语音合成方法以及gps语音导航系统
JP2009037050A (ja) 2007-08-02 2009-02-19 Toyota Motor Corp 対話装置と対話用プログラム
JP2009237755A (ja) 2008-03-26 2009-10-15 Fujifilm Corp 関連語検索方法及び装置、関連語検索プログラム、コンテンツ検索方法及び装置、並びにコンテンツ検索プログラム
JP5215098B2 (ja) 2008-09-17 2013-06-19 オリンパス株式会社 情報処理システム、プログラム及び情報記憶媒体
CN101404673B (zh) * 2008-11-12 2011-12-28 中国移动通信集团北京有限公司 一种获取综合信息的方法、系统及装置
US8560608B2 (en) * 2009-11-06 2013-10-15 Waldeck Technology, Llc Crowd formation based on physical boundaries and other rules
CN102063901A (zh) * 2010-12-02 2011-05-18 深圳市凯立德欣软件技术有限公司 位置服务设备的语音识别方法及位置服务设备
CN102622356B (zh) * 2011-01-27 2016-06-22 腾讯科技(深圳)有限公司 一种关联地理位置信息的百科知识系统
JP5573859B2 (ja) * 2012-02-09 2014-08-20 コニカミノルタ株式会社 エアタグ情報登録装置、エアタグ情報登録システムおよびプログラム
US10593326B2 (en) * 2013-04-25 2020-03-17 Sensory, Incorporated System, method, and apparatus for location-based context driven speech recognition
US9484025B2 (en) * 2013-10-15 2016-11-01 Toyota Jidosha Kabushiki Kaisha Configuring dynamic custom vocabulary for personalized speech recognition
CN104732780B (zh) * 2015-03-10 2017-07-11 惠州Tcl移动通信有限公司 一种根据用户上报路况及时更新路况信息的方法及系统
US20170133015A1 (en) * 2015-11-11 2017-05-11 Bernard P. TOMSA Method and apparatus for context-augmented speech recognition
CN105868360A (zh) * 2016-03-29 2016-08-17 乐视控股(北京)有限公司 基于语音识别的内容推荐方法及装置
US11490232B2 (en) * 2016-08-01 2022-11-01 Microsoft Technology Licensing, Llc Location-based conversation identifier

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123160A (ja) * 2007-11-19 2009-06-04 Nec Corp コンテンツ情報配信装置、コンテンツ情報配信システムおよびコンテンツ情報配信方法
JP2012047703A (ja) * 2010-08-30 2012-03-08 Toyota Motor Corp ナビゲーションシステム向け検索支援システム
JP2013069175A (ja) * 2011-09-22 2013-04-18 Nec Corp キーワード抽出システム、キーワード抽出方法及びプログラム
JP2014109998A (ja) * 2012-12-04 2014-06-12 Nec Software Tohoku Ltd 対話装置及びコンピュータ対話方法
US20140188883A1 (en) * 2012-12-28 2014-07-03 Kabushiki Kaisha Toshiba Information extracting server, information extracting client, information extracting method, and information extracting program
JP2015219225A (ja) * 2014-05-21 2015-12-07 クラリオン株式会社 支援システム、及び支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
廣嶋 伸章,他: ""地理情報検索におけるクエリ入力支援のための特徴語の提示"", 2012年度人工知能学会全国大会(第26回)論文集 [CD−ROM], JPN6018038894, 15 June 2012 (2012-06-15), pages 1 - 2, ISSN: 0003892076 *

Also Published As

Publication number Publication date
US10593323B2 (en) 2020-03-17
US20180090133A1 (en) 2018-03-29
CN107885720B (zh) 2021-08-10
JP6477648B2 (ja) 2019-03-06
CN107885720A (zh) 2018-04-06

Similar Documents

Publication Publication Date Title
CN105448292B (zh) 一种基于场景的实时语音识别系统和方法
US10719507B2 (en) System and method for natural language processing
CN107240398B (zh) 智能语音交互方法及装置
US20190370398A1 (en) Method and apparatus for searching historical data
US9418143B2 (en) Dynamic language model
JP4709887B2 (ja) 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム
JP5158174B2 (ja) 音声認識装置
JP3990075B2 (ja) 音声認識支援方法及び音声認識システム
US20180090132A1 (en) Voice dialogue system and voice dialogue method
US20080183468A1 (en) Augmentation and calibration of output from non-deterministic text generators by modeling its characteristics in specific environments
JP2010191400A (ja) 音声認識装置およびデータ更新方法
US9715877B2 (en) Systems and methods for a navigation system utilizing dictation and partial match search
JP6597527B2 (ja) 音声認識装置および音声認識方法
JP6477648B2 (ja) キーワード生成装置およびキーワード生成方法
JP2004325936A (ja) 音声認識装置、音声認識方法、並びに、音声認識プログラムおよびそれを記録した記録媒体
JP4064748B2 (ja) 音声発生装置、音声発生方法及びナビゲーション装置
JP5606951B2 (ja) 音声認識システムおよびこれを用いた検索システム
US20140067400A1 (en) Phonetic information generating device, vehicle-mounted information device, and database generation method
JP2012173702A (ja) 音声案内システム
JP2009282835A (ja) 音声検索装置及びその方法
JP2017181631A (ja) 情報制御装置
JP2019190940A (ja) 情報提供装置
JP2018054926A (ja) 音声対話装置および音声対話方法
JP2018101431A (ja) 文書生成装置、文書生成方法、および、文書生成装置用プログラム
JP5246512B2 (ja) 音声読み上げシステム、および音声読み上げ端末

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190121

R151 Written notification of patent or utility model registration

Ref document number: 6477648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151