JP6680125B2 - ロボットおよび音声対話方法 - Google Patents

ロボットおよび音声対話方法 Download PDF

Info

Publication number
JP6680125B2
JP6680125B2 JP2016145367A JP2016145367A JP6680125B2 JP 6680125 B2 JP6680125 B2 JP 6680125B2 JP 2016145367 A JP2016145367 A JP 2016145367A JP 2016145367 A JP2016145367 A JP 2016145367A JP 6680125 B2 JP6680125 B2 JP 6680125B2
Authority
JP
Japan
Prior art keywords
robot
utterance
voice
robots
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016145367A
Other languages
English (en)
Other versions
JP2018017764A (ja
Inventor
池野 篤司
篤司 池野
宗明 島田
宗明 島田
浩太 畠中
浩太 畠中
西島 敏文
敏文 西島
史憲 片岡
史憲 片岡
刀根川 浩巳
浩巳 刀根川
倫秀 梅山
倫秀 梅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016145367A priority Critical patent/JP6680125B2/ja
Publication of JP2018017764A publication Critical patent/JP2018017764A/ja
Application granted granted Critical
Publication of JP6680125B2 publication Critical patent/JP6680125B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)

Description

本発明は、音声によって対話するロボットに関する。
近年、人と対話をすることによって様々な情報を提供するロボットが開発されている。例えば、特許文献1には、マイクによって入力された音声をネットワーク上で処理し、入力に対する応答を音声で返すコミュニケーションロボットが開示されている。
また、音声による対話が可能なロボットを複数用いると、ロボット同士による会話が可能になる。例えば、複数のユーザがロボットを持ち寄って互いに会話を行わせるといった楽しみ方ができる。
特開2015−013351号公報 特開2010−166377号公報 特開2002−307354号公報
しかし、音声認識が可能な複数のロボットを互いに対話させようとした場合、いくつかの問題が発生する。一つは、音声認識の精度の問題である。一般的な音声認識モデルは、人の肉声を対象としているため、合成された音声に対して十分な認識精度が得られないことがある。もう一つの問題は、どのロボットがどのロボットに話しかけているかが判別しづらいという問題である。合成された音声は特徴が似通っているため、判別が難しく、話者が増えると正しく会話が成立しないことがある。
本発明は上記の課題を考慮してなされたものであり、ロボット同士の自然な対話を可能にする技術を提供することを目的とする。
本発明に係るロボットは、ロボット同士が相互に対話を行う対話システムを構成するロボットである。
具体的には、他のロボットとの間で無線通信を行う通信手段と、前記他のロボットに対する発話文を取得する発話文取得手段と、合成音声によって前記発話文を出力する音声出力手段と、前記音声出力手段が出力する発話文に関連するデータである発話データを、無線通信によって他のロボットに送信する発話送信手段と、対話相手のロボットが送信した発話データを受信することで、当該ロボットが発した発話の内容を取得する発話受信手段と、を有することを特徴とする。
本発明に係るロボットは、発話文を音声によって出力するとともに、当該発話文に関連するデータである発話データを無線通信によって送信する。発話データとは、例えば、発話文を含んだテキストデータであってもよいし、発話の内容を要約したデータであってもよい。また、発話の種別や、ロボットの感情などを含んだデータであってもよい。また、発話元であるロボットと対話相手であるロボットを識別する情報が含まれたデータであってもよい。
かかる構成によると、ロボットが実際に音声によって会話をしているような効果を演出
しつつ、対話を成立させるために必要なデータを相手側のロボットに伝送することができる。すなわち、音声認識の精度にかかわらず、ロボット間の会話を正しく成立させることができる。
また、前記発話文取得手段は、前記対話相手のロボットが送信した発話データを用いて、当該ロボットに対する返答となる発話文を取得することを特徴としてもよい。
対話相手のロボットから送信された発話データを用いることで、的確な内容の返答を取得することができる。
また、前記発話データは、発話を行うロボットを識別する情報を含むことを特徴としてもよい。また、前記発話データは、対話相手のロボットを識別する情報を含むことを特徴としてもよい。
ロボットが発話する際に、「誰が発話したか」および「誰に対して発話したか」を識別する情報を同時に伝送することで、対話相手のロボットが正しく反応できるようになる。特に、三台以上のロボットを対話させる場合に、相手を正しく識別できるようになる。このように、対話相手のロボットは二台以上であってもよい。
また、前記発話データは、発話を行うロボットのオーナーと、対話相手のロボットのオーナーをそれぞれ識別する情報を含み、前記発話文取得手段は、前記オーナーに関する情報をさらに用いて前記発話文を取得することを特徴としてもよい。
ユーザが所有するロボットを持ち寄って会話させる場合がある。このような場合、ロボットがオーナーに関する情報を取得し、当該情報を用いて発話文を生成することで、ロボットの会話内容がバラエティ豊かなものとなる。
なお、本発明は、上記手段の少なくとも一部を含むロボットとして特定することができる。また、前記ロボットが行う音声対話方法として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、ロボット同士の自然な対話を可能にする技術を提供することができる。
実施形態に係る音声対話システムのシステム構成図である。 実施形態におけるデータフロー図である。 実施形態におけるデータフロー図である。
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係る音声対話システムは、ロボットが、ユーザおよび他のロボットと自然言語による対話を行うシステムである。
<システム構成>
図1は、本実施形態に係る音声対話システムのシステム構成図である。本実施形態に係る音声対話システムは、ロボット10と対話サーバ20から構成される。なお、図1には示していないが、本実施形態に係る音声対話システムは、複数のロボット10を含んで構
成することができる。
まず、ロボット10について説明する。ロボット10は、外部から音声を取得する機能と、対話サーバ20と通信することで発話内容の文章(以下、発話文)を取得する機能と、当該発話文を音声によって出力する機能を有するロボットである。ロボット10は、例えば、コミュニケーションロボットであるが、必ずしもキャラクターの形をしている必要はない。例えば、ロボットに組み込むことができる汎用のコンピュータであってもよい。
ロボット10は、通信部11、音声入力部12、音声出力部13、近距離通信部14、制御部15から構成される。
通信部11は、通信回線(例えば携帯電話網)を介してネットワークにアクセスすることで、対話サーバ20との通信を行う手段である。
音声入力部12は、音声を取得する手段である。具体的には、不図示のマイクを用いて、音声を電気信号(以下、音声データ)に変換する。取得した音声データは制御部15へ送信される。音声入力部12は、主にユーザが発した音声を取得するために用いられる。
音声出力部13は、音声を出力する手段である。具体的には、不図示のスピーカを用いて、制御部15から送信された音声データを音声に変換する。
近距離通信部14は、ロボット10同士で無線通信を行う手段である。本実施形態では、近距離通信部14は、Bluetooth(登録商標)接続を利用した通信を行う。本実施形態では、「対話相手となる他のロボットの検出」と、「ロボット間における情報交換」という二つの機能を、近距離通信部14を用いて実現する。
制御部15は、ロボット10が行う音声対話全般を制御する手段である。
具体的には、対話相手(例えば、ユーザや他のロボット)が存在することを検出して対話を開始する機能、対話サーバ20から発話文を取得する機能、取得した発話文を音声データに変換し音声出力部13を介して出力する機能などを実行する。
また、本実施形態では、制御部15は、対話相手が他のロボットである場合に、発話文を音声データに変換して出力するのと同時に、当該発話文の内容を表すテキスト(以下、発話データ)を、自ロボットの識別子とともに近距離通信部14を介して対話相手のロボットに送信する。また、制御部15は、発話データが他のロボットから送信された場合に、当該発話データに基づいて、当該他のロボットが行った発話の内容を取得する。詳細な処理内容については後述する。
対話サーバ20は、ロボット10から送信されたデータに基づいて発話文を生成するサーバ装置である。対話サーバ20は、ロボット10から、音声データ、発話データ、あるいは、対話相手であるロボットに関する情報を取得し、発話文を生成する。対話サーバ20は、通信部21、音声認識部22、発話生成部23から構成される。
通信部21が有する機能は、前述した通信部11と同様であるため、詳細な説明は省略する。
音声認識部22は、ロボット10から送信された音声データに対して音声認識を行い、テキストに変換する手段である。音声認識は、既知の技術によって行うことができる。例えば、音声認識部22には、音響モデルと認識辞書が記憶されており、取得した音声データと音響モデルとを比較して特徴を抽出し、抽出した特徴を認識辞書とをマッチングさせることで音声認識を行う。
発話生成部23は、ロボット10から取得したデータ、または、音声認識部22が出力
したテキストに基づいて、発話文を生成する手段である。具体的には、(1)ロボット10から取得した発話データ、(2)ロボット10から取得した、対話相手に関する情報、(3)音声認識を行った結果得られたテキスト、のいずれかに基づいて、発話文の生成を行う。ロボット10の対話相手が他のロボット10である場合、前述した(1)および(2)によって発話文が生成され、ロボット10の対話相手が人間である場合、前述した(3)によって発話文が生成される。それぞれの具体的な処理例については、データフロー図を参照しながら後ほど説明する。
発話文は、例えば、対話シナリオ(対話辞書)によって生成されてもよい。また、データベースを検索して得られた情報であってもよいし、ウェブ検索によって得られた情報であってもよい。
発話生成部23が取得した情報は、ロボット10へテキスト形式で送信され、その後、合成音声によって出力される。
ロボット10および対話サーバ20は、いずれもCPU、主記憶装置、補助記憶装置を有する情報処理装置として構成することができる。補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、CPUによって実行されることで、図1に図示した各手段が機能する。なお、図示した機能の全部または一部は、専用に設計された回路を用いて実行されてもよい。
<処理フローチャート>
次に、ロボット10が行う具体的な処理の内容について説明する。
まず、ロボット10とユーザが音声によって対話する処理について、装置間のデータフロー図である図2を参照しながら説明する。
まず、ステップS11で、音声入力部12が、不図示のマイクを通して装置のユーザから音声を取得する。取得した音声は音声データに変換され、対話サーバ20(音声認識部22)へ送信される。
次に、対話サーバ20が有する音声認識部22が、ロボット10から送信された音声データに対して音声認識を実行する(ステップS12)。音声を認識した結果のテキストは、発話生成部23へ送信される。
次に、対話サーバ20が有する発話生成部23が、音声認識部22が出力したテキストに基づいて発話文を生成する(ステップS13)。生成された発話文はロボット10(制御部15)へ送信される。
そして、ステップS14で、ロボット10が有する制御部15が、発話文に基づいて音声合成を行い、音声出力部13を介して出力する。
次に、ロボット10同士が対話する場合の処理について、図3を参照しながら説明する。
なお、ここでは、一台目のロボットをロボット10、ロボット10と対話する二台目のロボットをロボット10’と称し、両者を区別する。また、ロボット10’が有している各手段については、符号にアポストロフィを付加することで区別する。
まず、ステップS21で、制御部15が、ロボット同士の対話を開始するためのトリガ(対話開始トリガ)を生成する。本例では、ロボット10が、近距離通信部14を介して、自らの近傍に他のロボットの存在を検出した場合に、対話開始トリガを生成するものとする。例えば、各ロボットが、自己の識別子を無線によって周期的にブロードキャストするように構成し、所定の距離以内に他のロボットを検出した場合に、対話開始トリガを生
成してもよい。この際、制御部15は、検出した他のロボット(すなわち、対話相手となるロボット)の識別子をさらに取得する。
次に、発話文を生成するための情報を対話サーバ20(発話生成部23)に送信する。ここで送信される情報は、対話相手のロボットに関する情報である。例えば、ステップS21で検出した他のロボットに関する情報(例えば、対話相手の台数や識別子など)を送信してもよいし、対話相手を検出したという情報のみを送信してもよい。
次に、対話サーバ20が有する発話生成部23が、ロボット10から取得した情報に基づいて発話文を生成する(ステップS22)。生成された発話文はロボット10(制御部15)へ送信される。
ステップS23では、ロボット10が有する制御部15が、発話文に基づいて音声合成を行い、音声出力部13を介して出力する。また、同時に、(1)発話データに加えて、(2)発話を行ったロボットの識別子と、(3)相手先ロボットの識別子を、対話先のロボット10’へ無線通信によって送信する。以降、これら三つのデータを発話データセットと称する。
ステップS24において、ロボット10’が発話データを受信すると、上記(3)を参照し、当該発話データセットが自分宛のものであるか否かを判定する。ここで、受信した発話データセットが自分宛のものであった場合、対話開始トリガを生成する。
そして、発話文を生成するための情報を対話サーバ20(発話生成部23)に送信する。ここで送信される情報は、ロボット10から送信された発話データセットそのものである。
なお、本例では発話データセットそのものを対話サーバ20に送信するものとしたが、対話相手に関する情報であれば、他の情報を追加で対話サーバ20に送信してもよい。例えば、発話内容の要約、発話文の種別、相手側ロボットの感情などを送信してもよい。
次に、対話サーバ20が有する発話生成部23が、ロボット10’から取得した情報に基づいて発話文を生成する(ステップS25)。生成された発話文はロボット10’(制御部15’)へ送信される。
なお、発話文の生成においては、発話を行ったロボットの識別子と、相手先ロボットの識別子を加味してもよい。例えば、対話サーバ20に、ロボットのプロフィールや、当該ロボットのオーナーのプロフィール、当該ロボットと行った過去の会話の内容などを、ロボットの識別子と関連付けて記憶させておき、発話文の生成に利用してもよい。
ステップS26では、ロボット10’が有する制御部15’が、対話サーバ20から取得した発話文に基づいて音声合成を行い、音声出力部13’を介して出力する。また、この際、新たな発話データセットを生成し、音声の出力と平行してロボット10へ送信する。
以降は、前述した処理を繰り返すことでロボット同士の対話が進行する。
以上説明したように、本実施形態では、ロボットが発話を行う際に、無線通信によって当該発話の内容を相手側のロボットに伝送する。すなわち、ロボットが行う音声出力は、ユーザに対する演出であり、実際の情報の伝達は無線通信によって行う。
ロボット同士が実際に音声を介して対話を行う場合、当該ロボットが置かれた環境によっては、音声の認識精度が確保できず、正しい応答を生成できなくなることがあるが、本実施形態によると、精度の高い対話を行うことができる。
(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適
宜変更して実施しうる。
例えば、実施形態の説明では、対話サーバ20が音声認識を行ったが、音声認識を行う手段をロボット10に持たせてもよい。また、実施形態の説明では、応答文の生成を対話サーバ20で行ったが、応答文の生成をロボット10が行うようにしてもよい。
また、実施形態の説明では、ロボット10がユーザとの対話を行ったが、外部との入出力を行う手段をロボット10から分離してもよい。例えば、音声出力部13や音声入力部12を独立させてもよい。
また、実施形態の説明では、近距離無線通信を用いて他のロボットの存在を検出したが、無線通信以外の手段を用いて他のロボットを検出してもよい。例えば、内蔵されたカメラを用いて画像を撮像し、当該画像を解析することで、対話相手である他のロボットを検出してもよい。また、パターンマッチングやバーコードの読み取りといった既知の技術を用いて、検出したロボットの個体を識別してもよい。
また、実施形態の説明では、発話データセットに、発話データとロボットの識別子を含ませたが、付加的な他のデータを追加してもよい。例えば、「現在時刻」、「会話の種別」、「ロボットの擬似的感情」などを付加し、発話生成部23が、これらの情報にさらに基づいて発話文を生成するようにしてもよい。
また、実施形態の説明では、発話データセットにロボットの識別子を含ませたが、例えば、対話を行うロボットが一対一である場合など、対話相手となるロボットが一意に特定できる場合、省略してもよい。
10・・・ロボット
11,21・・・通信部
12・・・音声出力部
13・・・音声入力部
14・・・音声認識部
15・・・近距離通信部
16・・・制御部
20・・・対話サーバ
22・・・発話生成部

Claims (7)

  1. ロボット同士が相互に対話を行う対話システムを構成するロボットであって、
    他のロボットとの間で無線通信を行う通信手段と、
    複数の前記ロボットに関する情報、または、前記複数のロボットのオーナーに関する情報を有するサーバ装置を介して、前記他のロボットに対する発話文を取得する発話文取得手段と、
    合成音声によって前記発話文を出力する音声出力手段と、
    前記音声出力手段が出力する発話文に関連するデータである発話データを、無線通信によって他のロボットに送信する発話送信手段と、
    対話相手のロボットが送信した発話データを受信することで、当該ロボットが発した発話の内容を取得する発話受信手段と、
    を有するロボット。
  2. 前記発話文取得手段は、前記対話相手のロボットが送信した発話データを用いて、当該ロボットに対する返答となる発話文を取得する、
    請求項1に記載のロボット。
  3. 前記発話データは、発話を行うロボットを識別する情報を含む、
    請求項1または2に記載のロボット。
  4. 前記発話データは、対話相手のロボットを識別する情報を含む、
    請求項3に記載のロボット。
  5. 前記発話データは、発話を行うロボットのオーナーと、対話相手のロボットのオーナーをそれぞれ識別する情報を含み、
    前記発話文取得手段は、前記オーナーに関する情報をさらに用いて前記発話文を取得する、
    請求項1から4のいずれかに記載のロボット。
  6. ロボット同士が相互に対話を行う対話システムを構成するロボットが行う音声対話方法
    であって、
    複数の前記ロボットに関する情報、または、前記複数のロボットのオーナーに関する情報を有するサーバ装置を介して、他のロボットに対する発話文を取得する発話文取得ステップと、
    合成音声によって前記発話文を出力する音声出力ステップと、
    前記発話文に関連するデータである発話データを、無線通信によって他のロボットに送信する発話送信ステップと、
    他のロボットから発話データを受信する発話受信ステップと、
    を含み、
    対話相手のロボットが送信した発話データを用いて、当該ロボットが発した発話の内容を取得する、
    音声対話方法。
  7. 請求項6に記載の音声対話方法をコンピュータに実行させるためのプログラム。
JP2016145367A 2016-07-25 2016-07-25 ロボットおよび音声対話方法 Active JP6680125B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016145367A JP6680125B2 (ja) 2016-07-25 2016-07-25 ロボットおよび音声対話方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016145367A JP6680125B2 (ja) 2016-07-25 2016-07-25 ロボットおよび音声対話方法

Publications (2)

Publication Number Publication Date
JP2018017764A JP2018017764A (ja) 2018-02-01
JP6680125B2 true JP6680125B2 (ja) 2020-04-15

Family

ID=61081710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016145367A Active JP6680125B2 (ja) 2016-07-25 2016-07-25 ロボットおよび音声対話方法

Country Status (1)

Country Link
JP (1) JP6680125B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3494567B2 (ja) * 1998-01-22 2004-02-09 株式会社ナムコ 携帯用通信玩具及び情報記憶媒体
JP2002287953A (ja) * 2001-03-23 2002-10-04 Sony Corp ユーザーインターフェースシステム
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2004062063A (ja) * 2002-07-31 2004-02-26 Matsushita Electric Ind Co Ltd 対話型装置
CN101193684A (zh) * 2004-06-08 2008-06-04 思比驰盖尔公司 采用无线通信控制外部计算能力的小雕像
JP6448971B2 (ja) * 2014-09-30 2019-01-09 シャープ株式会社 対話装置

Also Published As

Publication number Publication date
JP2018017764A (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
US10412206B1 (en) Communications for multi-mode device
JP6402748B2 (ja) 音声対話装置および発話制御方法
JP6465077B2 (ja) 音声対話装置および音声対話方法
JP6520878B2 (ja) 音声取得システムおよび音声取得方法
JP6447578B2 (ja) 音声対話装置および音声対話方法
US9552815B2 (en) Speech understanding method and system
JP6497372B2 (ja) 音声対話装置および音声対話方法
WO2013027360A1 (ja) 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置
JP6614080B2 (ja) 音声対話システムおよび音声対話方法
JP2020046478A (ja) ロボットシステム
US10143027B1 (en) Device selection for routing of communications
US20180033432A1 (en) Voice interactive device and voice interaction method
JP6448950B2 (ja) 音声対話装置及び電子機器
WO2018020828A1 (ja) 翻訳装置および翻訳システム
WO2019187521A1 (ja) 音声情報送信装置、音声情報送信方法、音声情報送信プログラム、音声情報解析システム及び音声情報解析サーバ
JP6680125B2 (ja) ロボットおよび音声対話方法
WO2019150708A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11172527B2 (en) Routing of communications to a device
JP2007286376A (ja) 音声案内システム
JP2018055155A (ja) 音声対話装置および音声対話方法
US10505879B2 (en) Communication support device, communication support method, and computer program product
CN112823047A (zh) 用于控制网络应用程序的系统和设备
JP2000311077A (ja) 音声情報入力装置
JP5929810B2 (ja) 音声解析システム、音声端末装置およびプログラム
KR102441066B1 (ko) 차량의 음성생성 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R151 Written notification of patent or utility model registration

Ref document number: 6680125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151