JP6420514B1 - 会話ロボット - Google Patents
会話ロボット Download PDFInfo
- Publication number
- JP6420514B1 JP6420514B1 JP2018072380A JP2018072380A JP6420514B1 JP 6420514 B1 JP6420514 B1 JP 6420514B1 JP 2018072380 A JP2018072380 A JP 2018072380A JP 2018072380 A JP2018072380 A JP 2018072380A JP 6420514 B1 JP6420514 B1 JP 6420514B1
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- response
- character
- chat
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000004044 response Effects 0.000 claims abstract description 213
- 230000005856 abnormality Effects 0.000 claims abstract description 76
- 230000008921 facial expression Effects 0.000 claims abstract description 41
- 230000008859 change Effects 0.000 claims abstract description 28
- 230000001815 facial effect Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 142
- 230000002159 abnormal effect Effects 0.000 claims description 58
- 238000003860 storage Methods 0.000 claims description 23
- 230000008451 emotion Effects 0.000 claims description 19
- 230000001186 cumulative effect Effects 0.000 claims description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 11
- 230000014509 gene expression Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000012790 confirmation Methods 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 2
- OOYGSFOGFJDDHP-KMCOLRRFSA-N kanamycin A sulfate Chemical group OS(O)(=O)=O.O[C@@H]1[C@@H](O)[C@H](O)[C@@H](CN)O[C@@H]1O[C@H]1[C@H](O)[C@@H](O[C@@H]2[C@@H]([C@@H](N)[C@H](O)[C@@H](CO)O2)O)[C@H](N)C[C@@H]1N OOYGSFOGFJDDHP-KMCOLRRFSA-N 0.000 claims description 2
- 101150054987 ChAT gene Proteins 0.000 description 130
- 101100203187 Mus musculus Sh2d3c gene Proteins 0.000 description 130
- 238000009826 distribution Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002243 precursor Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
更に、従来の会話ロボットにユーザの異常状態を検出する監視カメラや人感センサ等の見守り用のセンサを取り付けることにより、会話ロボットに「見守り機能」を付加することが行なわれている。しかしながら、見守り用のセンサを用いたユーザの異常状態の監視では、明らかな異常の前兆となる軽微な異常は認識できず、ユーザが重篤な状態になるまで放置されるという問題がある。
前記ユーザの発話音声及び該ユーザ周囲の環境音を受信するマイクロフォンと、該マイクロフォンから出力される出力信号から該ユーザの発話音声を選別して発話音声ファイルに変換し、該発話音声ファイルから発話文字ファイルを作成し受信信号として出力する音声入力処理部とを備えた音声入力装置と、
前記ユーザとのロボット側の対話者として、前記応答内容に応じて設定された担当キャラクタの応答時の顔画像を表示する表示装置と、
前記ユーザに対して応答音声を発生する音声出力装置と、
(1)前記受信信号から前記発話状況の発話異常有無を判定し異常有信号又は異常無信号を出力する発話異常判定処理部、(2)前記異常有信号が出力された際に、緊急通報応答としての緊急通報文字ファイルを作成し応答文字ファイルとして出力する緊急通報対応処理部、(3)前記異常無信号が出力され、前記受信信号から前記発話目的が話題継続願望による雑談と判別された際に雑談信号を、前記受信信号から前記発話目的が回答要求又は依頼要求による質問と判別された際に質問信号をそれぞれ出力する発話目的判別処理部、(4)前記雑談信号が出力された際に、前記受信信号に対応する雑談文字ファイルを作成し応答文字ファイルとして出力する雑談対応処理部、(5)前記質問信号が出力された際に、前記受信信号に対応する質問文字ファイルを作成し応答文字ファイルとして出力する質問対応処理部、(6)前記応答文字ファイルから応答音声データを作成して前記音声出力装置に入力する音声出力処理部、(7)前記発話目的判別処理部から前記雑談信号が出力された際に前記担当キャラクタとしてキャラクタAを、前記発話目的判別処理部から前記質問信号が出力された際に前記担当キャラクタとしてキャラクタBを、前記発話異常判定処理部から前記異常有信号が出力された際に前記担当キャラクタとしてキャラクタCをそれぞれ設定するキャラクタ設定部、(8)前記キャラクタ設定部で設定された前記担当キャラクタの顔画像を形成する顔画像合成データと、前記応答文字ファイルから前記担当キャラクタの感情を推定し、該感情に応じた表情を形成する顔表情データをそれぞれ作成し、前記顔画像合成データと前記顔表情データを組み合わせて前記担当キャラクタの顔画像の表情を応答時に変化させる画像表示データを作成し前記表示装置に入力するキャラクタ表情処理部、及び(9)前記音声入力装置の起動時又は前記応答音声の発生後に、前記発話異常判定処理部から前記異常無信号を出力させると共に、前記表示装置に前記キャラクタAの顔画像を表示させる初期状態設定部を備えた応答制御装置とを有し、
前記発話文字ファイル中に前記キャラクタBを呼び出す情報が含まれる際は、前記発話目的判別処理部から前記質問信号が出力され、
前記雑談対応処理部は、前記発話目的が雑談と認識されても、前記発話文字ファイルが有する話題で雑談する応答雑談と、前記発話文字ファイルが有する話題で雑談しない非応答雑談のいずれを実行するかの確率を、予め設定された複数の確率の中からユーザの意向に沿って1つ設定する雑談確率設定手段と、前記雑談確率設定手段で設定された確率で雑談を行なう雑談実行手段とを有し、
前記非応答雑談が実行される際は、前記発話文字ファイルに含まれるキーワードに関連する内容の新たな発話文字ファイルを作成して雑談する変更話題雑談、前記発話文字ファイルの入力に対し、予め作成しておいた雑談無視に対応する文字ファイルを出力する雑談無視、及び前記発話文字ファイルの入力に対し、予め作成しておいた雑談拒絶に対応する文字ファイルを出力する雑談拒絶の中から1つが確率的に決定され、前記キャラクタAの顔表情は、前記応答音声に合わせて変化する。
これによって、ユーザは、担当キャラクタの応答時の顔表情の変化を容易に捉えることができる。
これによって、ユーザは、担当キャラクタの顔を、応答内容に応じて設定することができる。ここで、担当キャラクタの顔画像は、予め準備された複数のペット(小動物)の写真(映像を含む、以下同様)、複数のペットの絵(漫画及び劇画を含む、以下同様)、複数の人の写真、又は複数の人の絵の中からユーザにより選択されたものに基づいて作製する。また、ユーザから提供された、あるいはユーザの要求に合わせて作製されたペットの写真、ペットの絵、人の写真、又は人の絵に基づいて作製することも可能である。
前記応答制御装置は、(1)前記受信信号から前記発話状況の発話異常有無を判定し異常有信号又は異常無信号を出力する発話異常判定処理部と、(2)前記異常有信号が出力された際に、緊急通報文字ファイルを作成し応答文字ファイルとして出力する緊急通報対応処理部と、(3)前記異常無信号が出力され、前記受信信号から前記発話目的が雑談と判別された際に雑談信号を、前記受信信号から前記発話目的が質問と判別された際に質問信号をそれぞれ出力する発話目的判別処理部と、(4)前記雑談信号が出力された際に、前記受信信号に対応する雑談文字ファイルを作成し応答文字ファイルとして出力する雑談対応処理部と、(5)前記質問信号が出力された際に、前記受信信号に対応する質問文字ファイルを作成し応答文字ファイルとして出力する質問対応処理部と、(6)前記応答文字ファイルから前記応答音声データを作成して前記音声出力装置に入力する音声出力処理部と、(7)前記発話目的判別処理部から前記雑談信号が出力された際に前記担当キャラクタとしてキャラクタAを、前記発話目的判別処理部から前記質問信号が出力された際に前記担当キャラクタとしてキャラクタBを、前記発話異常判定処理部から前記異常有信号が出力された際に前記担当キャラクタとしてキャラクタCをそれぞれ設定するキャラクタ設定部と、(8)前記キャラクタ設定部で設定された前記担当キャラクタの顔画像を形成する顔画像合成データと、前記応答文字ファイルから前記担当キャラクタの感情を推定し、該感情に応じた表情を形成する顔表情データをそれぞれ作成し、前記顔画像合成データと前記顔表情データを組み合わせて前記画像表示データとして前記表示装置に入力するキャラクタ表情処理部と、(9)前記音声入力装置の起動時又は前記応答音声の発生後に、前記発話異常判定処理部から前記異常無信号を出力させると共に、前記表示装置に前記キャラクタAの顔画像を表示させる初期状態設定部とを有している。
音声入力処理部を設けることで、ユーザの発話音声を選別することができ、ユーザの発話状況及び発話目的を確実に捉えることができる。また、応答内容に応じて担当キャラクタが変わるので、会話自体に興味を持たせることができる。
雑談確率設定手段を介して、ユーザは会話を行なう時の気分に応じて会話ロボットに非応答雑談の機会を与える、即ち会話ロボットの従順度を設定することができる。これにより、会話ロボットとの間に適度な距離感を有するコミュニケーションを図ることができ、変化に富んだ会話を楽しむことができる。
これにより、会話ロボットに意外性、自立性、及び威嚇性を持たせることができる。
これにより、会話ロボットに発話目的が質問であることを確実に認識させることができ、ユーザは適切な応答内容を会話ロボットから受け取ることができる。
そして、会話ロボットの発話に応答したユーザからの発話音声が会話ロボットに受信されると、会話ロボットから応答音声が発生されて会話が成立する。
待機時間(会話ロボットの音声出力装置より応答音声が発せられてから会話ロボットの音声入力装置でユーザの発話音声が受信されるまでの時間)は、ユーザの体調に影響される会話処理能力を反映する測定値と考えられる。このため、偏差が許容値を超えることは、ユーザの発話状況が変化していることを示している。そして、発話状態変化の発生の累積回数が異常発話判定値に到達したことは、ユーザに平常状態とは異なる発話状況が生じていることを示しており、ユーザに体調の変化(異常)が生じている可能性が高いと判断できる。
なお、平常状態のユーザの発話音声ファイル(発話音声)に対する確信度は、一般的に90%程度の値となるため、例えば、異常確信度は確信度70%程度の値に設定できる。また、異常累積回数は、例えば、5回程度の値に設定することができる。
更に、発話異常無と判定された際には、発話目的が雑談なのか、質問なのかの判別が行なわれ、雑談と判別されると雑談応答としての応答音声が、質問と判別されると質問応答としての応答音声がそれぞれユーザに発せられるので、不自然な会話や内容の破綻した会話の発生を防止することが可能になる。
図1に示すように、本発明の一実施の形態に係る会話ロボット10は、会話ロボット10のユーザの発話状況及び発話目的に応じて応答内容が変化するものであって、ユーザの発話音声をマイクロフォン11で受信して受信信号として出力する音声入力処理部12を備えた音声入力装置13と、ロボット側の対話者(ユーザとの対話者)として、応答内容に応じて設定された担当キャラクタの応答時の顔画像を表示するディスプレイ14(表示装置の一例)と、ユーザに対して応答音声を発生するスピーカ15(音声出力装置の一例)とを有する。
担当キャラクタの顔画像は、予め準備された複数のペットの写真、複数のペットの絵、複数の人の写真、又は複数の人の絵の中からユーザにより選択されたものに基づいて作製する。なお、担当キャラクタの顔画像は、ユーザから提供された、あるいはユーザの要求に合わせて作製されたペットの写真、ペットの絵、人の写真、又は人の絵に基づいて作製することも可能である。応答内容に応じて担当キャラクタを変えることで、会話自体に興味を持たせることができる。
ここで、表示位置調整部18は、ユーザの画像からディスプレイ14(例えば、表示面の中心位置)に対するユーザの三次元位置を求めてディスプレイ14の表示面の方向(例えば、表示面の中心位置に立てた法線の方向)を調節する修正データを演算する修正データ演算器19と、ディスプレイ14を載置し、修正データに基づいてディスプレイ14の表示面の方向を変化させる可動保持台20とを有している。
なお、初期状態設定部31を介してディスプレイ14にキャラクタAの顔画像が表示される場合、キャラクタ表情処理部30には応答文字ファイルの情報が入力されないため、キャラクタAの顔表情は平常時の顔表情とする。
なお、音声認識処理手段34をクラウド(インターネット)上に設けることで、音声認識処理手段34に大規模なデータベースを接続することができ、ハードウェアの更新、アプリケーションソフトウェアの更新や改善を適宜行うことができる。このため、音声認識処理手段34では発話音声ファイルから発話文字ファイルへの正確かつ迅速な変換を行なうことができる。
ここで、最小値より小さい値には、例えば、確信度の分布を複数求めて、各確信度の分布が有する最小値を抽出し、抽出された最小値から構成される最小値分布を求めて、得られた最小値分布から推定される推定最小値を用いることができる。
一方、ユーザに異常が発生するとユーザの会話状態に変化が生じるため、ユーザの発話音声から発話文字ファイルが作成される際の確信度が低下し、異常確信度以下となる低確信度状態が発生することになる。そして、会話ロボット10との会話中に、ユーザに生じた低確信度状態の発生が一定時間継続すると累積回数が異常累積回数に達することになる。
ここで、体調確認文字ファイルは、キャラクタCに、例えば、「会話の待機時間が長くなっています。何か異常はありませんか?」と発話させる情報を有し、会話認識度確認文字ファイルは、キャラクタCに、例えば、「会話の認識率が下がっています。何か異常はありませんか?」と発話させる情報を有する。
このため、感情推定手段54に応答文字ファイルが入力されると、応答文字ファイルに含まれる文と同趣旨の標準文をデータベース内で抽出し、抽出された標準文が有する心理状態を文(応答文字ファイル)の感情と推定する。なお、文の趣旨が複数の標準文の組合せから構成される場合は、文の趣旨を構成する各標準文を抽出すると共に各標準文の寄与率(重み付け率)を算出し、各標準文の心理状態を寄与率で調整した修正心理状態の総和を文(応答文字ファイル)の感情と推定する。
応答文字ファイルがキャラクタ表情処理部30に入力されない場合、即ち、顔表情データが作成されない場合、画像表示データは顔画像合成データに一致するため、ディスプレイ14には担当キャラクタの顔画像(平常時の顔表情)が表示される。
なお、キャラクタ表情処理部30に入力された応答文字ファイルから感情が推定できない場合、例えば、擬声語の場合は、擬声語を発する際の表情状態を顔表情データと設定する。
これにより、会話ロボット10は、キャラクタの顔表情を変化させながら対話を行なうことができる。
なお、ビデオデッキ57で再生する映像データは記憶媒体(例えば、磁気テープ系、磁気ディスク系、光磁気ディスク系、光ディスク系、メモリ系のリムーバブルメディア)やインターネットを介して取得することができる。
このような構成とすることにより、放送局から送信されたテレビ放送の電波をテレビ受像機56のテレビチューナ56aを介して受信し、映像を表示画面56bに表示し音声をスピーカ56cから出力させることができ、ビデオデッキ57のテレビチューナ57aを介して受信し、録画データを録画記憶部57bに保存することができる。また、放送局から送信されたラジオ放送の電波をラジオ受信機58のラジオチューナ58aを介して受信し、音声をスピーカ58bから出力させることができる。
なお、テレビ受像機56とビデオデッキ57はそれぞれ専用のディスプレイを有しても、テレビ受像機56とビデオデッキ57は共用のディスプレイを有してもよい。更に、テレビ受像機56とビデオデッキ57はディスプレイを有さず、テレビ受像機56とビデオデッキ57の各映像信号をディスプレイ14に入力するようにしてもよい。
また、テレビ受像機をテレビチューナと、スピーカで構成し、テレビ放送の映像又は録画再生時の映像は会話ロボット10のティスプレイ14に表示させることもできる。このような構成とすることにより、会話ロボット10の構成が更に簡単になって製造コストをより低減させることが可能になる。
図3、図4に示すように、ユーザが会話ロボット10を起動させると、初期状態設定部31によりディスプレイ14に担当キャラクタAが表示され、会話ロボット10と雑談を開始することができる状態となる。そして、ユーザの発話音声が会話ロボット10の側で受信される度に、発話異常判定処理部22を介して、発話音声に基づいて発話状況に異常があるか否か(発話異常有無)の判定が行われる。ここで、発話異常有と判定された際は、発話異常有の場合の担当キャラクタであるキャラクタCがディスプレイ14に自動的に表示され、緊急通報対応処理部23で緊急通報文字ファイルが作成され、応答文字ファイルとして出力される。応答文字ファイルは音声出力処理部28に入力され、緊急通報応答としての応答音声がスピーカ15からユーザに発せられる。
以上のように、ユーザの発話音声から異常発生の前兆となる軽微な異常が検出されると、会話ロボット10からユーザに対して直ちに異常の存在が通知されるので、ユーザの安心及び安全のレベルを高めることが可能になる。
なお、キャラクタAは実行確率毎にそれぞれ設定されており、実行確率が設定されると、その実行確率に対応するキャラクタAがディスプレイ14に表示される。
なお、雑談無視が選択された場合は雑談無視を示す雑談文字ファイルが雑談対応処理部26で形成され、雑談拒絶が選択された場合は雑談拒絶を示す雑談文字ファイルが雑談対応処理部26で形成され、応答文字ファイルとして音声出力処理部28に出力される。
以上のように、ユーザからの発話音声(受信信号)から先ず発話目的を特定し、次いで目的に応じた応答文字ファイルを作成するので、ユーザと会話ロボット10との間で不自然な会話や内容の破綻した会話の発生を防止することが可能になる。
ここで、ビデオデッキ57で非録画映像データ(テレビ放送番組の録画ではなく、番組情報に相当する情報が入手できないもの)を再生する場合は、発話会話ロボット10による再生された映像に関する発話は生じないので、会話ロボット10からの応答は、ユーザの発話に対するものとなる。
例えば、発話目的判別処理部から質問信号が確実に出力されるために、発話文字ファイル中にキャラクタBを呼び出す情報を含ませたが、質問に対する回答が必ずしも必要でない場合は、発話音声中に質問に関する情報を含ませ、雑談が進行する過程で回答が得られるようにすることもできる。
Claims (5)
- ユーザの発話状況及び発話目的に応じて応答内容が変化する会話ロボットであって、
前記ユーザの発話音声及び該ユーザ周囲の環境音を受信するマイクロフォンと、該マイクロフォンから出力される出力信号から該ユーザの発話音声を選別して発話音声ファイルに変換し、該発話音声ファイルから発話文字ファイルを作成し受信信号として出力する音声入力処理部とを備えた音声入力装置と、
前記ユーザとのロボット側の対話者として、前記応答内容に応じて設定された担当キャラクタの応答時の顔画像を表示する表示装置と、
前記ユーザに対して応答音声を発生する音声出力装置と、
(1)前記受信信号から前記発話状況の発話異常有無を判定し異常有信号又は異常無信号を出力する発話異常判定処理部、(2)前記異常有信号が出力された際に、緊急通報応答としての緊急通報文字ファイルを作成し応答文字ファイルとして出力する緊急通報対応処理部、(3)前記異常無信号が出力され、前記受信信号から前記発話目的が話題継続願望による雑談と判別された際に雑談信号を、前記受信信号から前記発話目的が回答要求又は依頼要求による質問と判別された際に質問信号をそれぞれ出力する発話目的判別処理部、(4)前記雑談信号が出力された際に、前記受信信号に対応する雑談文字ファイルを作成し応答文字ファイルとして出力する雑談対応処理部、(5)前記質問信号が出力された際に、前記受信信号に対応する質問文字ファイルを作成し応答文字ファイルとして出力する質問対応処理部、(6)前記応答文字ファイルから応答音声データを作成して前記音声出力装置に入力する音声出力処理部、(7)前記発話目的判別処理部から前記雑談信号が出力された際に前記担当キャラクタとしてキャラクタAを、前記発話目的判別処理部から前記質問信号が出力された際に前記担当キャラクタとしてキャラクタBを、前記発話異常判定処理部から前記異常有信号が出力された際に前記担当キャラクタとしてキャラクタCをそれぞれ設定するキャラクタ設定部、(8)前記キャラクタ設定部で設定された前記担当キャラクタの顔画像を形成する顔画像合成データと、前記応答文字ファイルから前記担当キャラクタの感情を推定し、該感情に応じた表情を形成する顔表情データをそれぞれ作成し、前記顔画像合成データと前記顔表情データを組み合わせて前記担当キャラクタの顔画像の表情を応答時に変化させる画像表示データを作成し前記表示装置に入力するキャラクタ表情処理部、及び(9)前記音声入力装置の起動時又は前記応答音声の発生後に、前記発話異常判定処理部から前記異常無信号を出力させると共に、前記表示装置に前記キャラクタAの顔画像を表示させる初期状態設定部を備えた応答制御装置とを有し、
前記発話文字ファイル中に前記キャラクタBを呼び出す情報が含まれる際は、前記発話目的判別処理部から前記質問信号が出力され、
前記雑談対応処理部は、前記発話目的が雑談と認識されても、前記発話文字ファイルが有する話題で雑談する応答雑談と、前記発話文字ファイルが有する話題で雑談しない非応答雑談のいずれを実行するかの確率を、予め設定された複数の確率の中からユーザの意向に沿って1つ設定する雑談確率設定手段と、前記雑談確率設定手段で設定された確率で雑談を行なう雑談実行手段とを有し、
前記非応答雑談が実行される際は、前記発話文字ファイルに含まれるキーワードに関連する内容の新たな発話文字ファイルを作成して雑談する変更話題雑談、前記発話文字ファイルの入力に対し、予め作成しておいた雑談無視に対応する文字ファイルを出力する雑談無視、及び前記発話文字ファイルの入力に対し、予め作成しておいた雑談拒絶に対応する文字ファイルを出力する雑談拒絶の中から1つが確率的に決定され、前記キャラクタAの顔表情は、前記応答音声に合わせて変化することを特徴とする会話ロボット。 - 請求項1記載の会話ロボットにおいて、前記担当キャラクタの顔画像はペット又は人の顔画像から形成されることを特徴とする会話ロボット。
- 請求項1又は2記載の会話ロボットにおいて、(1)テレビ放送を視聴するテレビ視聴手段と、(2)テレビ放送を録画し再生する又は映像データを再生する映像処理手段と、(3)ラジオ放送を聴取するラジオ聴取手段と、(4)前記テレビ視聴手段によるテレビ放送の視聴時に該テレビ放送の番組情報を取得し、前記映像処理手段によるテレビ放送の録画時に該テレビ放送の番組情報を取得し、又は前記ラジオ聴取手段によるラジオ放送の聴取時に該ラジオ放送の番組情報を取得して保存する番組情報記憶手段と、(5)前記テレビ視聴手段によるテレビ放送の視聴時に前記番組情報記憶手段に保存された該テレビ放送の番組情報から、前記映像処理手段による録画されたテレビ放送の再生時に前記番組情報記憶手段に保存された該テレビ放送の番組情報から、又は前記ラジオ聴取手段によるラジオ放送の聴取時に前記番組情報記憶手段に保存された該ラジオ放送の番組情報から番組文字ファイルを作成して前記応答文字ファイルとして出力する番組対応発話手段とを有することを特徴とする会話ロボット。
- 請求項1〜3のいずれか1項に記載の会話ロボットにおいて、前記発話異常判定処理部は、(1)予め設定された時間帯で前記応答音声が発せられる度に該応答音声が発せられてから前記音声入力装置で前記発話音声が受信されるまでの待機時間を測定し、予め求めておいた前記ユーザの基準待機時間と該待機時間との偏差が設定した許容値を超える発話状況変化の発生有無を検知し、前記ユーザとの間で1日の最初の対話が成立して以降の該発話状況変化の発生の累積回数が予め設定した異常発話判定値に到達した際に発話異常有と判定し前記異常有信号として第1の異常信号を出力する第1の警報手段と、(2)前記発話文字ファイルの前記発話音声ファイルに対する確からしさを定量的に示す確信度を取得し、該確信度が予め設定された異常確信度以下となる低確信度状態の発生有無を検知し、該低確信度状態の発生の累積回数が予め設定した異常累積回数に到達した際に発話異常有と判定し前記異常有信号として第2の異常信号を出力する第2の警報手段とを有することを特徴とする会話ロボット。
- 請求項4記載の会話ロボットにおいて、前記緊急通報対応処理部は、(1)前記第1の異常信号が出力された際に、前記緊急通報文字ファイルとして前記ユーザの体調変化を確認する体調確認文字ファイルを作成して出力する第1の緊急通報対応手段と、(2)前記第2の異常信号が出力された際に、前記緊急通報文字ファイルとして前記ユーザの会話認識変化を確認する会話認識度確認文字ファイルを作成して出力する第2の緊急通報対応手段とを有することを特徴とする会話ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072380A JP6420514B1 (ja) | 2018-04-04 | 2018-04-04 | 会話ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072380A JP6420514B1 (ja) | 2018-04-04 | 2018-04-04 | 会話ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6420514B1 true JP6420514B1 (ja) | 2018-11-07 |
JP2019184694A JP2019184694A (ja) | 2019-10-24 |
Family
ID=64098818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072380A Expired - Fee Related JP6420514B1 (ja) | 2018-04-04 | 2018-04-04 | 会話ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6420514B1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020173342A (ja) * | 2019-04-10 | 2020-10-22 | 一般社団法人It&診断支援センター・北九州 | 猫型会話ロボット |
CN117591660A (zh) * | 2024-01-18 | 2024-02-23 | 杭州威灿科技有限公司 | 基于数字人的材料生成方法、设备及介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022114263A1 (ko) * | 2020-11-26 | 2022-06-02 | 주식회사 제페토로보틱스 | 교육용 로봇의 동작보정 시스템 및 동작보정 방법 |
US20230032760A1 (en) * | 2021-08-02 | 2023-02-02 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a serving robot |
WO2023047646A1 (ja) * | 2021-09-21 | 2023-03-30 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6126133A (ja) * | 1984-07-17 | 1986-02-05 | Nippon Signal Co Ltd:The | 音声認識入力装置 |
JP2003058973A (ja) * | 2001-08-09 | 2003-02-28 | Fujitsu Ltd | 安否確認装置及び安否確認方法 |
JP2005056170A (ja) * | 2003-08-05 | 2005-03-03 | Matsushita Electric Ind Co Ltd | 対話型操作支援システム |
JP2007135008A (ja) * | 2005-11-10 | 2007-05-31 | Sony Ericsson Mobilecommunications Japan Inc | 携帯端末装置 |
JP2011242755A (ja) * | 2010-04-22 | 2011-12-01 | Fujitsu Ltd | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
WO2012090282A1 (ja) * | 2010-12-27 | 2012-07-05 | 富士通株式会社 | 音声制御装置、音声制御方法、音声制御プログラム及び携帯端末装置 |
JP2015087796A (ja) * | 2013-10-28 | 2015-05-07 | 株式会社Nttドコモ | 質問分野判定装置及び質問分野判定方法 |
JP2018040897A (ja) * | 2016-09-06 | 2018-03-15 | 国立大学法人京都大学 | 音声対話装置および音声対話装置を用いた自動対話方法 |
-
2018
- 2018-04-04 JP JP2018072380A patent/JP6420514B1/ja not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6126133A (ja) * | 1984-07-17 | 1986-02-05 | Nippon Signal Co Ltd:The | 音声認識入力装置 |
JP2003058973A (ja) * | 2001-08-09 | 2003-02-28 | Fujitsu Ltd | 安否確認装置及び安否確認方法 |
JP2005056170A (ja) * | 2003-08-05 | 2005-03-03 | Matsushita Electric Ind Co Ltd | 対話型操作支援システム |
JP2007135008A (ja) * | 2005-11-10 | 2007-05-31 | Sony Ericsson Mobilecommunications Japan Inc | 携帯端末装置 |
JP2011242755A (ja) * | 2010-04-22 | 2011-12-01 | Fujitsu Ltd | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
WO2012090282A1 (ja) * | 2010-12-27 | 2012-07-05 | 富士通株式会社 | 音声制御装置、音声制御方法、音声制御プログラム及び携帯端末装置 |
JP2015087796A (ja) * | 2013-10-28 | 2015-05-07 | 株式会社Nttドコモ | 質問分野判定装置及び質問分野判定方法 |
JP2018040897A (ja) * | 2016-09-06 | 2018-03-15 | 国立大学法人京都大学 | 音声対話装置および音声対話装置を用いた自動対話方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020173342A (ja) * | 2019-04-10 | 2020-10-22 | 一般社団法人It&診断支援センター・北九州 | 猫型会話ロボット |
CN117591660A (zh) * | 2024-01-18 | 2024-02-23 | 杭州威灿科技有限公司 | 基于数字人的材料生成方法、设备及介质 |
CN117591660B (zh) * | 2024-01-18 | 2024-04-16 | 杭州威灿科技有限公司 | 基于数字人的材料生成方法、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2019184694A (ja) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6420514B1 (ja) | 会話ロボット | |
CN111402900B (zh) | 一种语音交互方法,设备和系统 | |
JP7070544B2 (ja) | 学習装置、学習方法、音声合成装置、音声合成方法 | |
US20180069815A1 (en) | Application-based messaging system using headphones | |
US20140214426A1 (en) | System and method for improving voice communication over a network | |
MX2008016354A (es) | Deteccion de una maquina contestadora utilizando reconocimiento de dialogo. | |
US11650790B2 (en) | Centrally controlling communication at a venue | |
US20190019067A1 (en) | Multimedia conferencing system for determining participant engagement | |
JP2010074494A (ja) | 会議支援装置 | |
US20220231873A1 (en) | System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation | |
US12052391B2 (en) | Methods and systems for automatic queuing in conference calls | |
JP2019215449A (ja) | 会話補助装置、会話補助方法及びプログラム | |
JP2006279111A (ja) | 情報処理装置、情報処理方法およびプログラム | |
EP3819904B1 (en) | Method of determining the speech in a web-rtc audio or video communication and/or collaboration session and communication system | |
JP6598227B1 (ja) | 猫型会話ロボット | |
JP6718623B2 (ja) | 猫型会話ロボット | |
US20220013128A1 (en) | Conversation support system, conversation support method and computer readable storage medium | |
CN115695708A (zh) | 一种具有无线麦克风智能跟踪功能的音视频控制方法 | |
US11783837B2 (en) | Transcription generation technique selection | |
JP2009053342A (ja) | 議事録作成装置 | |
CN113542661A (zh) | 一种视频会议语音识别方法及系统 | |
JP7342928B2 (ja) | 会議支援装置、会議支援方法、会議支援システム、および会議支援プログラム | |
JPH0758858A (ja) | 遠隔会議システム | |
JP2009302824A (ja) | 音声通信システム | |
JP6854170B2 (ja) | インターホン装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180501 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180501 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6420514 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |