JP6889597B2 - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP6889597B2 JP6889597B2 JP2017084412A JP2017084412A JP6889597B2 JP 6889597 B2 JP6889597 B2 JP 6889597B2 JP 2017084412 A JP2017084412 A JP 2017084412A JP 2017084412 A JP2017084412 A JP 2017084412A JP 6889597 B2 JP6889597 B2 JP 6889597B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- sentence
- television
- generation unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 40
- 238000004891 communication Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 description 83
- 230000008569 process Effects 0.000 description 60
- 230000004807 localization Effects 0.000 description 13
- 238000000926 separation method Methods 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 12
- 238000003786 synthesis reaction Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 241001465754 Metazoa Species 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000007493 shaping process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
コミュニケーションロボット開発の目標は、人間又は動物の代わりとなるロボットであるが、現状で実現は困難なため、既存のコミュニケーションロボットが持つ機能は限定されている。
例えば、既存のコミュニケーションロボットは、行動及び会話のパターンが限られているため、使い始めは目新しいものの、使い続けていると利用者が飽きてしまう課題がある。そこで、例えば、以下の方法が提案されている。
特許文献2では、ロボットに組み込まれたカメラにより、周囲の人物又は物体を識別し、識別結果に関連した話題の会話を行う方法が提案されている。
特許文献3では、映像に対するソーシャルネットワークのコメント等の投稿情報を用いて、ロボットがユーザの好みに応じたコンテンツを提供すると共に、映像を一緒に視聴しているかのような動作を提供することで、ユーザに対して共感を生じさせる方法が提案されている。
このような状況において、あたかもテレビを見て楽しんでいるロボットの存在は、このロボットがテレビとユーザとの双方と関わりを持つことで、ユーザの孤独感を癒す効果が期待できる。
本実施形態に係る制御装置10は、ロボット1の動作を制御する情報処理装置である。制御装置10は、テレビの位置とユーザ(視聴者)の位置とを判別し、テレビ音声、映像、番組情報又は字幕情報等から抽出したキーワードに関連する言葉をテレビの方向を向いてつぶやく、又はユーザの方向を向いて話しかけるように、ロボット1を回転させることで、ユーザにロボットと一緒にテレビを視聴しているように感じさせる。
制御装置10は、ロボット1の周囲にあるテレビを検出するためのカメラC、ユーザの声を収集するマイクロホンアレイM、ユーザが好みのぬいぐるみ等Uを乗せるための回転テーブルT、この回転テーブルTを回転させるモータS、制御装置10が発生させる発話音声を出力するスピーカP、視聴中のテレビの番組情報及び字幕情報等を管理し提供するテレビ情報提供サーバV、テレビを制御するための赤外線発光器Lのそれぞれと接続されている。
テレビ位置検出処理において、テレビ位置検出部11は、モータ角度制御部17を制御し、回転テーブルTを回転させながら、カメラCの画像からテレビが位置する第1方向を検出する。
文献A:特開2005−4697号公報
音源定位及び音源分離の方法としては、例えば、以下の文献Bの方法が適用でき、この方法により、音源定位・分離部12は、ユーザがロボット1に話し掛けた音声を取得できる。
文献B:奥乃博、中臺一博「ロボット聴覚オープンソフトウエア HARK」、日本ロボット学会誌、Vol.28、No.1、2010
また、音源定位・分離部12は、分離した音声データを音声認識部13に通知すると共に、音声が到来した第2方向をモータ角度制御部17に通知する。モータ角度制御部17は、通知された方向をユーザの方向として記憶する。
音声データからテキストデータへ変換する音声認識には様々な方式が開発されており、例えば、以下の文献Cの方法が適用できる。
文献C:河原達也、李晃伸「連続音声認識ソフトウェア Julius」、人工知能学会誌、Vol.20、No.1、2005
本実施形態では、音声認識部13は、大語彙音声認識と記述文法による音声認識とを並列に使用する。記述文法による音声認識は、「チャンネルを1に切り替えて」、「テレビをつけて」、「音量を下げて」、「今何の番組を見ているの」等の、一般にテレビの操作に関する音声の認識に用い、その他の音声には、大語彙音声認識による音声認識結果を用いる。
音声認識部13は、変換されたテキストデータと共に、使用された音声認識の方式(大語彙又は記述文法)を発話生成部15に通知する。
番組情報は、例えば、“,”文字によってデータのフィールドが区切られ、番組の開始日、開始時刻、番組の時間長、番組タイトル、番組概要等を含む。
この例では、番組の放送日が2016年9月30日、番組開始時刻が22時00分00秒、番組の時間長が50分、番組タイトルが「ドラマめろめろ 第2回」、番組概要が「主人公Yは職場の同僚K子に思いをはせる。」である。
ここでは、6個分の字幕情報の例を示している。1つの字幕情報は、例えば、“,”文字によってデータのフィールドが区切られ、表示日、表示開始時刻、字幕文等を含む。
例えば、1つ目の字幕情報は、2016年9月30日の22時10分14秒に、「こんばんは。」という字幕文を表示することを示している。
また、テレビ情報提供サーバVは、例えば、放送局がインターネット等のサービスとして提供するサーバでもよいし、テレビ受像機が受信した放送データから番組情報を抽出する家庭内のサーバでもよい。
ここで、テレビ情報提供サーバVが放送局毎に異なる場合には、テレビ情報取得部14は、テレビ制御部18からチャンネル切り替えの通知を受信する度に、該当のチャンネルに対応するテレビ情報提供サーバVに接続し直す。
また、テレビ情報取得部14は、テレビ情報提供サーバVから番組情報としての字幕情報を受信すると、後述の字幕文の整形処理を行った後、整形した字幕文テキストを発話生成部15に通知する。
また、発話生成部15は、発話文の特徴により、この発話文が人へ話し掛ける文であるか否かを判定し、判定結果に応じてモータ角度制御部17に対して、テレビが位置する第1方向、又はユーザが位置する第2方向のいずれかを指示する。
文書(放送番組)jにおける単語(キーワード)iの出現頻度をnij、文書(放送番組)の総数をDとすると、文書jにおける単語iのtf−idfijは、次の式1で表すことができる。ここで、sgn(x)は、x=0のとき0、x>0のとき1となる関数である。
式1: tf−idfij = tfij × idfi
tfij = nij / Σknkj
idfi = log(D / Σj sgn(nij))
テキストデータからの音声合成手法としては、例えば、次の文献Dに示されている隠れマルコフモデル(HMM)を利用した音声合成手法が適用できる。
文献D:大浦圭一郎、酒向慎司、徳田恵一「日本語テキスト音声合成システム Open JTalk」、日本音響学会研究発表会講演論文集、2−7−6、2010
テレビ制御部18のテレビ制御機能としては、例えば、電源のオン及びオフ、チャンネルの変更、音量の上げ下げ等がある。なお、テレビのリモコンが出力する信号は、製造メーカ及びテレビの機種毎に異なるが、本実施形態では、テレビ制御部18に、使用するテレビのリモコン信号の種類が予め登録されているものとする。
本実施形態のロボット1は、筺体が円筒形であり、筐体上部の回転テーブルTは、モータSの回転軸に接続され、制御装置10からの制御信号により指定された向き(角度)に回転する。カメラC、スピーカP及び赤外線発光器Lは、回転テーブルTに取り付けられ、回転テーブルTと共に回転する。
また、ユーザは、この回転テーブルTの上に、カメラCの方向を前方として好みのぬいぐるみ等Uを固定することができ、このぬいぐるみ等Uも、回転テーブルTと共に回転する。
なお、回転テーブルTに取り付けられたカメラC、スピーカP及び赤外線発光器Lと、制御基板Rとの接続は、直接ケーブルで行ってもよいが、例えば、モータSと回転テーブルTとがスリップリングを介して接続されてもよい。
次に、制御装置10の初期動作としての、テレビ位置検出部11によるテレビ位置検出処理を詳述する。
ステップS1において、テレビ位置検出部11は、回転テーブルTの回転角度を示す変数θを0に初期化する。
ステップS2において、テレビ位置検出部11は、モータ角度制御部17にθを通知し、回転テーブルTをθの方向に向ける。
ステップS5において、テレビ位置検出部11は、θにΔθを加える。
ステップS6において、テレビ位置検出部11は、θが360度より小さい場合に、処理をステップS2に戻し、新しい方向θで同様にテレビ位置の検出を繰り返す。
なお、Δθは、小さな値にするほど、位置検出の精度は向上するが、処理負荷とのトレードオフにより適宜設定される。
音源定位・分離部12及びモータ角度制御部17は、それぞれ通知された方向をテレビの方向として記憶する。
ステップS10において、テレビ位置検出部11は、テレビ制御部18に所定のチャンネルへの切り替えを指示する。
なお、前述の文献Aに示されたテレビ検出の方法を用いる場合、テレビ画面の表示に変化があることを前提としているため、ステップS1に先立ち、テレビの電源を入れておく必要がある。この方法として、例えば、制御装置10は、モータ角度制御部17により回転テーブルTを回転させながら、テレビ制御部18によりテレビの電源を入れる信号を周囲に出してもよい。あるいは、制御装置10は、音声合成部16により「テレビの電源を入れてくれる」等と発話させ、ユーザに操作を促してもよい。
次に、発話生成部15の入力となる字幕情報の整形処理を詳述する。
整形処理は、テレビ情報提供サーバVから取得した字幕情報から字幕文テキストを生成する処理である。この処理により、1つの文が複数の画面に分割されている字幕データが1つの字幕文として連結され、解説的な補助の文字列(例えば、音楽が流れていることを表した音符記号、誰の言葉かを示す人物名等)が削除される。
ステップS11において、テレビ情報取得部14は、整形した字幕文テキストを記録する文字列バッファを初期化する。
ステップS12において、テレビ情報取得部14は、テレビ情報提供サーバVから1つの字幕情報を取得する。
ステップS13において、テレビ情報取得部14は、字幕情報の先頭にある表示開始日時等のデータを除き、字幕文のみを抽出する。
ステップS16において、テレビ情報取得部14は、文字列バッファの文末が区切り文字か否かを判定する。区切り文字とは、読点“。”及び疑問符“?”等であり、この区切り文字によって、文字列バッファに記録されている文が終わっている(完結している)か否かが判断される。この判定がYESの場合、処理はステップS17に移る。一方、判定がNOの場合、記録中の文が途中であるため、処理はステップS12に戻り、テレビ情報取得部14は、次の字幕情報を取得する。
ステップS18において、テレビ情報取得部14は、文字列バッファ内に記録された整形された字幕文テキストを、発話生成部15に通知する。
ステップS19において、テレビ情報取得部14は、処理の終了が指示されたか否かを判定する。この判定がYESの場合、処理は終了し、判定がNOの場合、次の字幕文テキストを生成するために、処理はステップS11に戻る。
この例は、図3で例示した字幕情報に対して整形処理を行った結果を示している。
図3の字幕情報にある「(笑い声)」及び「♪〜(歌声)」の文字情報は削除され、また、「会社の帰りにお店によって→」及び「買い物してきてもらいたいの。」の2つの字幕情報が1つの字幕文テキストに整形され、さらに、削除指定文字「→」が削除されている。
結果として、図3の6つの字幕情報は、「こんばんは。」、「会社の帰りにお店によって買い物してきてもらいたいの。」、「いらっしゃいませ。」の3文に整形されている。
次に、発話生成部15による発話生成処理を詳述する。
発話生成部15は、音声認識部13からの音声認識結果のテキスト文、及びテレビ情報取得部14からの番組情報、特に字幕文テキストの入力に対応した発話文の生成と、対応した動作とを行う。
本実施形態では、発話生成部15に入力されるテキスト文の種類によって発話生成処理は大きく3つに分かれる。1つ目は、音声認識部13からの音声認識結果が記述文法の場合であり、2つ目は、音声認識部13からの音声認識結果が大語彙の場合であり、3つ目は、テレビ情報取得部14からの字幕文テキストの場合である。
ステップS21において、発話生成部15は、音声認識部13又はテレビ情報取得部14から、テキスト文の入力を受け付ける。
ステップS23において、発話生成部15は、入力されたテキスト文が大語彙音声認識結果であるか否かを判定する。この判定がYESの場合、処理はステップS26に移り、判定がNOの場合、処理はステップS24に移る。
ステップS24において、発話生成部15は、入力されたテキスト文が字幕文テキストであるか否かを判定する。この判定がYESの場合、処理はステップS27に移り、判定がNOの場合、処理はステップS28に移る。
ステップS26において、発話生成部15は、後述の対話文生成処理を実行し、その後、処理はステップS28に移る。
ステップS27において、発話生成部15は、後述のつぶやき文生成処理を実行し、その後、処理はステップS28に移る。
ステップS28において、発話生成部15は、処理の終了が指示されたか否かを判定する。この判定がYESの場合、処理は終了し、判定がNOの場合、次のテキスト文を受け付けるために、処理はステップS21に戻る。
定型対話処理は、予め決められた記述文法に従った音声入力文に対応して、発話及び動作を行うものである。定型文の入力と発話及び動作との組み合わせ例としては、例えば、「1チャンネルに切り替えて」という音声入力に対して「1チャンネルに切り替えるね」と確認の発話の後、テレビのチャンネルを切り替え、「1チャンネルに切り替えたよ」と発話するといったものがある。また、「何の番組を見ているの」という音声入力に対して、EPGデータから「ドラマめろめろ第2回だよ」と、現在の番組のタイトル等を発話するといった例もある。
ステップS31において、発話生成部15は、モータ角度制御部17に命令を出し、入力文の発話者であるユーザが位置する第2方向に回転テーブルTの向きを変える。
このとき、発話生成部15は、テレビ情報取得部14から通知されている現在の番組情報(例えば、EPGデータ)を利用することで、発話文内に番組のタイトル及び概要文等を含めることができる(例えば、上述の「ドラマめろめろ第2回だよ」)。
ステップS35において、発話生成部15は、テレビ制御部18に対してテレビへの制御命令の実行を指示する。
ステップS37において、発話生成部15は、制御の完了をユーザに知らせるための発話文のテキストデータを音声合成部16に送る(例えば、上述の「1チャンネルに切り替えたよ」)。
対話文生成処理は、音声認識部13による大語彙音声認識の結果を入力として、対話文を生成して発話を実行するものである。
対話文を生成する方式として、例えば、次の文献Eで実装例が示されている人工無脳がある。
文献E:秋山智俊「恋するプログラム―Rubyでつくる人工無脳」、毎日コミュニケーションズ、2005
本実施形態では、人工無脳の辞書の学習に、テレビ情報取得部14により整形された字幕文を用いる。これにより、発話生成部15は、ユーザが普段よく見る番組の単語及び会話文等を学習し、適切な対話文を作成できる。
ステップS41において、発話生成部15は、回転テーブルTをユーザの位置する第2方向に向けるため、モータ角度制御部17に命令を出す。
ステップS42において、発話生成部15は、音声認識部13から通知されたテキスト文を入力として対話文を生成し、生成したテキストデータを音声合成部16に通知して発話を実行する。
ステップS45において、発話生成部15は、定型対話処理(図9)を実行する。
つぶやき文生成処理は、ロボットが自律的にテレビを見ているような効果を出すために、テレビ又はユーザの方向を選択的に向きながら、番組に関連する言葉をつぶやくものである。
つぶやき文生成処理は、テレビ情報取得部14から、字幕文テキストの通知がある毎に実行される。
ステップS52において、発話生成部15は、入力された字幕文テキストに基づいて、発話文を生成する。
ステップS55において、発話生成部15は、発話文を音声合成部16に提供し、テレビのある第1方向に向けて発話させる。
ステップS58において、発話生成部15は、発話文を音声合成部16に提供し、ユーザのいる第2方向に向けて発話させる。
ステップS60において、発話生成部15は、ユーザからの音声入力に基づいて、対話文生成処理(図10)を実行する。
したがって、制御装置10は、ユーザと一緒にテレビを視聴するコミュニケーションロボットを構成できる。また、ロボットに対して発話することに対して抵抗感があるユーザは少なくないが、ユーザが発話をしなくても、ロボット1は、テレビ及びユーザを認識しつつ、番組の内容に応じて自発的に向きを変えて発話できるので、ユーザは、ロボット1を微笑ましく眺めることができる。
また、従来のコミュニケーションロボットは、多数のモータを搭載して複雑な動きを制御するのに対して、本実施形態のロボット1は単純な駆動操作であるため、安価に製作できる。
ユーザは、回転テーブルTに好みのぬいぐるみ等Uを乗せることで、好みの形状のコミュニケーションロボットとして利用できる。したがって、自分が好きな形状のぬいぐるみ等Uが、自分の方を向いて話し掛けてくれると共に、テレビに向かってつぶやくことで、ユーザは、あたかもぬいぐるみ等Uが自律してテレビを見て反応しているかのように感じ、その様子を微笑ましく眺めることができる。
本実施形態におけるテレビは、放送の受信機には限られず、PC等の画面に置き替えられてもよい。さらに、番組コンテンツは、放送又は通信のいずれで配信されてもよい。
あるいは、テレビ情報取得部14は、カメラCからテレビ画面の画像を取得し、画像解析により字幕又は被写体の情報を取得してもよい。
10 制御装置
11 テレビ位置検出部(第1方向検出部)
12 音源定位・分離部(第2方向検出部)
13 音声認識部
14 テレビ情報取得部(情報取得部)
15 発話生成部
16 音声合成部
17 モータ角度制御部(方向制御部)
18 テレビ制御部
C カメラ
L 赤外線発光器
M マイクロホンアレイ
N ネットワークインタフェース
P スピーカ
R 制御基板
S モータ
T 回転テーブル
U ぬいぐるみ等
V テレビ情報提供サーバ
Claims (7)
- ユーザがコミュニケーションの相手として選択した物体を載せるための回転テーブルと、
制御装置と、を備え、
前記制御装置は、
番組情報を取得する情報取得部と、
前記番組情報、及び発話用辞書に登録されているテンプレートに基づく発話文を生成する発話生成部と、
前記回転テーブルの回転角度を制御することにより、前記コミュニケーションの相手の向きを制御する方向制御部と、
前記発話文を音声に変換する音声合成部と、を備え、
前記発話生成部は、前記発話文の特徴により、当該発話文が人へ話し掛ける文であるか否かを判定し、判定結果に応じて前記方向制御部に対して、テレビが位置する第1方向、又はユーザが位置する第2方向のいずれかを指示するロボット。 - 前記制御装置は、カメラ画像に基づいて、前記第1方向を検出する第1方向検出部を備える請求項1に記載のロボット。
- 前記制御装置は、複数のマイクに入力された音声のうち、前記テレビの方向からの音声を除くことにより、前記第2方向を検出する第2方向検出部を備える請求項2に記載のロボット。
- 前記発話生成部は、前記番組情報としての字幕データのうち、出現頻度に基づく番組関連度の指標が所定以上の単語に基づいて、前記発話文を生成する請求項1から請求項3のいずれかに記載のロボット。
- 前記発話生成部は、前記番組情報に基づいて、前記発話用辞書を更新する請求項1から請求項4のいずれかに記載のロボット。
- 前記発話生成部は、前記テンプレートに予め付与されている区分に基づいて、前記発話文が人へ話し掛ける文であるか否かを判定する請求項1から請求項5のいずれかに記載のロボット。
- 前記発話生成部は、前記発話文の文末が特定の文字列であるか否かにより、前記発話文が人へ話し掛ける文であるか否かを判定する請求項1から請求項5のいずれかに記載のロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017084412A JP6889597B2 (ja) | 2017-04-21 | 2017-04-21 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017084412A JP6889597B2 (ja) | 2017-04-21 | 2017-04-21 | ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018180472A JP2018180472A (ja) | 2018-11-15 |
JP6889597B2 true JP6889597B2 (ja) | 2021-06-18 |
Family
ID=64276674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017084412A Active JP6889597B2 (ja) | 2017-04-21 | 2017-04-21 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6889597B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7051728B2 (ja) * | 2019-01-25 | 2022-04-11 | Necパーソナルコンピュータ株式会社 | 対話型ロボット及びその制御装置 |
JP7407560B2 (ja) * | 2019-10-30 | 2024-01-04 | 日本放送協会 | キーワード評価装置、キーワード評価方法及びキーワード評価プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07302351A (ja) * | 1994-05-09 | 1995-11-14 | Canon Inc | 画像・音声応答装置及び画像・音声応答方法 |
KR100454137B1 (ko) * | 2001-04-12 | 2004-10-26 | 조인형 | 인터넷을 기반으로 하는 모니터 탑형 시뮬레이션학습시스템 및 학습방법 |
JP2004056226A (ja) * | 2002-07-16 | 2004-02-19 | Sanyo Electric Co Ltd | ディジタル放送受信装置 |
JP2006042061A (ja) * | 2004-07-28 | 2006-02-09 | Toshiba Corp | 放送受信装置、番組情報音声出力プログラム |
JP2007160473A (ja) * | 2005-12-15 | 2007-06-28 | Fujitsu Ltd | ロボットにおける対話相手識別方法およびロボット |
JP4906552B2 (ja) * | 2007-03-20 | 2012-03-28 | 日本放送協会 | メタ情報付加装置及びメタ情報付加プログラム |
JP5595112B2 (ja) * | 2010-05-11 | 2014-09-24 | 本田技研工業株式会社 | ロボット |
JP6122792B2 (ja) * | 2014-02-06 | 2017-04-26 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
-
2017
- 2017-04-21 JP JP2017084412A patent/JP6889597B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018180472A (ja) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7234926B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
US7676372B1 (en) | Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech | |
US10276164B2 (en) | Multi-speaker speech recognition correction system | |
US10614203B2 (en) | Robot-human interactive device which performs control for authenticating a user, robot, interaction method, and recording medium storing program | |
US9251142B2 (en) | Mobile speech-to-speech interpretation system | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
JP6719739B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
CN112040263A (zh) | 视频处理方法、视频播放方法、装置、存储介质和设备 | |
JP6122792B2 (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
JP3670180B2 (ja) | 補聴器 | |
CN111541904A (zh) | 直播过程中的信息提示方法、装置、设备及存储介质 | |
JP4622384B2 (ja) | ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム | |
JP2020181022A (ja) | 会議支援装置、会議支援システム、および会議支援プログラム | |
JP6889597B2 (ja) | ロボット | |
US20210383722A1 (en) | Haptic and visual communication system for the hearing impaired | |
US11687317B2 (en) | Wearable computing device audio interface | |
US20200294421A1 (en) | Haptic and visual communication system for the hearing impaired | |
JP6696878B2 (ja) | 音声処理装置、ウェアラブル端末、携帯端末、および音声処理方法 | |
US20240119930A1 (en) | Artificial intelligence device and operating method thereof | |
JP2016009133A (ja) | 言語リハビリテーション支援装置及びその制御方法 | |
JP7352491B2 (ja) | ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法 | |
US20230386491A1 (en) | Artificial intelligence device | |
JP7015711B2 (ja) | 装置、ロボット、方法、及びプログラム | |
WO2023027998A1 (en) | Haptic and visual communication system for the hearing impaired | |
KR20230067501A (ko) | 음성 합성 장치 및 그의 음성 합성 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210521 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6889597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |