JP6604912B2 - 発話動作提示装置、方法およびプログラム - Google Patents

発話動作提示装置、方法およびプログラム Download PDF

Info

Publication number
JP6604912B2
JP6604912B2 JP2016124780A JP2016124780A JP6604912B2 JP 6604912 B2 JP6604912 B2 JP 6604912B2 JP 2016124780 A JP2016124780 A JP 2016124780A JP 2016124780 A JP2016124780 A JP 2016124780A JP 6604912 B2 JP6604912 B2 JP 6604912B2
Authority
JP
Japan
Prior art keywords
speech
voice
motion
movement
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016124780A
Other languages
English (en)
Other versions
JP2017226051A (ja
Inventor
正典 横山
崇由 望月
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016124780A priority Critical patent/JP6604912B2/ja
Publication of JP2017226051A publication Critical patent/JP2017226051A/ja
Application granted granted Critical
Publication of JP6604912B2 publication Critical patent/JP6604912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

この発明は、ロボットが発話動作をするための発話動作提示装置、方法およびプログラムに関する。
従来、ユーザとの会話を行うコミュニケーションロボットや遠隔地にいるユーザの代理を務めるテレプレゼンスロボットなどが研究開発されている。これらのロボットには、ロボット自身が発話しているような印象をユーザに与えるために、発話動作を行うものがある。ロボットの発話動作を表現する方法として、例えば物理的な動作(物理動作)を利用する方法(非特許文献1)と、LEDなどの発光部による動作(発光動作)を行う方法(非特許文献2)とがある。
物理動作は、例えばロボットの発話に合わせて口の開閉を行うものがある。この場合、ユーザは、ロボットが声を出すための動きをしているように感じる(即ち、発話動作をしている印象を持つ)ことはあるが、ロボットが実際に声に出しているように感じる(即ち、発話している印象を持つ)ことは少ない。これは、ロボットの口の動きと発話音声との一致(リップシンク)を取ることが難しく、対話しているユーザに対して不自然な印象を与えてしまうことに起因する。つまるところ、物理動作は、実際の人間の口の開閉の動きのような複雑な動作をする機構を作ることが難しく、またそれらの機構を駆動するモータの回転速度にも限界がある。
発光動作は、例えばロボットの発話に合わせて口の部分を発光させるものがある。この場合、ユーザは、発話動作をしている印象を持つことは少ない。これは、ロボットの口が実際に動かないため、発話動作をしている印象をユーザに与えることができないことに起因する。しかしながら、発光による明滅であれば高速に動作させることが可能であるため、リップシンクを取ることは容易である。尚、発光動作に類似するものとして、プロジェクションマッピングを利用する方法も考えられるが、小型化が難しいことや高価であることから利用するための障壁が高い。
以上のことから、物理動作および発光動作には、発話動作に関してそれぞれ一長一短な点があり、ユーザに対してロボットが発話動作をしている印象与え、且つ、ユーザに対してロボットが発話をしている印象を与えるような発話動作提示装置はまだ知られていない。
「遠隔操作アンドロイドへの身体感覚転移 ―遠隔操作アンドロイドのエージェンシー―」、西尾他、日本ロボット学会誌 Vol.31 No.9,pp.854−857,2013 「感性会話型ロボット「ifbot」の表情制御の感情空間へのマッピング」、加納他、情報処理学会第66回全国大会、2004
この発明は上記事情に着目してなされたもので、その目的とするところは、低価格かつ小型のデバイスであっても、ユーザに対してロボットが発話をしているような印象を与える発話動作を提示する発話動作提示装置、方法およびプログラムを提供することにある。
上記課題を解決するためにこの発明の第1の態様は、発話動作提示装置が、感情の強さを示す感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定する感情動作決定手段と、発話音声の音量に応じて、発話に関する動作の大きさを動作量として動作範囲内で決定する音声動作決定手段と、動作量に基づいて、発話における口以外の動作として物理動作を行う物理動作手段と、動作量に基づいて、口自体の動作および口以外の動作の少なくとも一方の動作として発光動作を行う発光動作手段と、発話音声を出力する音声出力手段とを備え、発話音声の出力と同期するように物理動作および発光動作を行えるようにしたものである。
この発明の第2の態様は、上記第1の態様において、発話音声の音量が所定の閾値未満である状態が一定時間継続した場合に、動作量を動作範囲内でランダムに決定するランダム動作決定手段をさらに備えるようにしたものである。
この発明の第3の態様は、上記第1の態様または上記第2の態様において、感情動作決定手段が、発話音声から感情情報を推定することをさらに含むようにしたものである。
この発明の第1の態様によれば、感情の強さを示す感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定し、発話音声の音量に応じて、発話に関する動作の大きさを動作量として上記動作範囲内で決定する。そして、発話音声と同期するように、動作量に基づいて、発話における口以外の動作として物理動作と、口自体の動作および口以外の動作の少なくとも一方の動作として発光動作とを行うようにしている。
従って、口自体の動作に物理動作を割り当てないことにより、リップシンクの不一致によるユーザの違和感が軽減されるため、ユーザに対してロボットが発話をしているような印象を与える発話動作を提示することができる。
この発明の第2の態様によれば、発話音声の音量が所定の閾値未満である状態が一定時間継続した場合に、動作量を動作範囲内でランダムに決定する。よって、ユーザに対して自然な動作でロボットが発話をしているような印象を与えることができる。
すなわちこの発明によれば、ユーザに対してロボットが発話をしている印象を与える発話動作を提示する発話動作提示装置、方法およびプログラムを提供することができる。
この発明の一実施形態に係る発話動作提示装置を例示する図。 図1の発話動作提示装置の動作を例示するフローチャート。 図1の感情動作決定部における、感情の強さと抑揚の幅との関係を例示する図。 図1の物理動作部の構成例を示す図。 図4Aの物理動作部の動作例などを示す図。 図1の物理動作部の構成例を示す図。 図5Aの物理動作部の動作例などを示す図。 図1の物理動作部の構成例を示す図。 図6Aの物理動作部の動作例などを示す図。 図1の発光動作部の構成例を示す図。 図7Aの発光動作部の動作例などを示す図。 図1の発話動作提示装置の別の実施例を示す図。 図1の発話動作提示装置の別の実施例を示す図。
以降では、発話動作は、発話のために必要な動作やユーザから見たときに発話に必要であると感じられる動作のことをいう。これらの動作は、例えば口自体の動作および発話の動作に付随する動作(発話における口以外の動作)の二つから構成されるものとする。具体的には、口自体の動作は、口或いは唇の開閉動作であり、口以外の動作は、発話することで動いてしまう(或いは動いていると感じられる)頭の上下動や頬の動き、顎の動き、首の動きなどである。尚、発話動作には、会話に対して頷く、首を横に振る、天を仰ぐ、恐怖や寒さによって肩をふるわせる、手を振るなどのジェスチャは含まないものとする。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
図1に例示されるように、この発明の一実施形態に係る発話動作提示装置100は、音声入力部110と、通信部120と、発話動作決定部130と、発話動作部140とを備える。発話動作決定部130は、感情動作決定部131と、音声動作決定部132と、ランダム動作決定部133とを含む。発話動作部140は、物理動作部141と、発光動作部142と、音声出力部143とを含む。
発話動作提示装置100は、例えばコミュニケーションロボットやテレプレゼンスロボットに相当する。発話動作提示装置100の動作の概要は、話者の音声を入力し、図示されない処理装置によって処理された、入力音声に対応する発話音声を、当該話者に対して発話動作とともに提示することである。尚、発話動作提示装置100は、図示されない処理装置をさらに備えてもよく、この場合は、通信部120と置き換えられてもよい。
音声入力部110は、話者の音声を入力音声信号としてデジタル音声信号の形式で入力する。音声入力部110として、マイクロフォンなどの既存の音声入力デバイスが用いられてもよい。音声入力部110は、入力音声信号を通信部120へと出力する。
通信部120は、音声入力部110から入力音声信号を受け取る。通信部120として、無線LAN(Local Area Network)、Wi−Fi(商標登録)、Bluetooth(登録商標)、および赤外線通信などを利用した無線通信デバイスが用いられてもよいし、USB通信およびシリアル通信などを利用した有線通信デバイスが用いられてもよい。通信部120は、入力音声信号を図示しない処理装置へと出力する。また、通信部120は、図示しない処理装置から後述される発話音声信号と感情情報とを受け取り、発話動作決定部130へと出力する。
上記処理装置は、スマートフォンやパーソナルコンピュータなどに相当する。処理装置は、例えば通信部120から受け取った入力音声への受け答えとして、当該処理装置を操作するユーザが回答した発話音声である発話音声信号を生成する処理を行う。また、処理装置は、当該発話音声の感情の強さを示す感情情報を生成する処理を行う。処理装置は、発話音声信号と感情情報とを通信部120へと出力する。尚、上記感情情報は、上記ユーザが指定することによって生成されてもよい。
感情動作決定部131は、発話動作決定部130が受け取った感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定する。具体的には、感情動作決定部131は、図3に例示されるように、感情の強さが弱い場合は抑揚の幅を小さく(即ち、動作範囲を狭く)し、感情の強さが強い場合は抑揚の幅を大きく(即ち、動作範囲を広く)するように動作範囲を決定してもよい。動作範囲は、例えば後述する物理動作部141における可動域や、後述する発光動作部142における発光強度などに関連付けられる。感情動作決定部131は、決定した動作範囲の情報を音声動作決定部132およびランダム動作決定部133へと出力する。
また、感情動作決定部131は、発話動作決定部130が感情情報を受け取らなかった場合に、発話動作決定部130が受け取った発話音声信号から感情情報を推定してもよい。尚、音声信号から感情を推定する技術は、Beyond Verbal(http://www.beyondverbal.com)などを用いてもよい。
音声動作決定部132は、感情動作決定部131から動作範囲の情報を受け取る。音声動作決定部132は、発話動作決定部130が受け取った発話音声信号の音量に応じて、発話に関する動作の大きさを動作量として動作範囲内で決定する。例えば、音声動作決定部132は、音量に対する閾値を設けることによって、段階的に動作量を決定してもよいし、出力される音量の最大値および最小値を設定し、連続的に動作量を決定してもよい。音声動作決定部132は、発話音声の音量に対応する動作量の情報を物理動作部141および発光動作部142へと出力する。尚、音声動作決定部132は、後述するランダム動作決定部133から受け取ったランダムに決定した動作量を反映させて、発話音声に対応する動作量の情報として物理動作部141および発光動作部142へと出力してもよい。
ランダム動作決定部133は、感情動作決定部131から動作範囲の情報を受け取る。ランダム動作決定部133は、発話動作決定部130が受け取った発話音声信号の音量が所定の閾値未満である状態が一定時間継続した場合に、発話音声の音量に対応する動作量を動作範囲内でランダムに決定する。ランダム動作決定部133は、ランダムに決定した動作量の情報を音声動作決定部132へと出力する。
また、ランダム動作決定部133は、動作範囲の情報に応じて所定の閾値を変化させてもよい。例えば、動作範囲が広い(即ち、感情が強い)場合、ランダム動作決定部133は、発話音声の音量も大きいものと仮定して所定の閾値を大きくする。そうすることで、発話音声の音量が大きいにもかかわらず抑揚がない場合に、音量が所定の閾値を下回るようになるため、ランダム動作を取り入れることができる。一方、動作範囲が狭い(即ち、感情が弱い)場合、ランダム動作決定部133は、発話音声の音量も小さいものと仮定して、所定の閾値を小さくする。そうすることで、発話音声の音量が小さいにもかかわらず抑揚がある場合に、音量が所定の閾値を上回るようになるため、ランダム動作を取り入れる必要がなくなる。
物理動作部141は、音声動作決定部132から動作量の情報を受け取る。物理動作部141は、動作量に基づいて、発話における口以外の動作として物理動作を行う。物理動作部141は、頭部、頬、および首の伸縮、首、頭部の曲げ伸ばし、および、頭部、頬の可動などの発話の動作に付随する動作を行う。物理動作の具体例は後述される。
発光動作部142は、音声動作決定部132から動作量の情報を受け取る。発光動作部142は、動作量に基づいて、口自体の動作および口以外の動作の少なくとも一方の動作として発光動作を行う。発光動作部142は、目、頬および顔全体の発光などの発話の動作に付随する動作、並びに、口の発光などの口自体の動作の少なくとも一方を行う。発光動作の具体例は後述される。
音声出力部143は、発話動作決定部130から発話音声信号を受け取る。音声出力部として、スピーカなどの既存の音声出力デバイスが用いられてもよい。音声出力部143は、発話音声信号を出力する。このとき、発話動作部140は、音声出力部143の発話音声の出力と同期するように物理動作部141の物理動作および発光動作部142の発光動作を行う。
(動作)
次に、以上のように構成された発話動作提示装置100の動作を説明する。図2は、例えば発話動作提示装置100が備える制御部(図示せず)の指示による処理手順と処理内容を示すフローチャートである。図2の動作は、通信部120が入力音声信号を図示しない処理装置へと出力し、当該入力音声への受け答えとしての発話音声を通信部120が入力待ちしている状態から開始する。
ステップS201では、通信部120は、図示しない処理装置から感情情報を受信したか否かを判定する。感情情報を受信した場合は、処理はステップS202へと進み、そうでなければ処理はステップS203へと進む。
ステップS202において、感情動作決定部131は、感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定する。
ステップS203において、通信部120は、発話音声を受信する。
ステップS204では、ランダム動作決定部133は、ある時点の発話音声の音量が所定の閾値を越えたか否かを判定する。所定の閾値を越えた場合は、処理はステップS205へと進み、そうでなければ処理はステップS206へと進む。
ステップS205において、音声動作決定部132は、発話音声の音量に応じて、発話に関する動作の大きさを動作量として動作範囲内で決定する。ステップS205の後に処理はステップS209へと進む。
ステップS206では、ランダム動作決定部133は、ステップS203における発話音声の受信から一定時間経過したか否かを判定する。一定時間経過した場合は、処理はステップS207へと進み、そうでなければ処理はステップS205へと進む。
ステップS207において、ランダム動作決定部133は、発話音声の音量に対応する動作量を動作範囲内でランダムに決定する。
ステップS208において、ランダム動作決定部133は、ステップS206などで用いた時間経過を示すタイマをリセットする。
ステップS209において、音声動作決定部132は、動作量に応じた可動量を物理動作部141へと指示し、動作量に応じた発光強度を発光動作部142へと指示する。
ステップS210において、発話動作決定部130は、発話音声を音声出力部143へと出力する。このとき、発話動作部140は、音声出力部143の発話音声の出力と同期するように、ステップS209における指示に従った各部の動作を行う。
(物理動作部の実施例)
図4Aにおいて、物理動作部141の構成例が示される。図4Aの構成例では、物理動作部141は、筐体410と、土台420と、モータ430と、ワイヤ431とを備える。物理動作部141は、図示されない制御部によってモータ430を制御し、動作量に基づいて、発話における口以外の動作として物理動作を行う。尚、図4A(a),(b),(c)は、それぞれ上面、正面、側面から見た断面図を示す。
筐体410は、人の頭部を模した形状である。筐体410は、例えばシリコンやゴムなどの柔軟性のある素材で構成される。筐体410は、内部に土台420と、モータ430と、ワイヤ431とが収納される。
土台420は、筐体410の内部に配置され、土台420の任意の位置にモータ430が配置される。
モータ430は、土台420に固定され、モータ430の回転軸にワイヤ431の一端が取り付けられている。モータ430は、回転軸を回転させることによって、回転軸に取り付けられたワイヤ431を巻き取ることができる。
ワイヤ431は、一端がモータ430の回転軸に取り付けられ、他端が筐体410の内部の任意の位置に取り付けられる。ワイヤ431は、モータ430の回転軸が回転することによって、モータ430の回転軸に巻き取られる。ワイヤ431は、モータ430の回転軸に巻き取られることによって、筐体410に取り付けられた部分を引っ張り、筐体410を変形させることができる。
図4Bにおいて、図4Aの構成例などを用いた動作例が示される。図4B(a)は、頭部の伸縮動作を例示している。この例では、ワイヤが筐体内部の天頂に取り付けられている。そのため、筐体は、ワイヤで引っ張られることによって、頭部が縮むような表現を行うことができる。
図4B(b)は、頬の伸縮動作を例示している。この例では、ワイヤが筐体の内部の下部2点にそれぞれ取り付けられている。そのため、筐体は、ワイヤで引っ張られることによって、頬の部分がへこむような表現を行うことができる。
図4B(c)は、首の伸縮動作を例示している。この例では、土台が頭部筐体の内部ではなく、胸部筐体の内部に配置され、ワイヤが頭部筐体の天頂に取り付けられている。そのため、筐体は、ワイヤで引っ張られることによって、首が縮むような表現を行うことができる。
図5Aにおいて、物理動作部141の別の構成例が示される。図5Aの構成例では、物理動作部141は、上部筐体510と、下部筐体511と、土台520と、モータ530と、軸531と、固定板532とを備える。物理動作部141は、図示されない制御部によってモータ530を制御し、動作量に基づいて、発話における口以外の動作として物理動作を行う。尚、図5A(a),(b),(c),(d)は、それぞれ上面、正面、側面、動作中の側面から見た断面図を示す。
上部筐体510および下部筐体511は、それぞれ人の頭部および胸部を模した形状である。上部筐体510および下部筐体511は、例えばシリコンやゴムなどの柔軟性のある素材で構成される。上部筐体510および下部筐体511は、内部に土台520と、モータ530と、軸531と、固定板532とが収納される。
土台520は、下部筐体511の内部に配置され、土台520の任意の位置にモータ530が配置される。
モータ530は、土台520に固定され、モータ530の回転軸に軸531の一端が取り付けられている。モータ530は、回転軸を回転させることによって、回転軸に取り付けられた軸531を傾けることができる。
軸531は、一端がモータ530の回転軸に取り付けられ、他端が固定板532の任意の位置に取り付けられる。軸531は、モータ530の回転軸が回転することによって、回転方向に傾けられる。軸531は、モータ530の回転軸の回転方向に傾けられることによって、他端に取り付けられた固定板532を傾けることができる。
固定板532は、任意の位置に軸531の他端が取り付けられる。固定板532は、軸531が傾くことによって、軸531と同じように傾けられる。固定板532は、軸531によって傾けられることによって、図5A(d)のように上部筐体510を変形させることができる
図5Bにおいて、図5Aの構成例などを用いた動作例が示される。図5B(a)は、首の曲げ伸ばし動作を例示している。この例は、図5Aと同様の構成であり、筐体は、軸が傾けられることによって、首を曲げるような表現を行うことができる。
図5B(b)は、頭部の曲げ伸ばし動作を例示している。この例では、土台が上部筐体の内部に配置されている。そのため、筐体は、軸が傾けられることによって、頭部が曲がるような表現を行うことができる。
図6Aにおいて、物理動作部141の別の構成例が示される。図6Aの構成例では、物理動作部141は、頭部筐体610と、顔部筐体611と、土台620と、モータ630と、第1のギア631と、第2のギア632と、ねじ633とを備える。物理動作部141は、図示されない制御部によってモータ630を制御し、動作量に基づいて、発話における口以外の動作として物理動作を行う。尚、図6A(a),(b),(c)は、それぞれ上面、正面、側面から見た断面図を示す。
頭部筐体610および顔部筐体611は、それぞれ人の頭部および顔部を模した形状である。頭部筐体610および顔部筐体611は、例えばプラスチックや金属などの硬質な素材で構成される。頭部筐体610および顔部筐体611は、内部に土台620と、モータ630と、第1のギア631と、第2のギア632と、ねじ633とが収納される。
土台620は、顔部筐体611に固定され、頭部筐体610の内部に隠れるように配置される。また、土台620の任意の位置には、モータ630が配置される。
モータ630は、土台620に固定され、モータ630の回転軸に第1のギア631が取り付けられている。第1のギア631は、モータ630の回転軸と同方向に回転することによって、第2のギア632に回転力を伝える。第2のギア632は、第1のギア631とかみ合うように配置され、第1のギア631が回転することによって、モータ630の回転軸の回転方向から任意に傾けられた回転方向に回転が可能である。モータ630は、回転軸を回転させることによって、第2のギア632の中心軸に設けられた溝にかみ合うように取り付けられたねじ633を締めたり緩めたりすることができる。
ねじ633は、第2のギア632の中心軸に設けられた溝とかみ合うように溝が切られ、一端が頭部筐体610の内部の任意の位置に取り付けられる。ねじ633は、モータ630の回転軸が回転することによって、回転軸に取り付けられた第1のギア631の力を受けた第2のギア632が回転し、第2のギア632の中心軸とのかみ合う位置が移動させられる。ねじ633は、第2のギア632の中心軸とのかみ合う位置が移動させられることによって、ねじ633の一端に取り付けられた頭部筐体610を動かすことができる。
図6Bにおいて、図6Aの構成例などを用いた動作例が示される。図6B(a)は、頭部の可動を例示している。この例は、図6Aと同様の構成であり、ねじが緩められることによって頭部が顔部から離れ、ねじが締められることによって頭部が顔部へ近づくような、頭部の可動を表現することができる。
図6B(b)は、頬の可動を例示している。この例では、ねじの一端が頬の部分に取り付けられている。そのため、ねじが緩められることによって頬が顔部から離れ、ねじが締められることによって頬が顔部へ近づくような、頬の可動を表現することができる。
尚、ねじの締める方向と、ねじが取り付けられた筐体が移動する方向は上記の例に限らず、異なっていてもよい。
(発光動作部の実施例)
図7Aにおいて、発光動作部142の構成例が示される。図7Aの構成例では、発光動作部142は、筐体710と、土台720と、LED730とを備える。発光動作部142は、図示されない制御部によってLED730を制御し、動作量に基づいて、口自体の動作および口以外の動作の少なくとも一方の動作として発光動作を行う。尚、図7A(a),(b),(c)は、それぞれ上面、正面、側面から見た断面図を示す。
筐体710は、人の頭部を模した形状である。筐体710は、例えば光を透過する素材(例えば、薄いプラスチック、シリコン、およびゴム)で構成される。筐体710は、内部に土台720と、LED730とが収納される。
土台720は、筐体710の内部に配置され、土台720の任意の位置にLED730が配置される。
LED730は、土台720に固定され、筐体710の所望の部位を発光させるようにLED730の発光部が任意の方向に向けられている。
図7Bにおいて、図7Aの構成例などを用いた動作例が示される。図7Bでは、音量に合わせて変化させる明るさの度合い(発光強度)として「消灯」、「暗」、「中」、「明」の4段階で示しているが、明るさの段階はこれに限らない。
図7B(a)は、目の発光動作を例示している。この例では、LEDの発光部がロボットの目の位置に取り付けられている。図7B(b)は、頬の発光動作を例示している。この例では、LEDの発光部がロボットの頬の位置に取り付けられている。図7B(c)は、顔全体の発光動作を例示している。この例では、LEDの発光部がロボットの顔全体を照らす位置に取り付けられている。図7B(d)は、口の発光動作を例示している。この例では、LEDの発光部がロボットの口の位置に取り付けられている。尚、発光動作はLEDに限らず、筐体の内部に備えたプロジェクタで筐体の内壁に光を投光してもよく、液晶ディスプレイなどを筐体表面に埋め込むことによって光の明滅を行ってもよい。
(実施形態の効果)
以上詳述したように一実施形態では、感情の強さを示す感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定し、発話音声の音量に応じて、発話に関する動作の大きさを動作量として上記動作範囲内で決定する。そして、発話音声と同期するように、動作量に基づいて、発話における口以外の動作として物理動作と、口自体の動作および口以外の動作の少なくとも一方の動作として発光動作とを行うようにしている。
従って、口自体の動作に物理動作を割り当てないことにより、リップシンクの不一致によるユーザの違和感が軽減され、且つ、口以外の動作に物理動作を割り当てることにより、発話動作をしている印象を与えられる。そのため、ユーザに対してロボットが発話をしているような印象を与える発話動作を提示することができる。
また、発話音声の抑揚が小さい場合でも、動作量を動作範囲内でランダムに決定することにより、ユーザに対して自然な動作でロボットが発話をしているような印象を与えることができる。
[他の実施形態]
前記一実施形態では、発話動作提示装置が受け取った入力音声信号に対して、処理装置を操作するユーザが回答することによって発話音声信号の生成処理を行ったが、当該生成処理を、ユーザを介さずに行ってもよい。
図8では、コミュニケーションロボットとして発話動作提示装置が用いられる。図8に例示されるように、処理装置800は、発話動作提示装置100から受け取った入力音声信号に対して音声認識処理を行うことによって音声認識結果を生成する。処理装置800は、音声認識結果を雑談対話API810へと出力する。
雑談対話API810は、処理装置800から音声認識結果を受け取る。雑談対話API810は、音声認識結果(入力音声)に対して自然な会話となるような応答文をテキスト形式で生成する。雑談対話API810は、応答文を、処理装置800を介して音声合成API820へと出力する。
音声合成API820は、処理装置800を介して雑談対話API810から応答文を受け取る。音声合成API820は、テキスト形式の応答文に対して自然な読み上げとなるような発話音声を生成する。音声合成API820は、発話音声を処理装置800へと出力する。
別の実施例が図9に示される。図9では、テレプレゼンスロボットとして発話動作提示装置が用いられる。例えば、第1の話者と第2の話者とでそれぞれテレプレゼンスロボットを介して対話をする場合、第1の話者が発話動作提示装置100aに話しかけることによって、処理装置800aおよび処理装置800bを介して、発話動作提示装置100bが当該第1の話者の発話を模擬し(或いは変声して)、発話動作と共に第2の話者へ伝える。また、第2の話者が発話動作提示装置100bに話しかけることによって、処理装置800bおよび処理装置800aを介して、発話動作提示装置100aが第2の話者の発話を模擬し(或いは変声して)、発話動作と共に第1の話者へ伝える。
以上のように発話動作提示装置は、様々なシーンで用いることが可能であり、装置の構成や認識処理手順と処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
100,100a,100b…発話動作提示装置、110…音声入力部、120…通信部、130…発話動作決定部、131…感情動作決定部、132…音声動作決定部、133…ランダム動作決定部、140…発話動作部、141…物理動作部、142…発光動作部、143…音声出力部、410,710…筐体、420,520,620,720…土台、430,530,630…モータ、431…ワイヤ、510…上部筐体、511…下部筐体、531…軸、532…固定板、610…頭部筐体、621…顔部筐体、631…第1のギア、632…第2のギア、633…ねじ、730…LED、800,800a,800b…処理装置、810…雑談対話API、820…音声合成API。

Claims (5)

  1. 感情の強さを示す感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定する感情動作決定手段と、
    前記発話音声の音量に応じて、発話に関する動作の大きさを動作量として前記動作範囲内で決定する音声動作決定手段と、
    前記動作量に基づいて、発話における口以外の動作として物理動作を行う物理動作手段と、
    前記動作量に基づいて、口自体の動作および前記口以外の動作の少なくとも一方の動作として発光動作を行う発光動作手段と、
    前記発話音声の音量が所定の閾値未満である状態が一定時間継続した場合に、前記動作量を前記動作範囲内でランダムに決定するランダム動作決定手段と、
    前記発話音声を出力する音声出力手段と
    を具備し、
    前記発話音声の出力と同期するように前記物理動作および前記発光動作を行う発話動作提示装置。
  2. 前記感情動作決定手段は、前記発話音声から前記感情情報を推定することをさらに含む、請求項1に記載の発話動作提示装置。
  3. 感情の強さを示す感情情報に応じて、発話音声の音量に関する抑揚の幅を動作範囲として決定する過程と、
    前記発話音声の音量に応じて、発話に関する動作の大きさを動作量として前記動作範囲内で決定する過程と、
    前記動作量に基づいて、発話における口以外の動作として物理動作を行う過程と、
    前記動作量に基づいて、口自体の動作および前記口以外の動作の少なくとも一方の動作として発光動作を行う過程と、
    前記発話音声の音量が所定の閾値未満である状態が一定時間継続した場合に、前記動作量をランダムに決定する過程と、
    前記発話音声を出力する過程と、
    前記発話音声の出力と同期するように前記物理動作および前記発光動作を行う過程と
    を具備する、発話動作提示方法。
  4. 前記動作範囲を決定する過程は、前記発話音声から前記感情情報を推定することをさらに含む、請求項に記載の発話動作提示方法。
  5. コンピュータを、請求項1または請求項2に記載の発話動作提示装置の前記各手段として実行させるためのプログラム。
JP2016124780A 2016-06-23 2016-06-23 発話動作提示装置、方法およびプログラム Active JP6604912B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016124780A JP6604912B2 (ja) 2016-06-23 2016-06-23 発話動作提示装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124780A JP6604912B2 (ja) 2016-06-23 2016-06-23 発話動作提示装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017226051A JP2017226051A (ja) 2017-12-28
JP6604912B2 true JP6604912B2 (ja) 2019-11-13

Family

ID=60890761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124780A Active JP6604912B2 (ja) 2016-06-23 2016-06-23 発話動作提示装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6604912B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712644A (zh) * 2018-12-29 2019-05-03 深圳市慧声信息科技有限公司 基于语音识别情绪变化控制led显示效果的方法、用于控制led显示效果的装置及系统
CN111300443B (zh) * 2020-02-29 2020-11-13 重庆百事得大牛机器人有限公司 基于法律咨询机器人的情绪安抚方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000218065A (ja) * 1999-01-28 2000-08-08 Sony Corp 情報処理装置及び情報処理方法
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
FR2991222B1 (fr) * 2012-06-01 2015-02-27 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel

Also Published As

Publication number Publication date
JP2017226051A (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
KR102400398B1 (ko) 애니메이션 캐릭터 헤드 시스템 및 방법
JP2024040159A (ja) ロボット及び音声生成プログラム
JP2007069302A (ja) 動作表出装置
WO2021232876A1 (zh) 实时驱动虚拟人的方法、装置、电子设备及介质
JP6604912B2 (ja) 発話動作提示装置、方法およびプログラム
WO2018128014A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014035541A (ja) コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP2022169645A (ja) 装置及びプログラム等
JP2020181022A (ja) 会議支援装置、会議支援システム、および会議支援プログラム
WO2021232877A1 (zh) 实时驱动虚拟人的方法、装置、电子设备及介质
WO2020116356A1 (ja) ロボット、音声合成プログラム、及び音声出力方法
JP7204984B1 (ja) プログラム、方法、情報処理装置
JP6889597B2 (ja) ロボット
JP7143579B2 (ja) 音声入力装置
JP2008026485A (ja) 遠隔操作アンドロイドの発話動作制御システム
US20200279550A1 (en) Voice conversion device, voice conversion system, and computer program product
JP2005246564A (ja) ロボット装置
CA3044108C (en) Animated character head systems and methods
Diels Art and the Uncanny: Tapping the Potential
JP2007129626A (ja) 遠隔地間対話システム
Huckvale et al. KLAIR: a virtual infant for spoken language acquisition research
Chaloupka et al. Czech Artificial Computerized Talking Head George
CN117173295A (zh) 一种基于交互平台实现数字人与用户的交互方法
JP2022067685A (ja) 対話型コミュニケーション装置、コミュニケーションシステム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191015

R150 Certificate of patent or registration of utility model

Ref document number: 6604912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150