JP2015150620A - ロボット制御システムおよびロボット制御プログラム - Google Patents

ロボット制御システムおよびロボット制御プログラム Download PDF

Info

Publication number
JP2015150620A
JP2015150620A JP2014023373A JP2014023373A JP2015150620A JP 2015150620 A JP2015150620 A JP 2015150620A JP 2014023373 A JP2014023373 A JP 2014023373A JP 2014023373 A JP2014023373 A JP 2014023373A JP 2015150620 A JP2015150620 A JP 2015150620A
Authority
JP
Japan
Prior art keywords
robot
unit
speech recognition
reliability
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014023373A
Other languages
English (en)
Inventor
仁 土川
Hitoshi Tsuchikawa
仁 土川
一穂 有田
Kazuo Arita
一穂 有田
岡本 学
Manabu Okamoto
学 岡本
吾郎 井前
Goro Imae
吾郎 井前
啓之 佐藤
Hiroyuki Sato
啓之 佐藤
茂木 学
Manabu Mogi
学 茂木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014023373A priority Critical patent/JP2015150620A/ja
Publication of JP2015150620A publication Critical patent/JP2015150620A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】音声認識の状態をユーザに伝達することで、音声認識を誤った場合におけるユーザの心証の悪化を和らげることができるロボット制御システムおよびロボット制御プログラムを提供する。
【解決手段】本発明のロボット制御システム1は、音声が入力される音声入力部100と、音声入力部100に入力された音声を認識するとともに音声認識の信頼度を算出する音声認識部200と、音声認識部200により算出された音声認識の信頼度に応じて相違するロボットモーションを作成するロボットモーション作成部300と、ロボットモーション作成部300により作成されたロボットモーションに応じてロボットを駆動するロボット駆動部410とを有し、本発明のロボット制御プログラムは、ロボット制御システム1における音声認識ステップ、ロボットモーション作成ステップをコンピュータに実行させる。
【選択図】図1

Description

本発明は、例えばヒューマノイドロボットやバーチャルロボットなどのロボットの作動制御に用いられるロボット制御システムおよびロボット制御プログラムに関し、特に、音声対話システムと共に使用されるものに関する。
近年、音声認識技術の向上に伴い、音声認識技術を用いた様々な商品やサービスが提供されてきている。例えばスマートフォン(多機能携帯電話)の普及に伴い、NTTドコモ社の「しゃべってコンシェル(登録商標)」やアップル社の「Siri(登録商標)」などに代表されるような音声対話システムを利用した検索サービスが広く利用されるようになってきている(非特許文献1参照)。
一方、ロボット分野では、ヒューマノイドロボット(人型ロボット)に人間らしい振る舞いをさせる研究が数多くなされている(非特許文献2参照)。また、国内では、小型のヒューマノイドロボットを用いた競技会がいくつも開催されるなど、その存在は身近になってきており、さらに、数多くのロボットの市販品が発売されるなど、こちらも一般社会への浸透が急速に進んでいる。
河原達也、「話し言葉による音声対話システム」、情報処理学会誌、2004年10月、Vol.45、NO.10、p.1027−1031 梶田秀司、「ヒューマノイドはただの機械ですが?」、日本ロボット学会誌、2013年11月、Vol.31、NO.9、p.830−832
入力された音声を認識し、認識した音声に対して応答を行う従来の音声対話システムでは、例えば、音声認識の結果を一度画面に表示し、その上で、検索結果等の応答内容を画面に表示するインターフェースがとられている。
しかしながら、現在の技術では、音声認識によって音声を100%正確に認識することはできず、音声認識結果に誤りが含まれることがあるので、音声認識の信頼度が低い場合には、思いもよらない音声認識結果が画面に表示されて、ユーザを驚かせ、またはいらいらさせて、その心証を悪化させることがあった。
本発明は、このような課題に鑑みてなされたものであり、その目的は、音声を認識する際に、その音声認識の状態(信頼度の高い音声認識ができているか、または信頼度の低い音声認識しかできていないのか)をユーザに伝達して、音声認識を誤った場合におけるユーザの心証の悪化を和らげることができるロボット制御システムおよびロボット制御プログラムを提供することにある。
本発明のロボット制御システムは、ユーザの音声が入力される音声入力部と、前記音声入力部に入力された音声を音声認識するとともに該音声認識の信頼度を算出する音声認識部と、前記音声認識部により算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成部と、前記ロボットモーション作成部により作成されたロボットモーションに応じてロボットを駆動するロボット駆動部と、を有することを特徴とする。
本発明のロボット制御プログラムは、入力された音声を音声認識するとともに該音声認識の信頼度を算出する音声認識ステップと、前記音声認識ステップにより算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成ステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、人と人との会話において、相手の表情や仕草等を見て話がうまく伝わっているか否かを判断し、上手く伝わっていないと判断した場合には言い直したり言い方を変えたりするのと同様に、ユーザ等の問いかけに応答する際に、人や動物のような身体性を持ったロボットや端末等の画像内で人や動物のように振舞うバーチャルロボット(エージェント)に、音声認識の信頼度に応じて相違する動作をさせることで、音声認識の状態をユーザにそれとなく伝えて、音声認識の誤りにより誤った応答が行なわれた場合におけるユーザの心証の悪化を和らげることができる。
本発明の一実施の形態であるロボット制御システムの構成を概略で示すブロック図である。 図1に示すロボット制御システムの処理手順を示すフローチャート図である。 図1に示すロボット制御システムの変形例の構成を概略で示すブロック図である。 図3に示すロボット制御システムの処理手順を示すフローチャート図である。
以下、本発明の一実施の形態であるロボット制御システム1について、図面を参照しつつ詳細に例示説明する。
図1に示すように、ロボット制御システム1は、音声入力部100、音声認識部200、ロボットモーション作成部300およびロボット部400を備える。
音声入力部100は、例えばマイクで構成される。このロボット制御システム1に対して発せられたユーザ等の音声はこの音声入力部100からロボット制御システム1に入力される。音声入力部100は、入力された音声を音声データとして取得し、取得した音声データを音声認識部200に送る。
音声認識部200は、音声入力部100から入力された音声データに対して音声認識を行う。つまり、音声認識部200は、音声入力部100から入力された音声データを解析し、その音声の内容を文字データとして取り出すことができる。
音声認識部200が行う音声認識の手法としては、例えば、入力された音声データに対して音響処理を行った後、認識すべき語彙、単語間の接続のしやすさ、規則を表す言語モデルなどの言語的制約を考慮して音声認識を行う方法など、任意の手法を用いることができる。
音声認識部200は、その音声認識の結果つまり文字データを処理部500に送る。
処理部500は、音声認識部200から音声認識の結果が入力されると、その音声認識の結果に応じた応答処理を行う。例えば、処理部500は、音声認識部200から音声認識の結果が入力されると、その入力された音声認識の結果に対する回答を作成し、スピーカーに対して当該回答を音声として発する指令を送るなどの、種々の応答処理を行う。
音声認識部200は、上記した音声認識に加えて、当該音声認識を行う際の音声認識の信頼度を算出する。
音声認識部200により行われる音声認識の信頼度の算出手法としては、例えば、上記音声認識において単語系列を得る段階、もしくは、音声認識において得られた単語を含む連続した単語の系列の各単語に対して、言語的制約を用いて、(意味があると思われる)文として認識されるかの言語的妥当性の評価を行うことで信頼度を出力する手法など、任意の手法を用いることができる。このような音声認識の信頼度を算出する具体的手法としては、例えば、特開2005−275348号公報に記載の方法を用いることができる。本実施の形態では、音声認識の信頼度は、信頼度の算出の際に算出される各評価のスコア等に基づき、信頼度が高いほど大きい数値データとして算出される。
音声認識部200は、算出した音声認識の信頼度210をロボットモーション作成部300に送る。
ロボットモーション作成部300は、音声認識部200から音声認識の信頼度210が入力されるとロボットモーションを作成する。このとき、ロボットモーション作成部300は、音声認識の信頼度210に応じて異なるロボットモーションを作成する。ロボットモーション作成部300は、作成したロボットモーションをロボットのモーションデータ310としてロボット部400に送る。
より具体的には、ロボットモーション作成部300は、音声認識部200から入力された音声認識の信頼度210が予め実験等に基づいて設定された所定の閾値よりも低いときには、例えば、首をかしげる動作、相手の発話をより注意深く聞くように耳をそばだてる動作、うつむいた姿勢となる動作といった、人が相手の話を聞き取れなかった時に行うような、自信なく話を聞いている動作や相手の発話をより傾聴するような動作をロボットに行わせるロボットモーションを作成し、モーションデータ310をロボット部400に送るように構成することができる。なお、このロボットモーションは、上記した首をかしげる動作、発話者の話をより注意深く聞くように耳をそばだてる動作、うつむいた姿勢となる動作の少なくとも何れか1つを含んだものでもよく、または上記各動作を任意に組み合わせたものとすることもできる。
また、ロボットモーション作成部300は、音声認識部200から入力された音声認識の信頼度210が予め実験等に基づいて設定された所定の閾値よりも高い場合には、例えば、ユーザの方に真っ直ぐ向く動作、顔を所定の角度だけ上に向ける動作、胸を張る動作、といった自信を持って話を聞いている動作をロボットに行わせるロボットモーションを作成し、そのモーションデータ310をロボット部400に送るように構成することができる。なお、このロボットモーションは、上記したユーザの方に真っ直ぐ向く動作、顔を所定の角度だけ上に向ける動作、胸を張る動作の少なくとも何れか1つを含んだものでもよく、または上記各動作を任意に組み合わせたものとすることもできる。
ロボット部400は、例えば頭部、胴部、腕部等を備えるとともに、これら各部を駆動するロボット駆動部としてのアクチュエータ410を備えたヒューマノイドロボット(人型ロボット)として構成される。アクチュエータ410は、ロボットモーション作成部300からロボット部400に入力されたロボットのモーションデータ310つまりロボットモーションに従ってロボット部400を作動させるように構成される。つまり、ロボットモーション作成部300からロボットのモーションデータ310がロボット部400に入力されると、ロボット部400は、アクチュエータ410により駆動されてモーションデータ310に従ったロボットモーションで動作をする。このような構成により、音声認識部200による音声認識の信頼度210が所定の閾値よりも低いときには、ロボット部400に、人が相手の話を聞き取れなかった時に行うような自信なく話を聞いているような動作をさせ、音声認識部200による音声認識の信頼度210が所定の閾値よりも高いときには、ロボット部400に自信を持って話を聞いているような動作をさせることができる。
ロボットモーション作成部300からロボット部400に送られるロボットのモーションデータ310は、音声認識部200から音声認識の信頼度210が入力される度にロボットモーション作成部300において新たに作成されるものとすることができる。また、ロボットモーション作成部300からロボット部400に送られるロボットのモーションデータ310は、音声認識部200から音声認識の信頼度210が入力されたときに、予め設定されている複数の既存のロボットモーションの中からその信頼度210に適合したものとして選択されるものとし、またはこの選択したロボットモーションに状況に合わせて修正を加えたものとすることもできる。
図2は、図1に示すロボット制御システムの処理手順を示すフローチャート図である。次に、本発明の一実施の形態であるロボット制御システム1の処理手順について、図2に示すフローチャート図に基づいて説明する。
まず、このロボット制御システム1に対してユーザが発した音声が音声入力部100に入力されると(入力ステップS1)、音声認識部200が音声入力部100に入力された音声を音声認識する音声認識ステップS2が行われる。この音声認識ステップS2においては、例えば音響処理ステップS2−1、単語系列の取得ステップS2−2および文の認識ステップS2−3が行われる。
また、この音声認識ステップS2においては、単語系列の取得ステップS2−2および文の認識ステップS2−3における言語的妥当性の評価に基づいてこの音声認識の信頼度が算出される。
次に、音声認識ステップS2により算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成ステップS3が行われる。このロボットモーション作成ステップS3においては、まず、音声認識ステップS2により算出された音声認識の信頼度が所定の閾値よりも高いか低いかが判断される(ステップS3−1)。そして、ステップS3−1において信頼度が所定の閾値よりも高いと判断された場合には、ロボットモーション作成部300は、自身を持った雰囲気を伝える動作つまり自信を持って話を聞いている動作を行なうロボットモーションを作成する(ステップS3−2)。反対に、ステップS3−1において信頼度が所定の閾値よりも低いと判断された場合には、ロボットモーション作成部300は、人が相手の話を聞き取れなかった時に行うような自身がない雰囲気を伝える動作つまり自信なく話を聞いている動作を行なうロボットモーションを作成する(ステップS3−3)。このように、ロボットモーション作成ステップS3においては、音声認識ステップS2により算出された音声認識の信頼度の閾値に対する高低に応じて、異なるロボットモーションがロボットモーション作成部300により作成される。
ロボットモーション作成ステップS3により作成されたロボットモーションがロボット部400に送られると、アクチュエータ410が、ロボット部400をロボットモーション作成部300から送られてきたロボットモーションに応じて動作するよう駆動するロボット駆動ステップS4が行われる。
また、音声認識ステップS2で得られた音声認識の結果は、処理部500に入力され、音声認識結果に対する応答等の所定の処理ステップS5が行われる。この処理ステップS5は、ロボット駆動ステップS4の後に行われるのが好ましいが、ロボット駆動ステップS4の途中に行うようにしたり、ロボット駆動ステップS4と同時に行うようにしたりすることもできる。
このような処理手順により、ロボット部400は、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも低い場合には、人が相手の話を聞き取れなかった時に行うような自信なく話を聞いている動作を行ない、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも高い場合には、自信を持って話を聞いている動作を行なうことができる。
したがって、ユーザは、自身が発した音声に対してロボット(ロボット部400)が行う上記動作を見て、自身が発した言葉をロボット制御システム1が理解したか否かを、文字等による直接的な提示ではなく、ロボットの動作によるなんとなくの雰囲気で、やわらかく無意識に近い状態で知ることができる。これにより、人と人との会話において、ほぼ無意識で行われているような自然な状況把握と同様の状況把握を、ロボットに対しても行えるため、ユーザにロボット制御システム1を備えたロボットに対して、より自然な会話を行わせることができる。
本発明のロボット制御システム1は、CPU(中央演算処理装置)および記憶手段(メモリ)を備えたコンピュータ(不図示)を有し、音声認識部200、ロボットモーション作成部300および処理部500を、このコンピュータ上で動作するソフトウェア処理として実行させる構成とすることもできる。この場合、ロボット部400は、アクチュエータ410が上記コンピュータに制御されることにより動作する構成とすることもできる。
本発明のロボット制御プログラムは、このロボット制御システム1のコンピュータに設けられた記憶手段に格納され、当該コンピュータに上記の音声認識ステップS2およびロボットモーション作成ステップS3を実行させることができる。
図3は図1に示すロボット制御システムの変形例の構成を概略で示すブロック図であり、図4は図3に示すロボット制御システムの処理手順を示すフローチャート図である。
図3に示す変形例のロボット制御システム2は、図1に示すロボット制御システム1の構成に追加して、カメラ600と相対位置算出部700を備える。本変形例におけるカメラ600および相対位置算出部700は、ユーザの顔に対するロボットの相対位置を検出する相対位置検出部を構成する。
カメラ600はロボットの位置およびユーザの顔方向を特定するためのものであり、図示する場合では、ロボットを写すためにロボットに向けられるカメラ601とユーザを写すためにユーザに向けられるカメラ602とを備える。
相対位置算出部700は、カメラ600が撮影したカメラ画像(映像)つまりカメラ601が撮影したカメラ画像とカメラ602が撮影したカメラ画像から、ユーザの顔に対するロボットの相対位置を算出する。相対位置算出部700によりユーザの顔に対するロボットの相対位置が算出されると、その算出結果はロボットモーション作成部300に入力される。
ロボットモーション作成部300は、相対位置算出部700から入力されたユーザの顔に対するロボットの相対位置に基づいてロボットの顔を向かせる方向を計算し、当該計算により決定された方向に顔を向かせるロボットモーションを作成することができる。このロボットモーションは、顔の向きだけでなく他の動作を含むものとすることもできる。
次に、本変形例のロボット制御システム2の処理手順について、図4に示すフローチャート図に基づいて説明する。
まず、このロボット制御システム2に対してユーザ等の対話者が発した音声が音声入力部100に入力されると(入力ステップS1)、音声認識部200が音声入力部100に入力された音声を音声認識する音声認識ステップS2が行われる。この音声認識ステップS2においては、例えば音響処理ステップS2−1、単語系列の取得ステップS2−2および文の認識ステップS2−3が行われる。
また、この音声認識ステップS2においては、単語系列の取得ステップS2−2および文の認識ステップS2−3における言語的妥当性の評価に基づいてこの音声認識の信頼度が算出される。
一方で、画像入力ステップS3においてカメラ600(カメラ601、カメラ602)が撮影したカメラ画像が相対位置算出部700に入力される。そして、カメラ画像が相対位置算出部700に入力されると、相対位置算出ステップS4において、相対位置算出部700により、入力されたカメラ画像から、ユーザの顔に対するロボットの相対位置が算出される。
次に、音声認識ステップS2により算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成ステップS5が行われる。このロボットモーション作成ステップS5においては、そのロボットモーションを作成するにあたり、相対位置算出ステップS4において算出されたユーザの顔に対するロボットの相対位置が考慮されて当該ロボットモーションにおけるロボットの顔の向きが設定される。
ロボットモーション作成ステップS5においては、まず、音声認識ステップS2により算出された音声認識の信頼度が所定の閾値よりも高いか低いかが判断される(ステップS5−1)。そして、ステップS5−1において信頼度が所定の閾値よりも高いと判断された場合には、ロボットモーション作成部300は、相対位置算出ステップS4において算出されたユーザの顔に対するロボットの相対位置を考慮して、自信を持って話を聞いている動作を行なうロボットモーションを作成する(ステップS5−2)。反対に、ステップS5−1において信頼度が所定の閾値よりも低いと判断された場合には、ロボットモーション作成部300は、相対位置算出ステップS4において算出されたユーザの顔に対するロボットの相対位置を考慮して、人が相手の話を聞き取れなかった時に行うような自信なく話を聞いている動作を行なうロボットモーションを作成する(ステップS5−3)。このように、ロボットモーション作成ステップS3においては、音声認識ステップS2により算出された音声認識の信頼度の閾値に対する高低に対応するとともに、相対位置算出ステップS4において算出されたユーザの顔に対するロボットの相対位置を考慮して、異なるロボットモーションがロボットモーション作成部300により作成される。
次に、ロボットモーション作成ステップS5により作成されたロボットモーションがロボット部400に送られると、アクチュエータ410が、ロボット部400をロボットモーション作成部300から送られてきたロボットモーションに応じて動作するよう駆動するロボット駆動ステップS6が行われる。
また、音声認識ステップS2で得られた音声認識の結果は、処理部500に入力され、音声認識結果に対する応答等の所定の処理ステップS7が行われる。この処理ステップS7は、ロボット駆動ステップS6の後に行われるのが好ましいが、ロボット駆動ステップS6の途中に行うようにしたり、ロボット駆動ステップS4と同時に行うようにしたりすることもできる。
このような処理手順により、図3、図4に示す変形例においても、図1、図2に示す場合と同様に、ロボット部400は、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも低い場合には、人が相手の話を聞き取れなかった時に行うような自信なく話を聞いている動作を行ない、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも高い場合には、自信を持って話を聞いている動作を行なうことができる。
また、図3、図4に示す変形例では、上記効果に加えて、ユーザの顔に対するロボットの相対位置を考慮することにより、ユーザの顔方向に対してより正確にロボットの顔を所望の方向に向けることができる。例えば、ロボットに自信を持って話を聞いている動作を行なわせる際には、ロボットの顔または顔と体の両方をより正確にユーザの方に真っ直ぐ向けることができ、または、ユーザの顔を基準とした適切な角度でロボットの顔を上に向けることができる。さらに、例えば、ロボットに自信なく話を聞いている動作を行なわせる際には、ユーザの顔を基準とした適切な角度でロボットの首をかしげさせることができ、または、ロボットの顔や体をユーザの顔を基準とした適切な角度でうつむかせることができる。このように、ユーザの顔に対するロボットの相対位置を考慮してロボットモーションの作成を行うことにより、ロボット動作によるユーザへの意思伝達性を高めることができる。さらに、ロボットがその体をユーザの方に向けることができない場合においても、ロボットの顔だけをユーザの顔の方に向けて、ユーザに対して自信を持って話を聞いている動作や自身なく話しを聞いている動作を行うこともできる。このように、ロボットの顔や体をユーザの方向に向けることにより、ユーザに対するロボット動作による意思伝達をより効果的に行うことができる。ただし、ロボットの顔や体を上下に向ける際には、上記したユーザの顔を基準とするに限らず、水平方向を基準とすることもできる。
なお、本変形例では、ロボット部400を写すためのカメラ601とユーザを写すためのカメラ602とを用意してロボットとユーザの相対位置を算出するようにしているが、1台のカメラ600で両方を写すようにしてもよい。
また、本変形例では、ロボットとユーザの顔方向の相対位置を検出するための相対位置検出部の構成として、カメラ600が撮影したカメラ画像から相対位置算出部700がロボットとユーザの顔方向の相対位置を算出する構成を採用しているが、これに限らず、無線タグや超音波センサなどを用いてロボットとユーザの顔方向の相対位置を測定する構成とするなど、相対位置検出部の検出手段として種々の構成を採用することができる。
本変形例においても、ロボット制御システム2が、CPU(中央演算処理装置)および記憶手段(メモリ)を備えたコンピュータ(不図示)を有し、音声認識部200、ロボットモーション作成部300、処理部500および相対位置算出部700を、このコンピュータ上で動作するソフトウェア処理として実行させる構成とすることもできる。この場合、ロボット部400は、アクチュエータ410が上記コンピュータに制御されることにより動作する構成とすることもできる。
本発明のロボット制御プログラムは、上記変形例のロボット制御システム2に合わせて、当該ロボット制御システム2のコンピュータに、上記の音声認識ステップS2およびロボットモーション作成ステップS5を実行させるような構成とすることもできる。
本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
例えば、前記実施の形態には、実体のあるビジブル型のロボットに本発明のロボット制御システム1、2を適用した例を記載しているが、これに限らず、スマートフォン等の電子機器の画面上に表示するバーチャルなロボットやアバター等、人や動物を模したエージェントに対して本発明のロボット制御システム1、2を適用することもできる。
このように、ロボットを電子機器の画面上に表示されるバーチャルなエージェント(ロボット)とする場合には、ロボット制御システム1、2は、CPUおよび記憶手段を備えた電子機器において、音声認識部200、ロボットモーション作成部300、処理部500および相対位置算出部700等を、この電子機器上で動作するソフトウェア処理として実行する構成とすることができる。また、この場合、ロボット駆動部も同様に、電子機器によりソフトウェア処理として実行されて、画面上に表示されたエージェントをロボットモーション作成部300により作成されたロボットモーションに応じて動作させる構成とすることができる。このように、バーチャル型のロボットであるエージェントに対して本発明のロボット制御システム1、2を適用した場合においても、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも低い場合には、画面上に表示されたエージェントが自信なく話を聞いている動作を行ない、音声認識ステップS2における音声認識の信頼度が所定の閾値よりも高い場合には、画面上に表示されたエージェントが自信を持って話を聞いている動作を行なうことにより、ユーザは、このエージェントの動作から、自身が発した言葉をロボット制御システム1、2が理解したか否かを認識することができる。
また、表情を変化させる機構を有する実体を有するロボットや、バーチャルなロボットやエージェントの場合、顔の向きや腕部、胴部の動作等によるジェスチャに限らず、その表情を変えることによって音声認識の状態を表現する構成とすることもできる。
また、前記実施の形態では、1つの所定の閾値に対して音声認識の信頼度が低いときに、ロボットを自信なく話しを聞いているように動作させ、当該閾値に対して音声認識の信頼度が高いときに、ロボットを自信を持って話を聞いているように動作させるようにしているが、自身なく話しを聞いているように動作させる際の判断基準となる低信頼度側の閾値と、自信を持って話を聞いているように動作させる際の判断基準となる高信頼度側の閾値とを別の値に設定し、音声認識の信頼度がこれらの低信頼度側の閾値と高信頼度側の閾値との間に、ロボットに「何もさせない」範囲を設ける構成とすることもできる。
1、2 ロボット制御システム
100 音声入力部
200 音声認識部
300 ロボットモーション作成部
400 ロボット部
410 アクチュエータ(ロボット駆動部)
500 処理部
600 カメラ
601 ロボットに向けられたカメラ
602 ユーザに向けられたカメラ
700 相対位置算出部

Claims (7)

  1. ユーザの音声が入力される音声入力部と、
    前記音声入力部に入力された音声を音声認識するとともに該音声認識の信頼度を算出する音声認識部と、
    前記音声認識部により算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成部と、
    前記ロボットモーション作成部により作成されたロボットモーションに応じてロボットを駆動するロボット駆動部と、を有することを特徴とするロボット制御システム。
  2. 前記音声認識部により算出された音声認識の信頼度が所定の閾値よりも低いときに、前記ロボットモーション作成部が、前記ロボットを自信なく話しを聞いているように動作させ、または前記ロボットを相手の発話をより傾聴するように動作させるロボットモーションを作成する、請求項1に記載のロボット制御システム。
  3. 前記ロボットを、自信なく話しを聞いているように動作させ、または相手の発話をより傾聴するように動作させるロボットモーションは、前記ロボットの首をかしげる動作、前記ロボットの耳をそばだてる動作、または前記ロボットをうつむいた姿勢とする動作の、少なくとも何れか1つまたはこれらの組み合わせである、請求項2に記載のロボット制御システム。
  4. 前記音声認識部により算出された音声認識の信頼度が所定の閾値よりも高いときに、前記ロボットモーション作成部が、前記ロボットを自信を持って話を聞いているように動作させるロボットモーションを作成する、請求項1〜3の何れか1項に記載のロボット制御システム。
  5. 前記ロボットを、自信を持って話を聞いているように動作させるロボットモーションは、前記ロボットをユーザの方に真っ直ぐ向く動作、前記ロボットの顔を上に向ける動作、または前記ロボットの胸を張る動作の、少なくとも何れか1つまたはこれらの組み合わせである、請求項4に記載のロボット制御システム。
  6. ユーザの顔に対する前記ロボットの相対位置を検出する相対位置検出部をさらに有し、
    前記相対位置検出部により検出されたユーザの顔に対する前記ロボットの相対位置に基づいて、前記ロボットモーション作成部が、ロボットモーションにおける前記ロボットの顔の向きを設定する、請求項1〜5の何れか1項に記載のロボット制御システム。
  7. 入力された音声を音声認識するとともに該音声認識の信頼度を算出する音声認識ステップと、
    前記音声認識ステップにより算出された音声認識の信頼度に応じて異なるロボットモーションを作成するロボットモーション作成ステップと、
    をコンピュータに実行させることを特徴とするロボット制御プログラム。
JP2014023373A 2014-02-10 2014-02-10 ロボット制御システムおよびロボット制御プログラム Pending JP2015150620A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014023373A JP2015150620A (ja) 2014-02-10 2014-02-10 ロボット制御システムおよびロボット制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014023373A JP2015150620A (ja) 2014-02-10 2014-02-10 ロボット制御システムおよびロボット制御プログラム

Publications (1)

Publication Number Publication Date
JP2015150620A true JP2015150620A (ja) 2015-08-24

Family

ID=53893420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014023373A Pending JP2015150620A (ja) 2014-02-10 2014-02-10 ロボット制御システムおよびロボット制御プログラム

Country Status (1)

Country Link
JP (1) JP2015150620A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106584486A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 一种基于语音识别的工业机器人控制系统和方法
JP2019124855A (ja) * 2018-01-18 2019-07-25 株式会社ユピテル 装置及びプログラム等
CN110919643A (zh) * 2018-09-20 2020-03-27 深圳市优必选科技有限公司 机器人交互方法、机器人及具有存储功能的装置
WO2021011784A1 (en) * 2019-07-16 2021-01-21 Postmates Inc. Remote physiological data sensing robot

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116792A (ja) * 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
JP2003266351A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びロボット装置の動作制御方法
JP2006038894A (ja) * 2004-07-22 2006-02-09 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2007155985A (ja) * 2005-12-02 2007-06-21 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにその方法
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
US20090030552A1 (en) * 2002-12-17 2009-01-29 Japan Science And Technology Agency Robotics visual and auditory system
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002116792A (ja) * 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2003062777A (ja) * 2001-08-22 2003-03-05 Honda Motor Co Ltd 自律行動ロボット
JP2003266351A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びロボット装置の動作制御方法
US20090030552A1 (en) * 2002-12-17 2009-01-29 Japan Science And Technology Agency Robotics visual and auditory system
JP2006038894A (ja) * 2004-07-22 2006-02-09 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2007155985A (ja) * 2005-12-02 2007-06-21 Mitsubishi Heavy Ind Ltd ロボットおよび音声認識装置ならびにその方法
JP2008126329A (ja) * 2006-11-17 2008-06-05 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2013154458A (ja) * 2012-01-31 2013-08-15 Fujitsu Ltd 対話装置、対話プログラムおよび対話方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106584486A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 一种基于语音识别的工业机器人控制系统和方法
JP2019124855A (ja) * 2018-01-18 2019-07-25 株式会社ユピテル 装置及びプログラム等
JP7130201B2 (ja) 2018-01-18 2022-09-05 株式会社ユピテル 装置及びプログラム等
CN110919643A (zh) * 2018-09-20 2020-03-27 深圳市优必选科技有限公司 机器人交互方法、机器人及具有存储功能的装置
WO2021011784A1 (en) * 2019-07-16 2021-01-21 Postmates Inc. Remote physiological data sensing robot

Similar Documents

Publication Publication Date Title
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
JP6719739B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
US11548147B2 (en) Method and device for robot interactions
CN106503786B (zh) 用于智能机器人的多模态交互方法和装置
CN105912128A (zh) 面向智能机器人的多模态交互数据处理方法及装置
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
Johansson et al. Opportunities and obligations to take turns in collaborative multi-party human-robot interaction
JP2009166184A (ja) ガイドロボット
JP2015150620A (ja) ロボット制御システムおよびロボット制御プログラム
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
KR20220089513A (ko) 컨텐츠 기반 케어 서비스를 제공하는 전자 장치 및 그 제어 방법
JP5162852B2 (ja) アンドロイド制御システム
JP6147198B2 (ja) ロボット
JP5296898B2 (ja) アンドロイド制御システム
JP2007155986A (ja) 音声認識装置および音声認識装置を備えたロボット
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP7032284B2 (ja) ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
US10777198B2 (en) Apparatus for determining speech properties and motion properties of interactive robot and method thereof
JP2008107673A (ja) 会話ロボット
CN110442243A (zh) 一种人机交互方法及系统
WO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2005335001A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
Shree et al. A Virtual Assistor for Impaired People by using Gestures and Voice
KR102128812B1 (ko) 로봇의 사회 지능 평가 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170425