JP2017068592A - ロボット、ロボット制御装置、ロボット制御方法、及びプログラム - Google Patents

ロボット、ロボット制御装置、ロボット制御方法、及びプログラム Download PDF

Info

Publication number
JP2017068592A
JP2017068592A JP2015193389A JP2015193389A JP2017068592A JP 2017068592 A JP2017068592 A JP 2017068592A JP 2015193389 A JP2015193389 A JP 2015193389A JP 2015193389 A JP2015193389 A JP 2015193389A JP 2017068592 A JP2017068592 A JP 2017068592A
Authority
JP
Japan
Prior art keywords
robot
response
answer
unit
respondents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015193389A
Other languages
English (en)
Inventor
智子 小堀
Tomoko Kobori
智子 小堀
小川 隆
Takashi Ogawa
隆 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015193389A priority Critical patent/JP2017068592A/ja
Publication of JP2017068592A publication Critical patent/JP2017068592A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 クイズ等の問いかけをするロボットであって回答者が複数の場合の状況判断を適切に行い、適切な発話やアクションを行うことが可能なロボット、ロボット制御装置、ロボット制御方法、及びプログラムを提供する。【解決手段】 ロボット2は問題DB31から問題を取得して音声処理部209等によって読み上げる。また複数の回答者による回答の様子を撮影した画像を取得し、画像認識処理により回答者から得られる複数の回答を認識する。また複数の回答から回答者全体の1つの回答を決定し、決定した回答に対する応答(発話やアクション)を多数決、比率、或いは回答者属性等の所定の条件に基づいて決定し、決定された応答を実行する。これにより、回答者が複数の場合の状況判断をロボット2に適切に行わせ、適切な発話やアクションを行わせることが可能となる。【選択図】図1

Description

本発明は、ロボット、ロボット制御装置、ロボット制御方法、及びプログラムに関し、詳細には、対話型ロボットを制御する技術に関する。
近年、人との対話が可能なロボットが開発されている。この種のロボットは、対話のための音声認識機能や発話機能を持つ他、対話相手の表情や音声感情、明るさや温度等の周囲の状況を音声・画像認識エンジンや各種のセンサにより読み取ることができる。また読み取った内容に応じてロボット自身の感情も変化させ、ディスプレイで感情を可視化したり、感情に応じた発話を実行する機能を持つものもある。また、ロボットの頭や腕、腰等に可動部を設け、対話や指令の内容に応じたアクションを行わせることも可能となっている。
例えば特許文献1には、ロボットにユーザと共に映像を視聴しているかのようなアクションを実行させるロボット制御方法について記載されている。このロボット制御方法では、ソーシャルメディアサーバから視聴中の番組に関するコメントを取得し、ロボットに設定されたパーソナリティと一致するパーソナリティ一致話者のコメントからロボットに発話させる発話内容を決定するとともに、発話内容の対話状態とロボットの感情状態に基づいてロボットに実行させるアクション内容をアクションデータベースから抽出して、視聴中の番組の内容に応じたアクションをロボットに実行させている。
特開2015−148701号公報
しかしながら、特許文献1のロボット制御方法は、ロボットの発話内容やアクションの内容をソーシャルメディアサーバから得た情報に基づいて決定するものであり、ロボットの前の多数の視聴者の状況から判断するものではない。例えば、ロボットがイベント会場等でクイズ形式のコンテンツを複数の来場者に対して実施する場合、来場者の反応や状況をリアルタイムに判断し、適切な応答をロボットに行わせることで、来場者に興味を持たせ集客力を向上させたいといった要望がある。
本発明は、クイズ等の問いかけをするロボットであって回答者が複数の場合の状況判断を適切に行い、適切な発話やアクションを行うことが可能なロボット、ロボット制御装置、ロボット制御方法、及びプログラムを提供することを目的とする。
前述した課題を解決するため第1の発明は、問題を提示する問題提示手段と、複数の回答者による回答の様子を撮影した画像を取得する画像取得手段と、前記画像を解析し、前記回答者から得られる複数の回答を認識する認識手段と、前記回答に対する応答を所定の条件に基づき決定する応答決定手段と、決定された応答を実行する応答手段と、を備えることを特徴とするロボットである。
第1の発明によれば、ロボットは問題を提示し、複数の回答者による回答の様子を撮影した画像を取得し、取得した画像を解析して回答者から得られる複数の回答を認識する。また回答に対する応答を所定の条件に基づき決定し、決定された応答を実行する。
これにより、例えばイベント会場や教室等のように複数の回答者がいる場合でも、状況に適した判断を行って、適切な発話やアクションを行うことが可能なロボットを提供できる。
第1の発明において、前記応答決定手段は前記複数の回答から1つの回答を導出し、導出された1つの回答に対する応答を決定することが望ましい。また前記応答決定手段は前記問題が択一式の場合は多数決または回答の比率に基づいて1つの回答を導出し、導出された1つの回答に対する応答を決定してもよい。これにより、複数の回答者による様々な回答から回答者全体で1つの回答を求め、求めた1つの回答に対する応答をロボットに行わせることが可能となる。
また、前記認識手段は、各回答者の属性を認識し、前記応答決定手段は前記回答者の属性に基づいて複数の回答から1つの回答を導出し、導出された1つの回答に対する応答を決定してもよい。これにより、回答者の性別や年齢等の属性を重視して複数の回答から1つの回答を得ることが可能となる。
また、前記応答決定手段は当該ロボットに近い位置にいる回答者の回答に基づいて1つの回答を導出し、導出された1つの回答に対する応答を決定してもよい。これにより興味を示してロボットに近づいた回答者の回答に対して優先的に応答できる。
また、第1の発明において、前記回答はマーカを用いて提示されるものとすれば、回答の画像認識を容易に行うことができ、認識精度も向上する。
また、前記問題を提示してから前記応答を決定するまでの間に待機時間を設け、前記待機時間経過後に前記認識手段による回答の認識を行うことが望ましい。これにより、多数の回答を得るまで待機し、その後ロボットに状況判断を行わせ、状況に応じた応答を行わせることができる。
第2の発明は、対話型ロボットを制御するロボット制御装置であって、前記ロボットに問題を提示させる問題提示手段と、複数の回答者による回答の様子を撮影した画像を取得する画像取得手段と、前記画像を解析し、前記回答者から得られる複数の回答を認識する認識手段と、前記回答に対する応答を所定の条件に基づき決定する応答決定手段と、決定された応答を前記ロボットに実行させるよう制御する応答手段と、を備えることを特徴とするロボット制御装置である。
第2の発明によれば、ロボット制御装置によってロボットを制御することによりロボットに問題を提示させ、複数の回答者による回答の様子を撮影した画像を取得し、取得した画像を解析して回答者から得られる複数の回答を認識し、回答に対する応答を所定の条件に基づき決定し、決定した応答をロボットに実行させることができる。これにより、例えばイベント会場や教室等、複数の回答者がいる場所等でロボットに問題を提示させ、回答の状況判断を適切に行い、適切な発話やアクションをロボットに行わせることが可能となる。
第3の発明は、ロボットが問題を提示するステップと、前記ロボットが複数の回答者による回答の様子を撮影した画像を取得するステップと、前記ロボットが前記画像を解析し前記回答者から得られる複数の回答を認識するステップと、前記ロボットが前記回答に対する応答を所定の条件に基づき決定するステップと、決定された応答を前記ロボットが実行するステップと、を含むことを特徴とするロボット制御方法である。
第3の発明によれば、ロボットは問題を提示し、複数の回答者による回答の様子を撮影した画像を取得し、取得した画像を解析して回答者から得られる複数の回答を認識する。また回答に対する応答を所定の条件に基づき決定し、決定された応答を実行する。これにより、例えばイベント会場や教室等、複数の回答者がいる場所等でロボットに問題を提示させ、複数の回答者による回答の状況判断を適切に行い、適切な発話やアクションをロボットに行わせることが可能となる。
第4の発明は、ロボットを、第1の発明のロボットとして機能させるプログラムである。第4の発明により、ロボットを第1の発明のロボットとして機能させることが可能となる。
本発明により、クイズ等の問いかけをするロボットであって回答者が複数の場合の状況判断を適切に行い、適切な発話やアクションを行うことが可能なロボット、ロボット制御装置、ロボット制御方法、及びプログラムを提供できる。
ロボット制御システム1のシステム構成及びクイズ問題の提示・回答の概念を示す図 ロボット2の内部構成図 コンピュータ3(ロボット制御装置)の内部構成図 本発明に係るロボット制御に関する機能構成図 条件テーブル241のデータ構成図 応答決定テーブル331のデータ構成図 問題DB31のデータ構成図 ロボット2が実行するクイズ応答処理の流れを説明するフローチャート
以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。
図1は、ロボット制御システム1のシステム構成の一例を示す図である。ロボット制御システム1は、ロボット2、コンピュータ3、カメラ4、ディスプレイ7を備えて構成される。ロボット2、カメラ4、ディスプレイ7はコンピュータ3に通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、カメラ4、ディスプレイ7とコンピュータ3との通信接続の形態は、有線、無線を問わない。ディスプレイ7はロボット2の問題提示と連携して映像を表示するためのものであり、ロボット2が音声のみで問題を読み上げる場合はディスプレイ7を省略してよい。また、カメラ4は回答者6a〜6hが回答する様子を撮影するものであるが、カメラ4に替えてロボット2に内蔵されるカメラ210を用いて回答の様子を撮影することもできる。その場合はカメラ4を省略してよい。また回答者6a〜6hの人数や並び方、ディスプレイ7との位置関係等は図1の例に限定されない。
図1は、ロボット2が読み上げたクイズ等の問題に対し、複数の回答者6a〜6hがマーカ5a〜5hを用いて回答している様子を表している。カメラ4またはロボット2に内蔵されるカメラ210は回答者6a〜6h及びマーカ5a〜5hの画像を撮影し、撮影した画像をロボット2に入力する。ディスプレイ7はコンピュータ3に制御され、ロボット2による問題読み上げや応答のタイミングに同期して関連する映像等を表示する。コンピュータ3は、カメラ4による画像の取得やディスプレイ7の表示制御を行う他、ロボット2の動作とカメラ4及びディスプレイ7の動作のタイミングが同期するよう制御する。
ロボット2は、対話型のロボットである。図2に示すように、ロボット2は、制御部201、記憶部202、入力部203、表示部204、メディア入出力部205、通信I/F206、可動部駆動機構207、周辺機器I/F部208、音声処理部209、カメラ210、マイク211、センサ212、及びスピーカ213がバス220を介して接続されて構成される。
制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部202、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス220を介して接続された各部を駆動制御する。
制御部201のCPUは、クイズ応答処理(図8参照)を実行する。この処理の詳細については後述する。
ROMは、ロボット2のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部201が各種処理を行うために使用するワークエリアを備える。
記憶部202は、制御部201が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部201により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
また記憶部202は、問題DB(データベース)31、発話DB(データベース)32、アクションDB(データベース)33等のデータベースや、制御部201が回答を決定する際に参照される条件テーブル241等を有する(図4参照)。問題DB31、発話DB32、アクションDB33、条件テーブル241の詳細については後述する。
入力部203は、例えばタッチパネル等の入力装置や各種操作ボタン等を含み、入力されたデータを制御部201へ出力する。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
メディア入出力部205は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
通信I/F206は、ネットワーク8との通信を媒介するインタフェースである。ネットワーク8は、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット等の公衆の通信回線、基地局等を含む。ネットワーク8との通信接続は有線、無線を問わない。ロボット2はネットワーク8を介してWebサーバにアクセスし、各種のプログラムやデータを送受信可能である。
可動部駆動機構207は、ロボット2の頭部、首、肩、腕、腰、脚等に設けられた可動部を駆動する機構及び駆動装置を含む。可動部駆動機構207の動作は制御部201により制御される。制御部201は記憶部202のアクションDB33から可動部制御シーケンスを読み出し、各可動部駆動機構207に対して制御信号を送り、各駆動部を動作させる。
周辺機器I/F(インタフェース)部208は、周辺機器を接続させるためのポートであり、周辺機器I/F部208を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。ロボット2は周辺機器I/F部208を介してコンピュータ3等と通信接続可能となる。
音声処理部209は、音声合成部、音声認識部等を含む。音声合成部は、制御部201からの指令に基づき、文字情報(テキストデータ)に対応する合成音声データを生成し、スピーカ213に合成音声を出力する。合成音声は、予め記憶部202の発話DB32に格納されている文字情報と音声データとの対応関係に基づいて生成される。音声合成部により、ロボット2による問題文の読み上げや回答に対する発話等を実現する。
音声認識部は、マイク211から入力された音声データ(例えば、人の音声)について音声認識処理を実施し、音声データに対応する文字情報(テキストデータ)を生成し、制御部201に入力する。制御部201は音声認識部により入力された文字情報に基づいて人の話の内容を認識したり、周囲の状況を判断したりし、ロボット2の感情を変化させたり、アクションや発話の内容を決定する。
カメラ210は、ロボット2に内蔵される例えばCCD(Charge-Coupled Device)カメラ等であり、周囲の様子を撮影する。カメラ210により撮影された画像は制御部201に入力される。制御部201はカメラ210から入力された画像を認識し(画像認識処理)、周囲の状況を判断したり、認識結果に応じて感情を変化させたり、発話やアクションを決定したりする。
マイク211は、外部の音声を入力し、制御部201に送る。
スピーカ213は、音声処理部209の音声合成部により生成された合成音声を出力したり、制御部201からの指令に基づきアラーム音等の所定の音声を出力したりする。
センサ212は、3Dセンサ、タッチセンサ、ジャイロセンサ、ソナーセンサ、レーザセンサ、バンパーセンサ、赤外線センサ等の各種のセンサを含む。各センサは検出した信号を制御部201に入力する。制御部201は各センサからの入力信号に応じて感情を変化させたり、ロボット2の発話の内容やアクションを決定したりする。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
コンピュータ3は、ロボット制御システム1全体の動作を制御する制御装置であり、カメラ4による画像の取得やディスプレイ7の表示制御を行う。また、ロボット2の動作とカメラ4及びディスプレイ7の動作のタイミングが同期するよう制御する。
図3に示すように、コンピュータ3は、制御部301、記憶部302、メディア入出力部303、周辺機器I/F部304、入力部306、表示部307、通信I/F308がバス309を介して接続されて構成される。
制御部301は、CPU、ROM、RAM等により構成される。CPUは、記憶部302、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス309を介して接続された各部を駆動制御する。
制御部301のCPUは、ロボット2が実行するクイズ応答処理(図8参照)と連携してカメラ4による撮影制御やディスプレイの表示制御を行う。
ROMは、コンピュータ3のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部301が各種処理を行うために使用するワークエリアを備える。
記憶部302は、制御部301が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部301により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
メディア入出力部303は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
周辺機器I/F(インタフェース)部304は、周辺機器を接続させるためのポートであり、周辺機器I/F部304を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。周辺機器I/F部304を介してコンピュータ3に、ロボット2、カメラ4、及びディスプレイ7等を通信接続できる。
入力部306は、例えばキーボード、マウス、タッチパネル等の入力装置であり、入力されたデータを制御部301へ出力する。
表示部307は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部301の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部306のタッチパネルは表示部307のディスプレイと一体的に構成される。また、表示部307は外付けのディスプレイ7としてもよい。制御部301は表示部307またはディスプレイ7に対して表示情報を送り、表示させる。
通信I/F308は、ネットワーク8との通信を媒介するインタフェースである。コンピュータ3はネットワーク8上のWebサーバから各種のプログラムやデータを送受信可能である。
バス309は、制御信号、データ信号等の授受を媒介する経路である。
次に、図4を参照してロボット2(ロボット制御システム1)の機能構成について説明する。
ロボット2は、問題提示部21、画像取得部22、画像認識部23、応答決定部24、応答部25、問題DB31、条件テーブル241、発話DB32、及びアクションDB33を備える。
問題提示部21は、問題の読み上げ、問題に関する映像の表示制御等を行う。すなわち問題提示部21は、問題DB31から問題データを取得し、問題データに含まれる問題文に対応する合成音声を音声処理部209により生成して、ロボット2に読み上げ(音声出力)させる。また、問題データに関連する映像や回答の選択肢等の映像データがある場合は、問題提示部21はロボット2の表示部204やディスプレイ7に表示データを表示させる。
画像取得部22は、ロボット2に内蔵されるカメラ210または外付けのカメラ4により撮影された複数の回答者6a〜6hによる回答の様子を撮影した画像を取得する。回答は、ARマーカ等のマーカ5a〜5hを用いて提示されることが望ましいが、必ずしもマーカ5a〜5hを用いなくてもよく、回答者6a〜6hのジェスチャ等としてもよい。マーカ5a〜5hを用いる場合には、画像認識を容易に行うことが可能となり、認識精度が向上する。
画像認識部23は、画像取得部22により取得した画像を解析し、回答者6a〜6hから得られる複数の回答を認識する。回答がマーカ5a〜5hにより得られる場合は、提示されたマーカ5a〜5hを読み取り、各回答者6a〜6hの回答を認識する。またマーカ5a〜5hを用いない場合は、回答者6a〜6hのジェスチャを画像認識部23によって認識し、回答を得てもよい。
応答決定部24は、画像認識部23により認識された回答に対して、ロボット2が実行する応答(発話、アクション等)を所定の条件に基づき決定する。複数の回答者6a〜6hがいるため、画像認識部23では複数の回答を得ている。応答決定部24は複数の回答から所定の条件に従って複数の回答の代表とする1つの回答を導出し、導出された1つの回答に対する応答を決定する。
1つの回答を導出する条件は、図5の条件テーブル241に示すようにいくつかのパターンが記憶部202に記憶され、出題毎にどの条件を適用するかが設定される。或いは、ロボット2の操作者がどの条件を適用するかを、出題毎、或いは日時や来場者等の状況に応じて設定してもよい。またロボット2の制御部201が、どの条件を適用するかを問題や回答者6a〜6hの状況等に応じて動的に設定してもよい。
図5に示す条件テーブル241には、(1)多数決、(2)比率、(3)回答者属性、(4)回答者位置、…等の条件が格納されている。
(1)多数決の場合:問題が「○」「×」の二択または「1」「2」「3」…のような選択肢からの選択のように、各回答者がそれぞれ1つの回答を選択する択一式の問題の場合は、応答決定部24は、複数の回答から多数決により1つの回答を導出する。多数決では、最も多い回答を会場にいる回答者全体の総意とする。多数決で○と×が同数の場合は、そのままの数を回答者の総意としてもよいが、あえて○(または×)を回答者の総意としてもよい。
(2)比率の場合:問題が択一式の場合、応答決定部24は、複数の回答の比率から1つの回答を導出してもよい。その場合、最も少ない回答を回答者の総意としてもよいし、多い方から2番目の回答等のように、出題者側が設定した条件で回答者の総意とする回答を決定してもよい。また、例えば、○と×の比率が6:4の場合、その比率に従い○を回答者の総意としたり、あえて比率が少ない×を回答者の総意としてもよい。
(3)回答者属性:回答者の属性に基づいて1つの回答を導出する場合、画像認識部23は取得した画像から、各回答者の性別や年齢等の属性を推定する。そして推定した属性を条件として、条件に合致する回答者の回答を選び、回答者全体の総意として採用する。条件は問題毎に設定したり、ランダムに設定したりしてもよい。例えば、ベテランによる回答が確からしいと判断できる問題では、回答を決定する条件を「40歳以上」等とすればよい。
(4)回答者位置:ロボット2に近い位置にいる回答者の回答を回答者全体の総意として採用する。ステージ前方(ロボット2に近い位置)にいる回答者が問題に興味を示しているとみなし、画像認識によりロボット2と各回答者との距離を求め、最も近い位置にいる回答者の回答を採用する。この場合、興味を示している回答者の回答を選ぶことができる。
なお、上述の(1)〜(4)は複数の回答の中から1つの回答を導出するための条件の例であり、条件はこれらに限定されない。(1)〜(4)の条件を組み合わせてもよい。また複数の回答の中から応答決定部24がランダムに1つの回答を選択してもよい。また条件テーブル241に保持された条件以外の条件を状況に応じてユーザが入力するようにしてもよい。
また、応答決定部24は導出した1つの回答に対する応答を決定する。応答決定部24は、例えばアクションDB33に格納される応答決定テーブル331を参照して回答に対する応答を決定する。応答は、音声処理部209による発話や可動部駆動機構207によるロボット2の動作(アクション)、表示部204によるロボット2の感情表現等を含む。
図6に応答決定テーブル331に設定されるデータの内容を示す。応答決定テーブル331には、回答の状態(正解、不正解、ヒント、回答要求、その他等)と応答の動作名と発話の内容とが紐づけられて格納される。応答の動作名は、例えば、「うなずく」、「腕で○を描く」、「首を横に振る」等のアクションを識別するための識別情報である。発話の内容は、「正解」、「そのとおり」、「残念」等のように、回答の状態や動作に応じた発話の内容(テキストデータ)が設定される。
また、応答決定部24は画像認識部23による画像認識の結果、回答数が少ない場合等、所定の条件を満たさない場合は、その状況に対する応答を決定する。例えば、問題のヒントを読み上げたり、「わかった人はいるかな?」等のように回答を要求する発話やアクションを行うよう決定する。
問題DB31には、ロボット2が提示する複数の問題データが格納される。図7に示すように、問題データには、問題文(テキストデータ)と、問題についてのヒント(テキストデータ)及び解答のデータが含まれる。問題文やヒント文には、それぞれ読み上げる文章のデータや読み上げ時に再生する映像や音楽、ロボット2が行うアクションの動作名等が含まれる。問題DB31に記憶されるデータは、メディア入出力部205を介してメディアから取り込んでもよいし、コンピュータ3から入力されてもよいし、ネットワーク8を介してダウンロードしたものでもよい。
また各問題について、複数の回答が得られた場合にどのように回答を決定するかを定めた回答決定条件が設定されるようにしてもよい。回答決定条件の値は、条件テーブル241(図5)に格納される条件の条件IDに対応している。
発話DB32は、文字情報(テキストデータ)と音声データとが対応づけて格納される。音声処理部209は、発話DB32に格納された文字情報と音声データとの対応関係に基づいて合成音声を生成し、スピーカ213から出力することでロボット2による発話を実現する。発話DB32には、定型文の音声データや、ロボット2の感情状態に応じて発話の抑揚や語尾を変化させるための発話変換データ等が格納されるようにしてもよい。
アクションDB33は、応答決定部24がロボット2の応答(発話内容やアクション内容)を決定する際に参照する応答決定テーブル331(図6)と、各応答についてのロボット2の制御シーケンスを記載した制御シーケンステーブルとが格納される。制御シーケンステーブルには、応答の動作名とロボット2の可動部制御シーケンスとを紐づけたデータが格納される。動作名は、応答決定テーブル331と対応する識別情報であり、一連の可動部制御シーケンスをロボット2が実行した際のロボット動作の様子を示している。可動部制御シーケンスは、制御対象とする各可動部の駆動箇所と値等(例えば頭部チルト角0度、右腕チルト角0度等)のリストである。
応答部25は、応答決定部24により決定された応答(発話やアクション等)をロボット2が実行するよう制御する。
次に、図8を参照してロボット2が実行するクイズ応答処理の流れの一例を説明する。クイズ応答処理の開始に際し、カメラ4またはロボット2の内蔵カメラ210は、周囲の状況を撮影し、撮影した画像データをロボット2に入力しているものとする。
図8に示すように、ロボット2はまず出題を行う(ステップS101)。ロボット2の制御部201(問題提示部21)は問題DB31から問題データを取得し、音声処理部209による発話処理を行って問題文を読み上げる。発話処理では、問題文に含まれる単語の音声を発話DB32から取得し、合成音声を生成して発話させる。また発話処理では、ロボット2に設定されている性別や性格を考慮するほか、時間帯や気温等の周囲の状況をセンサから判断し、そのときのロボット2の感情に合わせて合成音声を生成することが望ましい。例えば、語尾等を出題時の状況等に合わせて変化させることが望ましい。
なお、ロボット2による問題文の読み上げのタイミングに合わせて、コンピュータ3によってディスプレイ7を制御し、問題に関する映像や音声をディスプレイ7から出力してもよい。
次に、ロボット2の制御部201(画像取得部22)は周囲の状況を取得する。周囲の状況は、各種のセンサ212による検知信号の他、カメラ4により撮影された画像から取得可能である(ステップS102)。所定の待機時間が経過すると(ステップS103;Yes)、制御部201(画像認識部23)は取得した画像について画像認識処理を行う(ステップS104)。
ステップS104の画像認識処理では、画像に含まれる回答(マーカ5a〜5h)の数及び内容を読み取る。或いは回答者のジェスチャ等を読み取るようにしてもよい。制御部201(応答決定部24)は、回答数が所定の条件を満たすか否かを判定し(ステップS105)、回答数が所定の条件(ある閾値より少ない等)を満たさない場合は(ステップS105;No)、ヒントの提示や回答要求といった応答を行うよう決定する(ステップS106)。制御部201(応答部25)は、問題DB31から問題に紐づけられたヒントデータを読み出して音声処理部209により読み上げたり、回答を要求するような発話やアクションを実行させる。
その後、ステップS102に戻り、ロボット2の制御部201(画像取得部22)は周囲の状況を取得する。所定の待機時間が経過すると(ステップS103;Yes)、制御部201(画像認識部23)は取得した画像について画像認識処理を行う(ステップS104)。ステップS104の画像認識処理で、回答数が所定の条件を満たしたと判定された場合は(ステップS105;Yes)、制御部201(応答決定部24)は、取得した画像データ等から状況を判断し、応答を決定する(ステップS107)。
ステップS107では、複数の回答が得られているので、まず制御部201は複数の回答から1つの回答を導出する。回答の導出方法は、上述したように例えば、(1)問題が択一式の場合、多数決または回答の比率に基づいて1つの回答を導出したり、(2)回答者の属性に基づいて1つの回答を導出したり、(3)ロボット2に近い位置にいる回答者の回答に基づいて1つの回答を導出したりする方法等が考えられる。
更に、1つの回答が導出されると、制御部201は導出した回答に応じた応答を決定する(ステップS107)。例えば、導出した回答が正解であれば、「正解」という発話を行ったり、○を描くアクション等を行わせる。また導出した回答が不正解であれば、ロボット2に「残念」と発話させ、「うつむく」アクションを行わせる。なお、応答を決定する際、回答の正解や不正解、或いは回答者の反応に応じてロボット2の感情状態を変化させ、感情を考慮した発話やアクションを実行させるようにしてもよい。
制御部201は、ステップS107で決定された応答に応じて、音声処理部209による発話や、可動部駆動機構207によるアクションを実行する(ステップS108)。
以上説明したように、ロボット2は問題DB31から問題を取得して音声処理部209等によって読み上げる。また複数の回答者による回答の様子を撮影した画像を取得し、画像認識処理により回答者から得られる複数の回答を認識する。また複数の回答から回答者全体の1つの回答を決定し、決定した回答に対する応答(発話やアクション)を多数決、比率、或いは回答者属性等の所定の条件に基づいて決定し、決定された応答を実行する。これにより、回答者が複数の場合の状況判断をロボット2に適切に行わせ、適切な発話やアクションを行わせることが可能となる。
なお、図4ではロボット2内の制御部201及び記憶部202に、ロボット制御システム1が備える各機能部(問題提示部21、画像取得部22、画像認識部23、応答決定部24、応答部25、問題DB31、条件テーブル241、発話DB32、アクションDB33等)が設けられるものとしているが、ロボット2とは別に設けられるコンピュータ3にこれらの各部やデータを設けるものとしてもよい。また、各機能部の処理はプログラムによって実行されるものとしてもよい。これらの処理に関するプログラムはロボット2の記憶部202またはコンピュータ3の記憶部302に記憶されものとしてもよいし、ネットワーク8を介してロボット2またはコンピュータ3にインストールすることも可能である。
以上、添付図面を参照して、本発明に係るロボット、ロボット制御装置、ロボット制御方法等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1……………………ロボット制御システム
2……………………ロボット
201………………制御部
21…………………問題提示部
22…………………画像取得部
23…………………画像認識部
24…………………応答決定部
241………………条件テーブル
25…………………応答部
3……………………コンピュータ
301………………制御部
31…………………問題DB
32…………………発話DB
33…………………アクションDB
331………………応答決定テーブル
4……………………カメラ
5a〜5h…………マーカ
6a〜6h…………回答者
7……………………ディスプレイ
8……………………ネットワーク

Claims (10)

  1. 問題を提示する問題提示手段と、
    複数の回答者による回答の様子を撮影した画像を取得する画像取得手段と、
    前記画像を解析し、前記回答者から得られる複数の回答を認識する認識手段と、
    前記回答に対する応答を所定の条件に基づき決定する応答決定手段と、
    決定された応答を実行する応答手段と、
    を備えることを特徴とするロボット。
  2. 前記応答決定手段は前記複数の回答から1つの回答を導出し、導出された1つの回答に対する応答を決定することを特徴とする請求項1に記載のロボット。
  3. 前記応答決定手段は前記問題が択一式の場合は多数決または回答の比率に基づいて1つの回答を導出し、導出された1つの回答に対する応答を決定することを特徴とする請求項1に記載のロボット。
  4. 前記認識手段は、各回答者の属性を認識し、
    前記応答決定手段は前記回答者の属性に基づいて複数の回答から1つの回答を導出し、導出された1つの回答に対する応答を決定することを特徴とする請求項1に記載のロボット。
  5. 前記応答決定手段は当該ロボットに近い位置にいる回答者の回答に基づいて1つの回答を導出し、導出された1つの回答に対する応答を決定することを特徴とする請求項1に記載のロボット。
  6. 前記回答はマーカを用いて提示されることを特徴とする請求項1から請求項5のいずれかに記載のロボット。
  7. 前記問題を提示してから前記応答を決定するまでの間に待機時間を設け、
    前記待機時間経過後に前記認識手段による回答の認識を行うことを特徴とする請求項1から請求項4のいずれかに記載のロボット。
  8. 対話型ロボットを制御するロボット制御装置であって、
    前記ロボットに問題を提示させる問題提示手段と、
    複数の回答者による回答の様子を撮影した画像を取得する画像取得手段と、
    前記画像を解析し、前記回答者から得られる複数の回答を認識する認識手段と、
    前記回答に対する応答を所定の条件に基づき決定する応答決定手段と、
    決定された応答を前記ロボットに実行させるよう制御する応答手段と、
    を備えることを特徴とするロボット制御装置。
  9. ロボットが問題を提示するステップと、
    前記ロボットが複数の回答者による回答の様子を撮影した画像を取得するステップと、
    前記ロボットが前記画像を解析し前記回答者から得られる複数の回答を認識するステップと、
    前記ロボットが前記回答に対する応答を所定の条件に基づき決定するステップと、
    決定された応答を前記ロボットが実行するステップと、
    を含むことを特徴とするロボット制御方法。
  10. ロボットを、請求項1に記載のロボットとして機能させるプログラム。
JP2015193389A 2015-09-30 2015-09-30 ロボット、ロボット制御装置、ロボット制御方法、及びプログラム Pending JP2017068592A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015193389A JP2017068592A (ja) 2015-09-30 2015-09-30 ロボット、ロボット制御装置、ロボット制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015193389A JP2017068592A (ja) 2015-09-30 2015-09-30 ロボット、ロボット制御装置、ロボット制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017068592A true JP2017068592A (ja) 2017-04-06

Family

ID=58492624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193389A Pending JP2017068592A (ja) 2015-09-30 2015-09-30 ロボット、ロボット制御装置、ロボット制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2017068592A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196931A (zh) * 2019-06-28 2019-09-03 北京蓦然认知科技有限公司 一种基于图像描述的对话生成方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196931A (zh) * 2019-06-28 2019-09-03 北京蓦然认知科技有限公司 一种基于图像描述的对话生成方法和装置
CN110196931B (zh) * 2019-06-28 2021-10-08 北京蓦然认知科技有限公司 一种基于图像描述的对话生成方法和装置

Similar Documents

Publication Publication Date Title
US20210081056A1 (en) Vpa with integrated object recognition and facial expression recognition
US11367435B2 (en) Electronic personal interactive device
US11871109B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
US8700392B1 (en) Speech-inclusive device interfaces
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
US10657960B2 (en) Interactive system, terminal, method of controlling dialog, and program for causing computer to function as interactive system
US11407106B2 (en) Electronic device capable of moving and operating method thereof
US20190251701A1 (en) System and method for identifying a point of interest based on intersecting visual trajectories
US11232790B2 (en) Control method for human-computer interaction device, human-computer interaction device and human-computer interaction system
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
US20200166991A1 (en) Systems and methods for mixed reality interactions with avatar
WO2019026617A1 (ja) 情報処理装置、及び情報処理方法
Maroto-Gómez et al. Active learning based on computer vision and human–robot interaction for the user profiling and behavior personalization of an autonomous social robot
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP6973380B2 (ja) 情報処理装置、および情報処理方法
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017068592A (ja) ロボット、ロボット制御装置、ロボット制御方法、及びプログラム
JP2017130170A (ja) 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム
JP6972526B2 (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
CN112820265B (zh) 一种语音合成模型训练方法和相关装置
US11430429B2 (en) Information processing apparatus and information processing method
JP6637917B2 (ja) 教育支援システムおよび教育支援方法
JP2018051648A (ja) ロボット制御装置、ロボット、ロボット制御方法、及びプログラム
JP7289169B1 (ja) 情報処理装置、方法、プログラム、およびシステム