JP7051728B2 - 対話型ロボット及びその制御装置 - Google Patents

対話型ロボット及びその制御装置 Download PDF

Info

Publication number
JP7051728B2
JP7051728B2 JP2019011172A JP2019011172A JP7051728B2 JP 7051728 B2 JP7051728 B2 JP 7051728B2 JP 2019011172 A JP2019011172 A JP 2019011172A JP 2019011172 A JP2019011172 A JP 2019011172A JP 7051728 B2 JP7051728 B2 JP 7051728B2
Authority
JP
Japan
Prior art keywords
information
user
interactive robot
content
control command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019011172A
Other languages
English (en)
Other versions
JP2020119364A (ja
Inventor
正和 梅津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2019011172A priority Critical patent/JP7051728B2/ja
Publication of JP2020119364A publication Critical patent/JP2020119364A/ja
Application granted granted Critical
Publication of JP7051728B2 publication Critical patent/JP7051728B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、対話型ロボット及びその制御装置に関するものである。
近年、人と自然な対話を実現することのできる対話型ロボットの開発が進められている。例えば、特許文献1には、相手が発した音声のトーンや相手の表情等から相手の感情を推定し、相手の感情に応じた対話を実現させる対話型ロボットが開示されている。
また、対話型ロボットにユーザと共に映像を視聴しているかのようなアクションを行わせるための開発も進められている。例えば、特許文献2には、ソーシャルメディアサーバから視聴中の番組に関するコメントを取得し、ロボットに設定されたパーソナリティと一致するパーソナリティ一致話者のコメントからロボットに発話させる発話内容を決定するとともに、発話内容の対話状態とロボットの感情状態に基づいてロボットに実行させるアクション内容をアクションデータベースから抽出することにより、視聴中の番組の内容に応じたアクションを実行させるロボットの制御方法が開示されている。
特開2018-72876号公報 特開2015-148701号公報
特許文献2に開示されている対話型ロボットでは、ロボットがユーザと共に映像を視聴しているかのような感覚をユーザに与えることができる。しかしながら、パーソナリティのコメントが必ずしもユーザの思考と合致するわけではないため、ユーザの考えと異なるアクションをロボットがとる可能性があり、ユーザの共感を得ることが難しい。
本発明は、このような事情に鑑みてなされたものであって、ユーザの共感度を向上させることのできる対話型ロボット及びその制御装置を提供することを目的とする。
本発明の第一態様は、撮像部を備える対話型ロボットの制御装置であって、前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得し、前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定する情報取得部と、複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成する制御指令生成部とを具備する対話型ロボットの制御装置である。
本発明の参考例は、撮像部を備える対話型ロボットの制御装置であって、前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得する情報取得部と、前記映像情報に基づいて競技の進行状況に応じた動作を前記対話型ロボットに行わせるための制御指令を生成する制御指令生成部とを具備する対話型ロボットの制御装置である。
本発明の第態様は、撮像部と、音声を取得する音声取得部と、音声を出力する音声出力部と、上記記載の対話型ロボットの制御装置とを具備する対話型ロボットである。
本発明の第態様は、撮像部を備える対話型ロボットの制御方法であって、前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得する工程と、前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定し、複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成する工程とをコンピュータが実行する対話型ロボットの制御方法である。
本発明の第態様は、撮像部を備える対話型ロボットの制御プログラムであって、前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得するステップと、前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定し、複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成するステップとを対話型ロボットに実行させるための制御プログラムである。
本開示によれば、ユーザの共感度を向上させることができるという効果を奏する。
本発明の一実施形態に係る対話型ロボットの外観図である。 本発明の一実施形態に係る対話型ロボットの電気的構成を概略的に示したブロック図である。 本発明の一実施形態に係る対話型ロボットの制御装置が有する各種機能の一部を抽出して示した機能ブロック図である。 本発明の一実施形態に係る対話型ロボットの動作について具体的に説明するための説明図である。
以下に、本発明の一実施形態に係る対話型ロボットおよびその制御装置について、図面を参照して説明する。
図1は、本発明の一実施形態に係る対話型ロボット1の外観図である。本実施形態に係る対話型ロボット1は、携帯可能なロボットとされ、例えば、頭部2、胴体3、右上腕部4a、左上腕部4b、右手部5a、左手部5b、右脚部6a、左脚部6b、右足部7a、及び左足部7bを備えている。これらの各構成要素の接続部(以下「関節部」という。)には図示しないモータが設けられており、モータを駆動させることで頭部2、胴体3、右上腕部4a、左上腕部4b、右手部5a、左手部5b、右脚部6a、左脚部6b、右足部7a、及び左足部7bを動かすことができる。
頭部2には、例えば、カメラ(撮像部)18、マイクロフォン(音声取得部)22、及びスピーカ(音声出力部)26が設けられている。また、胴体3にはタッチ入力デバイス21及びディスプレイ25を備えるタッチパネル14が設けられている。また、胴体3には対話型ロボット1の制御を司る制御装置20等が内蔵されている。なお、これら構成の配置については一例であり、この例に限定されない。例えば、タッチパネル14は対話型ロボット1の背面に設けられていてもよい。
図2は、本発明の一実施形態に係る対話型ロボット1の電気的構成を概略的に示したブロック図である。図2に示すように、対話型ロボット1は、例えば、制御装置20、通信インターフェース15、入力部16、出力部17及びカメラ18を備えている。これら各構成はバス19を介して互いに情報の授受が行える構成とされている。
制御装置20は、例えば、CPU11、CPU11が実行するプログラム及びこのプログラムにより参照されるデータ等を記憶するための補助記憶装置12、各プログラム実行時のワーク領域として機能する主記憶装置13を備えている。
補助記憶装置12として、例えば、HDD(Hard Disk Drive)などの磁気ディスク、光磁気ディスク、SSD(Solid State Drive)等の半導体メモリ等が一例として挙げられる。
後述する各種機能(例えば、図3に示した各種機能)を実現するための一連の処理は、一例として、プログラム(例えば、制御プログラム等)の形式で補助記憶装置12に記憶されており、このプログラムをCPU11が主記憶装置13に読み出して、情報の加工・演算処理を実行することにより、各種機能が実現される。なお、プログラムは、補助記憶装置12に予めインストールされている形態や、他のコンピュータ読み取り可能な記憶媒体に記憶された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等が適用されてもよい。コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等である。
通信インターフェース15は、インターネットに代表されるネットワークに接続され、ネットワークとのインターフェースを図るものである。
入力部16は、ユーザが対話型ロボット1に対して指示を与えるためのユーザインターフェースである。入力部16の一例として、タッチパネル14(図1参照)が備えるタッチ入力デバイス21、マイクロフォン22等が挙げられる。マイクロフォン22によって取得された音声信号は音声認識部(図示略)によって解析され、解析結果が例えば制御装置20に出力される。
出力部17は、制御装置20によって実行されたアプリケーションソフトウェアプロラムの結果や通信インターフェース15によって受信された情報をユーザに通知するものであり、一例として、タッチパネル14が備えるLCD(Liquid Crystal Display)等のディスプレイ25、スピーカ26等が挙げられる。また、出力部17は、表示情報を投影するプロジェクタを備えていてもよい。
図3は、本実施形態に係る制御装置20が有する各種機能の一部を抽出して示した機能ブロック図である。図3に示すように、制御装置20は、例えば、情報取得部32、ユーザデータベース(記憶部)34、制御指令生成部36、制御パターンデータベース38、及びモータ駆動部40を備えている。
情報取得部32は、例えば、図4に示すように、対話型ロボット1が配置された空間に設置されたコンテンツ表示装置の表示画面50に表示されているコンテンツをカメラ18によって撮影することにより取得された映像情報を取得する。
コンテンツ表示装置の一例として、例えば、テレビ受像機、TVチューナー及び通信機能の少なくとも一方を有するパーソナルコンピュータ(例えば、ノートPC、デスクトップPC等)、タブレット端末、スマートフォンなどの携帯電話機等が挙げられる。
また、コンテンツは、例えば、地上デジタル放送サービス、BS(Broadcasting Satellite)、CS(Communications Satellite)デジタル放送サービスから放送されている番組の他、ユーザが録画した番組、動画配信サービスから配信される動画コンテンツ、又は、インターネット上のサーバに不特定多数のユーザが投稿し、共有し、視聴できる動画サイトのコンテンツ等を含む。
ユーザデータベース34には、ユーザ情報が登録されている。ユーザ情報は、例えば、ユーザの嗜好に関する情報を含んでいる。
例えば、ユーザの嗜好に関する情報の一例として、ユーザの好きなチームの情報、ユーザの好きな選手の情報が挙げられる。チームの情報には、チーム名、競技名、そのチームに所属する選手の名前、背番号、ニックネーム、及びポジション等が含まれていてもよい。また、選手の情報には、競技名、その選手の名前、背番号、ニックネーム、及びポジション等、選手が属するチーム名等が含まれていてもよい。なお、上記は例示であり、これ以外の情報が登録されていてもよい。
また、ユーザの嗜好に関する情報の一例として、ユーザの好きな人物の情報、例えば、俳優、タレント、作家、コメンテータ、選手等の名前が挙げられる。
さらに、映像情報を画像解析してこれらの情報が映像情報に含まれているか否かを判定するために、ユーザ情報には、上記人物(選手、俳優、タレント、作家、コメンテータ等)の画像情報等も含まれているとよい。例えば、選手の顔画像や俳優等の顔画像等がその人物の名前と関連付けられて登録されているとよい。
上記ユーザ情報は、例えば、ユーザが予め入力部16を介して入力してもよいし、対話型ロボットとユーザとの間でなされた対話内容から自動的に抽出してもよい。また、ユーザがコンテンツを視聴している際のユーザの表情や発話内容から分析して、ユーザの嗜好情報を抽出し、ユーザ情報に登録することとしてもよい。このようにユーザ情報の取得方法については種々の方法があり、これらを組み合わせて採用することも可能である。
また、ユーザ情報は、ユーザを識別できるためのユーザ識別情報を含んでいてもよい。ユーザ識別情報の一例として、ユーザの声の音声データ、ユーザの顔画像、ユーザ名等があげられる。
制御指令生成部36は、情報取得部32によって取得された映像情報とユーザ情報とに基づいて、ユーザの嗜好に共感する行動を対話型ロボット1に行わせるための制御指令を生成する。
例えば、制御指令生成部36は、映像情報を解析し、映像情報にユーザ情報に登録されているユーザの好きなチームまたは選手が含まれていると判定した場合に、所定の動作を対話型ロボット1に行わせるための制御指令を生成する。例えば、制御指令生成部36は、映像情報を解析し、ユーザ情報に登録されているユーザの好きなチームまたは選手が表示画面50に表示されていると判定した場合に、映像情報におけるチームまたは選手の競技の進行状況に応じて、制御指令を生成する。
例えば、ユーザの好きなチームが表示画面50に表示されているか否かは、映像情報を画像処理することにより、ユーザの好きなチーム名やそのチームに属する選手の名前が映像情報に含まれているか否かによって判定することが可能である。また、ユーザの好きな選手が表示画面50に表示されているか否かは、映像情報を画像処理することにより、ユーザの好きな選手の名前や背番号等が映像情報に含まれているか否かによって判定することが可能である。
また、映像情報だけでなく、例えば、対話型ロボット1が備えるマイクロフォン22から音声データを取得し、音声データを解析することによって、ユーザの好きなチームまたは選手であるか否かを判定することが可能である。また、例えば、通信インターフェース15を介して電子番組ガイド(Electronic Program Guide)の情報を取得し、現在の放送枠にユーザの好きなチームの試合またはユーザの好きな人物が登場する競技やドラマ等が放映されているか否かの情報も補助情報として使用してもよい。
また、対話型ロボット1から表示画面50に表示されているコンテンツを問い合わせる対話をユーザと行うことにより、ユーザの好きなチームや人物が表示画面50に表示されているかを判定することとしてもよい。
競技の進行状況については、映像情報を解析し、映像情報に含まれる競技の進行に関するパラメータを示した情報を解析することにより得ることが可能である。競技の進行状況の一例として、例えば、得点を競う競技であれば得点に基づく進行状況、順位を競う競技であれば順位に基づく進行状況、距離を競う競技であれば距離に基づく進行状況、時間を競う競技であれば時間に基づく進行状況、イニング、ゲーム数、セット数、ホール数で進行する競技であればそれらに基づく進行状況、競技時間が決まっている競技であれば残り時間に基づく進行状況、ゴールの場所が決まっている競技であれば、ゴールまでの距離に基づく進行状況、決まった順番で選手が登場するのであればその順序に基づく進行状況等が挙げられる。
また、競技の進行に関するパラメータを示した情報の一例として、例えば、野球であれば、得点表、進塁状況、ボールカウント、アウトカウント、イニング、打順等が挙げられ、サッカーであれば、残り時間、ロスタイム、得点等が挙げられ、ゴルフであれば、ユーザが好きな選手の順位、カップイン映像、飛距離、カップまたはグリーンまでの残り距離等が挙げられ、テニスであれば、ゲームカウント、セットカウント、ウィナー映像が挙げられ、水泳や陸上であれば、ゴール間近の映像が挙げられ、フィギュアスケートやスキージャンプであれば、出場順、順位等が挙げられる。
上述した競技の進行に関するパラメータを示した情報は、表示態様(形状、画面における表示位置、デザイン等)がパターン化されていることが多いため、画像認識によって容易に認識することが可能である。
また、映像情報に加えて、マイクロフォン22から取得した音声データを解析することにより、競技の進行を把握することしてもよい。
制御パターンデータベース38には、競技の進行状況と制御指令とが関連付けられており、制御パターンデータベース38から競技の進行状況に応じた制御指令を選択することにより、競技の進行状況に応じた制御指令を生成することが可能である。また、このような制御パターンを予めデータベースに格納している場合の他、ディープラーニング技術等の人工知能などを用いて、状況に応じた行動パターンを取らせることとしてもよい。これにより、例えば、ユーザの好きなチームが勝っている場合には、うれしそうな行動をとる制御指令を生成したり、負けている場合には、積極的に応援するような行動をとる制御指令を生成することが可能である。また、競技のクライマックス、例えば、競泳ではゴール間近の場合などに白熱した応援を行うような制御指令を生成することとしてもよい。このように、各競技において、どのような進行状況の場合にどのような行動パターンを取らせるのかについては、適宜設定することが可能であるし、人工知能などを用いてその時々で動的に行動パターンを変化させることも可能である。
制御指令の一例として、対話型ロボット1の各関節部に設けられた各モータの制御パターンが挙げられる。また、制御指令は、対話型ロボット1から発話させる発話情報を含んでいてもよい。これにより、対話型ロボット1の動作と発話により、ユーザの嗜好に共感する行動を対話型ロボット1に取らせることができる。
モータ駆動部40は、制御指令生成部36によって生成された制御指令に基づいて各関節部に設けられているモータを駆動する。これにより、所望のパターンで対話型ロボット1を動作させることができる。例えば、ユーザの好きなチームが勝っているときは、楽しいダンスを躍らせたり、ユーザの好きなチームが負けているときには、両手を口に近づけてあたかもチームを応援しているような動作をさせることができる。
次に、上述した対話型ロボット1の制御方法について具体例を挙げて図4を参照して説明する。以下の説明では、コンテンツ表示装置の表示画面50にユーザの好きなチームAの野球中継が表示され、ユーザが試合を視聴している場合を例示して説明する。
このような場合、表示画面50に表示されている野球中継の映像情報が対話型ロボット1のカメラ18によって撮影され、映像情報が制御装置20に出力される。
制御装置20の情報取得部32は、カメラ18によって取得された映像情報を制御指令生成部36に出力する。制御指令生成部36は、映像情報を解析し、現在表示されているコンテンツがチームAとチームDとの野球の試合であること、チームAの得点が3点、チームDの得点が2点であり、チームAが勝っていることなどの試合の経過情報を取得する。
続いて、制御指令生成部36は、ユーザデータベース34に格納されているユーザ情報に基づいて、ユーザが好きなチームの試合が表示されているかを確認する。この結果、現在、表示画面50に表示されているのは、ユーザの好きなチームAの試合であるので、ユーザの嗜好に合わせ、チームAの試合経過(競技の進行状況)に応じた行動を対話型ロボット1に取らせる。具体的には、現在のチームAの得点は3点でありチームDに勝っているので、制御指令生成部36は、制御パターンデータベース38から試合に勝っている場合の制御指令を抽出し、制御指令を生成する。
制御指令生成部36によって生成された制御指令はモータ駆動部40に出力される。モータ駆動部40は、制御指令に基づいてモータを駆動させることにより、対話型ロボット1に制御指令に基づく行動を取らせることができる。これにより、例えば、試合に勝っていることを喜ぶ動作等を対話型ロボット1に取らせることができる。
そして、上述した各部の処理が繰り返し行われることにより、表示画面50に表示されている進行状況に応じた反応を対話型ロボット1に取らせることが可能となる。
例えば、ユーザの好きな選手(例えば、ピッチャー)が登板している場合に、その選手を応援するような行動を取らせたり、好きな選手がヒットを打った場合に喜ぶ行動を取らせたりすることができる。
このような対話型ロボット1の行動は、いずれも映像情報から取得できる競技の進行状況や場面と、その進行状況や場面に応じた制御パターンが制御パターンデータベース38に予め格納されていることで実現することができる。
また、上記例は、野球中継を例示していたが、例えば、ユーザの好きな人物(例えば、俳優)が出演するドラマが表示画面50に表示されていた場合には、ユーザの好きな俳優の行動に応じた動作、例えば、その俳優が発したセリフを対話型ロボット1に繰り返させたり、また、ユーザの好きなタレントが出演するバラエティ番組が表示画面50に表示されていた場合には、ユーザの笑いに合わせて対話型ロボット1も笑うような行動を取らせることとしてもよい。
以上、説明してきたように、本実施形態に係る対話型ロボット及びその制御装置によれば、表示画面50に表示されている映像情報をカメラ18によって取得し、この映像情報とユーザデータベース34に格納されているユーザ情報とに基づいて、ユーザの嗜好に応じた行動を取らせるための制御指令を生成し、この制御指令に基づいて対話型ロボット1を制御する。これにより、ユーザの嗜好に応じた行動を対話型ロボット1に取らせることができる。この結果、ユーザの共感度を高めることが可能となる。
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。
例えば、上記制御指令生成部36が生成する制御指令は、対話型ロボット1の動作を制御するための制御指令に限定されず、例えば、コンテンツ表示装置の音量を大きくしたり、対話型ロボット1が配置された空間の照明装置の照度を調整するなど、他の装置を制御するような制御指令を含んでいてもよい。
更に、表示画面50にコンテンツが表示されている場合でも、ユーザがそのコンテンツを視聴しているかどうかはわからない。このため、ユーザがコンテンツを視聴しているか否かに応じて対話型ロボット1がとる行動を変えることとしてもよい。
ユーザが視聴しているか否かを判定するためには、例えば、対話型ロボット1が配置された空間をカメラ18によって撮影し、取得した画像情報の中にユーザの画像情報が含まれているか否かを判定することにより、まず、ユーザがその空間にいるか否かを判定することができる。次に、カメラ18によって取得された画像情報にユーザの画像情報が含まれていた場合には、ユーザの顔または目線が表示画面50の方向を向いているか否かによって、コンテンツを視聴しているか否かを判定することができる。
そして、ユーザがコンテンツを視聴している場合には、上述したようにユーザの嗜好に共感するような行動を対話型ロボット1に取らせることとすればよい。
また、ユーザがコンテンツを視聴していないと判定した場合には、表示画面50に表示されているコンテンツの場面に応じてユーザに対して視聴を促すような制御指令を生成することとしてもよい。例えば、コンテンツの映像情報にユーザの好きな選手が含まれている場合や、ユーザの好きな人物(例えば、俳優等)が含まれている場合に、「**選手が打席に立ったよ」、「**投手が登板するよ」、「**選手がヒットを打ったよ」、「**さんが出演しているよ」などのような発話を行わせ、ユーザに視聴を促すこととしてもよい。
更に、ユーザが周囲にいない場合には、ユーザがコンテンツを視聴していない場合に発する内容を音声ボリュームを上げて発話させたり、あるいは、予め登録されている所定の宛先に対して視聴を促すようなメッセージを送信することとしてもよい。また、このような行動に代わって、あるいは、加えて、ユーザの嗜好に応じてコンテンツの録画を開始させてもよい。すなわち、好きなチームまたは好きな選手や人物(俳優、タレント等)の画像が映像情報に含まれている場合に、表示画面50に表示されているコンテンツの録画を開始させることしてもよい。
なお、コンテンツ表示装置が配置されている空間にユーザがいるか否かを判定する方法として、上述した画像データを使用する手法以外にも以下の手法を取りうる。
例えば、対話型ロボット1が配置された空間(例えばリビングルーム)やその空間を含む近隣の空間(例えば家の中のその他の部屋)に配置された各種のセンサの出力信号を受信し、受信した出力信号に基づいてユーザの有無を判定することとしてもよい。ここで、各種センサとしては、音センサ、赤外線センサを含む人感センサ、電子機器等に設けられ使用状況に応じた信号を出力するセンサ等が挙げられる。
また、対話型ロボット1に備えられたカメラ18以外の他の撮像部によって取得された画像データに基づいてユーザの有無を判定することとしてもよいし、対話型ロボット1に人感センサが設けられている場合には、その人感センサからの出力に基づいてユーザの有無を判定してもよい。
また、上記各種センサは、単体で配置されていてもよいし、他の機器(コンテンツ表示装置も含む)に内蔵される形で配置されていてもよい。
また、表示画面50に表示されるコンテンツが録画コンテンツの場合には、すでに競技の結果や競技の進行状況がわかっている。この場合には、通信インターフェース15を介してネットワークに接続し、競技の結果及び競技の進行状況の情報を取得し、これらの情報と映像情報とから制御指令を生成することしてもよい。
例えば、録画の場合には、点が入った時刻、ヒットがでた時刻、エラーが発生した時刻等のイベントの発生タイミングを特定することができるので、表示画面50に表示されている録画コンテンツの進行に合わせて、もうすぐ点数が入りそうである、ヒットが出そうである、エラーが出そうである等のイベントが発生することが把握できる。したがって、このようなイベント発生のタイミングに合わせて、ユーザの視聴を促す動きや発話を行うことで、よりコンテンツ視聴を楽しませることができる。
また、上記イベントの発生については、競技だけでなく、ドラマやその他の番組に関しても該当する。例えば、ドラマであれば、ユーザが好きな俳優が登場するタイミングを特定することができ、このタイミングで登場した俳優の行動に応じた動作を対話型ロボット1に取らせることができる。
また、上述した実施形態では、ユーザデータベース34に一人のユーザに関するユーザ情報が格納されている場合を想定して説明したが、複数のユーザに関するユーザ情報がユーザデータベース34に格納されていてもよい。
この場合、ユーザ情報には、上述した各種情報に加えて、ユーザの優先度に関する情報が登録されていてもよい。例えば、複数のユーザが同じコンテンツを視聴している場合であって、それぞれのユーザの嗜好が異なる場合、例えば、競合するチームまたは選手をお互いに好きな場合は、どちらの嗜好に応じて対話型ロボット1を制御すればよいのかわからない。このような場合に対応すべく、ユーザの優先順位を予め登録しておき、優先順位の最も高いユーザの嗜好に応じた行動を対話型ロボット1に行わせることとする。
なお、各ユーザの識別は顔画像や声の音声などで判別することが可能である。
また、上述した実施形態では、ユーザの嗜好に応じた動作を対話型ロボット1に取らせていたが、例えば、ユーザの嗜好にかかわらず、表示画面に表示されているコンテンツの進行に応じた動作を対話型ロボット1に取らせることとしてもよい。例えば、コンテンツとして競技の映像が表示画面に表示されている場合には、その競技の進行状況に応じた動作を対話型ロボット1に取らせることとしてもよい。ここで、進行状況の例示について上述した通りである。例えば、水泳、陸上等の競技は、一位の選手にかかわらずゴール間近において盛り上がりを見せる。したがって、このような競技の盛り上がりに応じたタイミングで対話型ロボット1に応援するような動作を取らせることにより、ユーザの共感を得ることができる。
また、上述した実施形態では、制御装置20が対話型ロボット1に搭載されている場合を例に挙げて説明したが、制御装置20は対話型ロボット1とは別個に存在してもよい。例えば、ノートPC、デスクトップPC、タブレット端末、スマートフォンなどの携帯電話機等の情報処理装置に制御装置20の機能を実現するためのプログラムを搭載させ、情報処理装置と対話型ロボット1とを通信によって接続することにより、情報処理装置から対話型ロボット1を制御するような構成としてもよい。
1 :対話型ロボット
2 :頭部
3 :胴体
4a :右上腕部
4b :左上腕部
5a :右手部
5b :左手部
6a :右脚部
6b :左脚部
7a :右足部
7b :左足部
11 :CPU
12 :補助記憶装置
13 :主記憶装置
14 :タッチパネル
15 :通信インターフェース
16 :入力部
17 :出力部
18 :カメラ
19 :バス
20 :制御装置
21 :タッチ入力デバイス
22 :マイクロフォン
25 :ディスプレイ
26 :スピーカ
32 :情報取得部
34 :ユーザデータベース
36 :制御指令生成部
38 :制御パターンデータベース
40 :モータ駆動部
50 :表示画面

Claims (13)

  1. 撮像部を備える対話型ロボットの制御装置であって、
    前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得し、前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定する情報取得部と、
    複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成する制御指令生成部と
    を具備する対話型ロボットの制御装置。
  2. 前記ユーザ情報には、ユーザの好きなチームまたは選手の情報が登録されており、
    前記制御指令生成部は、前記映像情報に前記ユーザ情報に登録されているユーザの好きなチームまたは選手が含まれていると判定した場合に、ユーザの嗜好に共感する動作を前記対話型ロボットに行わせるための制御指令を生成する請求項1に記載の対話型ロボットの制御装置。
  3. 前記制御指令生成部は、前記映像情報に前記ユーザ情報に登録されているユーザの好きなチームまたは選手が含まれていると判定した場合に、前記映像情報における前記チームまたは選手の競技の進行に応じた前記制御指令を生成する請求項2に記載の対話型ロボットの制御装置。
  4. 前記制御指令生成部は、前記映像情報に含まれる競技の進行に関するパラメータを示した情報を解析することにより、前記ユーザの好きなチームまたは選手の競技の進行に関する情報を取得し、取得した前記情報に応じた前記制御指令を生成する請求項2または3に記載の対話型ロボットの制御装置。
  5. 前記ユーザ情報には、ユーザの好きな人物の情報が登録されており、
    前記制御指令生成部は、前記映像情報に前記ユーザ情報に登録されているユーザの好きな人物が含まれていると判定した場合に、前記人物の行動に応じた動作を前記対話型ロボットに行わせるための制御指令を生成する請求項1から4のいずれかに記載の対話型ロボットの制御装置。
  6. ユーザを識別するための識別情報、ユーザの嗜好に関する情報、及び優先度が互いに関連付けられた複数のユーザ情報が格納されているユーザデータベースを備える請求項1から5のいずれかに記載の対話型ロボットの制御装置。
  7. 前記情報取得部は、前記対話型ロボットが配置された空間にユーザがいるか否かを判定し、前記空間にユーザがいる場合に、前記ユーザ情報と前記映像情報に基づいて前記制御指令を生成する請求項1から6のいずれかに記載の対話型ロボットの制御装置。
  8. 前記情報取得部は、ユーザが前記コンテンツ表示装置の表示画面に表示されているコンテンツを視聴しているか否かを判定し、前記判定の結果と前記ユーザ情報と前記映像情報とに基づいて前記制御指令を生成する請求項1から7のいずれかに記載の対話型ロボットの制御装置。
  9. 前記情報取得部は、前記映像情報に加えて、前記コンテンツ表示装置の表示画面に表示されているコンテンツの音声情報及びネットワーク上で公開されている前記コンテンツの情報の少なくともいずれか一方を取得し、
    前記制御指令生成部は、前記情報取得部によって取得された情報を用いて前記制御指令を生成する請求項1から8のいずれかに記載の対話型ロボットの制御装置。
  10. 前記コンテンツ表示装置の表示画面に表示されているコンテンツが録画されたコンテンツである場合に、前記情報取得部は、録画された前記コンテンツの情報をネットワークを通じて取得し、
    前記制御指令生成部は、前記コンテンツの情報からイベント発生のタイミングを特定し、前記映像情報における前記イベント発生のタイミングで該イベントに応じた動作を前記対話型ロボットに行わせるための制御指令を生成する請求項1から9のいずれかに記載の対話型ロボットの制御装置。
  11. 撮像部と、
    音声を取得する音声取得部と、
    音声を出力する音声出力部と、
    請求項1から10のいずれかに記載のロボットの制御装置と
    を具備する対話型ロボット。
  12. 撮像部を備える対話型ロボットの制御方法であって、
    前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得する工程と、
    前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定し、複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成する工程と
    をコンピュータが実行する対話型ロボットの制御方法。
  13. 撮像部を備える対話型ロボットの制御プログラムであって、
    前記対話型ロボットが配置された空間に設置されたコンテンツ表示装置の表示画面に表示されているコンテンツの映像情報を前記撮像部を介して取得するステップと、
    前記対話型ロボットが配置された空間に複数のユーザがいるか否かを判定し、複数の前記ユーザがいる場合に、前記映像情報と、ユーザの嗜好に関する情報を含むユーザ情報とに基づいて、前記映像情報に対応して、前記コンテンツを視聴する複数の前記ユーザのうち、予め設定された優先度の最も高いユーザの嗜好に共感する動作である所定の動作を前記対話型ロボットに行わせるための制御指令を生成するステップと
    を対話型ロボットに実行させるための制御プログラム。
JP2019011172A 2019-01-25 2019-01-25 対話型ロボット及びその制御装置 Active JP7051728B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019011172A JP7051728B2 (ja) 2019-01-25 2019-01-25 対話型ロボット及びその制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011172A JP7051728B2 (ja) 2019-01-25 2019-01-25 対話型ロボット及びその制御装置

Publications (2)

Publication Number Publication Date
JP2020119364A JP2020119364A (ja) 2020-08-06
JP7051728B2 true JP7051728B2 (ja) 2022-04-11

Family

ID=71890899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019011172A Active JP7051728B2 (ja) 2019-01-25 2019-01-25 対話型ロボット及びその制御装置

Country Status (1)

Country Link
JP (1) JP7051728B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7208552B2 (ja) * 2020-08-18 2023-01-19 株式会社カプコン 応援支援システムおよび応援支援方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074207A (ja) 2004-08-31 2006-03-16 Toshiba Corp 移動型情報装置とこの移動方法、及び情報システムと位置推定方法
JP2006245941A (ja) 2005-03-02 2006-09-14 Sharp Corp コンテンツ視聴システム、コンテンツ受信装置およびコンテンツ視聴用家庭内機器
JP2007088803A (ja) 2005-09-22 2007-04-05 Hitachi Ltd 情報処理装置
JP2015148701A (ja) 2014-02-06 2015-08-20 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016036883A (ja) 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016186741A (ja) 2015-03-27 2016-10-27 株式会社東芝 電子機器およびその制御方法
JP2018098545A (ja) 2016-12-08 2018-06-21 カシオ計算機株式会社 ロボット、動作制御システム、動作制御方法及びプログラム
JP2018180472A (ja) 2017-04-21 2018-11-15 日本放送協会 制御装置、制御方法及び制御プログラム
JP2018187712A (ja) 2017-05-02 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント オブジェクト制御システムおよびオブジェクト制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074207A (ja) 2004-08-31 2006-03-16 Toshiba Corp 移動型情報装置とこの移動方法、及び情報システムと位置推定方法
JP2006245941A (ja) 2005-03-02 2006-09-14 Sharp Corp コンテンツ視聴システム、コンテンツ受信装置およびコンテンツ視聴用家庭内機器
JP2007088803A (ja) 2005-09-22 2007-04-05 Hitachi Ltd 情報処理装置
JP2015148701A (ja) 2014-02-06 2015-08-20 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016036883A (ja) 2014-08-08 2016-03-22 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2016186741A (ja) 2015-03-27 2016-10-27 株式会社東芝 電子機器およびその制御方法
JP2018098545A (ja) 2016-12-08 2018-06-21 カシオ計算機株式会社 ロボット、動作制御システム、動作制御方法及びプログラム
JP2018180472A (ja) 2017-04-21 2018-11-15 日本放送協会 制御装置、制御方法及び制御プログラム
JP2018187712A (ja) 2017-05-02 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント オブジェクト制御システムおよびオブジェクト制御方法

Also Published As

Publication number Publication date
JP2020119364A (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
US10987596B2 (en) Spectator audio analysis in online gaming environments
CN111201069B (zh) 对在现实世界场地中举行的现场事件中所展示的交互式游戏世界的旁观者视图
US8177611B2 (en) Scheme for inserting a mimicked performance into a scene and providing an evaluation of same
US9399165B2 (en) Game device, game control method, recording medium and game management device
JP7170077B2 (ja) プログラム
US9044684B2 (en) Gender and age based gameplay through face perception
JP7349348B2 (ja) キャラクタ制御用プログラム、方法、および情報処理装置
JP2007300562A (ja) 画像処理装置および画像処理方法
JP2023162234A (ja) プログラムおよびコンピュータシステム
WO2018203453A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7051728B2 (ja) 対話型ロボット及びその制御装置
US11845012B2 (en) Selection of video widgets based on computer simulation metadata
US20210402297A1 (en) Modifying computer simulation video template based on feedback
US20210402309A1 (en) Generating video clip of computer simulation from multiple views
JP5318016B2 (ja) ゲームシステム、ゲームシステムの制御方法、及びプログラム
KR102430547B1 (ko) 게임 플레이 콘텐츠 제작 장치
JP7258923B2 (ja) プログラム
US11554324B2 (en) Selection of video template based on computer simulation metadata
US20230381673A1 (en) eSPORTS SPECTATOR ONBOARDING
JP7386927B2 (ja) プログラム、方法、および情報処理装置
US20230381674A1 (en) Triggering virtual help or hindrance based on audience participation tiers
JP7140996B2 (ja) ゲーム関連サービス提供プログラムならびにサーバ装置
JP2024070696A (ja) 情報処理システム、情報処理方法、およびプログラム
JP2011130951A (ja) データ再現プログラム、データ再現装置、データ再現方法
US20180232447A1 (en) Game assistance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150