JP2018051648A - ロボット制御装置、ロボット、ロボット制御方法、及びプログラム - Google Patents
ロボット制御装置、ロボット、ロボット制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2018051648A JP2018051648A JP2016188003A JP2016188003A JP2018051648A JP 2018051648 A JP2018051648 A JP 2018051648A JP 2016188003 A JP2016188003 A JP 2016188003A JP 2016188003 A JP2016188003 A JP 2016188003A JP 2018051648 A JP2018051648 A JP 2018051648A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- content
- viewer
- robot control
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 視聴者の興味を引くコンテンツを実行することが可能なロボットを実現するためのロボット制御装置、ロボット、ロボット制御方法、及びプログラムを提供する。【解決手段】 ロボット制御装置3は、ロボット2の周囲(視聴エリア7)に集まる視聴者の人数を監視するとともに、ロボット2により実行されるコンテンツに対する視聴者の反応を取得し、視聴者の反応に基づいて関心度を求め、コンテンツの実行に伴う視聴者の人数の増減及び関心度の変化に基づきコンテンツを評価する。また、ロボット制御装置3は評価の結果に基づきロボット2が実行するコンテンツを決定する。これにより、刻一刻と変化する視聴者の状態を把握し、コンテンツと視聴者の心理、行動の変化の相関関係を認識できる。【選択図】図1
Description
本発明は、ロボット制御装置、ロボット、ロボット制御方法、及びプログラムに関し、詳細には、対話型ロボットを制御する技術に関する。
近年、人との対話が可能なロボットが開発されている。この種のロボットは、対話のための音声認識機能や発話機能を持つ他、対話相手の表情や音声感情、明るさや温度等の周囲の状況を音声・画像認識エンジンや各種のセンサにより読み取ることができる。また読み取った内容に応じてロボット自身の感情も変化させ、ディスプレイで感情を可視化したり、感情に応じた発話を実行する機能を持つものもある。また、ロボットの頭や腕、腰等に可動部を設け、対話や指令の内容に応じたアクションを行わせることも可能となっている。
例えば特許文献1には、ロボットにユーザと共に映像を視聴しているかのようなアクションを実行させるロボット制御方法について記載されている。このロボット制御方法では、ソーシャルメディアサーバから視聴中の番組に関するコメントを取得し、ロボットに設定されたパーソナリティと一致するパーソナリティ一致話者のコメントからロボットに発話させる発話内容を決定するとともに、発話内容の対話状態とロボットの感情状態に基づいてロボットに実行させるアクション内容をアクションデータベースから抽出して、視聴中の番組の内容に応じたアクションをロボットに実行させている。
しかしながら、特許文献1のロボット制御方法は、ロボットの発話内容やアクションの内容をソーシャルメディアサーバから得た情報に基づいて決定するものであり、ロボットの前の多数の視聴者の状況から判断するものではない。例えば、ロボットがイベント会場等で芸(コンテンツ)を複数の視聴者に対して実施する場合、視聴者数や視聴者の反応を判断し、芸(コンテンツ)に対する評価を解析することで、視聴者の関心度の高いコンテンツを実行し集客力を向上させたいといった要望がある。また、このとき視聴者の年齢や性別等の属性毎にコンテンツに対する評価を解析することが望ましい。
本発明は、視聴者の興味を引くコンテンツを実行することが可能なロボットを実現するためのロボット制御装置、ロボット、ロボット制御方法、及びプログラムを提供することを目的とする。
前述した課題を解決するための第1の発明は、視聴者に対しコンテンツを実行するロボットを制御するロボット制御装置であって、設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視する監視手段と、前記監視手段により得られた人数の増減に基づき前記コンテンツを評価する評価手段と、前記評価手段による評価の結果に基づき前記ロボットが実行するコンテンツを決定する決定手段と、を備えることを特徴とするロボット制御装置である。
第1の発明によれば、ロボット制御装置は、ロボットの周囲(視聴エリア)に集まる視聴者の人数を監視し、コンテンツの実行に伴う視聴者の人数の増減に基づきコンテンツを評価し、評価の結果に基づきロボットが実行するコンテンツを決定する。これにより、コンテンツと視聴者の心理、行動の変化の相関関係を認識できる。その結果、視聴者の興味を引き、視聴者を誘引するような効果的なコンテンツを学習することができ視聴者の評価の高いコンテンツを実行して集客力を向上させることが可能となる。
第1の発明において、実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、前記反応取得手段により得られた視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、を備え、前記決定手段は、前記評価手段による評価の結果及び前記関心度算出手段により求められた関心度の変化に基づき前記ロボットが実行するコンテンツを決定することが望ましい。これにより、視聴者の反応から関心度を求め、視聴者の人数の増減による評価結果と併せて関心度の変化を考慮してロボットが実行するコンテンツを決定できる。これにより、コンテンツに対する視聴者の心理、行動の変化をより高度に認識し、ロボットの行動に反映させることができる。ここで、反応取得手段は、視聴者によるロボットへの接触回数を視聴者の反応として取得することが望ましい。或いは、反応取得手段は、視聴エリアから取得した音声情報を解析することにより視聴者の反応を取得することが望ましい。或いは、視聴エリアを撮影した画像から各視聴者の視聴エリアでの滞留時間を計測し、計測した滞留時間に基づいて視聴者の反応を求めることが望ましい。或いは、視聴エリアを撮影した画像から各視聴者の表情を解析し、解析した表情に基づいて視聴者の反応を求めることが望ましい。
また、第1の発明において評価手段は、視聴者の人数または関心度のうち少なくともいずれか一方が増加した場合にコンテンツに対してポイントを付与することが望ましい。これにより、視聴者の人数が増加または関心度が増加するとポイントが増加するという評価を与えることができる。
また、第1の発明において、前記視聴者の属性情報を解析または取得する属性情報取得手段と、前記評価手段による評価の結果を前記視聴者の属性毎に記憶する記憶手段と、を更に備え、前記決定手段は、前記記憶手段に記憶された前記視聴者の属性毎の評価の結果に応じて効果の高いコンテンツを優先的に実行するよう決定することが望ましい。これにより視聴者の属性に合わせて評価の高いコンテンツを優先的に実行可能となる。
また、第1の発明のロボット制御装置はロボット本体に設けられることが望ましい。この場合は、ロボット単体でコンテンツの評価を求めることができるため装置構成を簡易にすることができる。また、第1の発明のロボット制御装置はロボット本体とは別に設けられてもよい。この場合は、ロボットとは別に設けられたロボット制御装置を用いてロボットが実行するコンテンツの評価を行うため、ロボットの負荷が少なくロボットの動作を妨げることなく評価処理を行える。
第2の発明は、視聴者に対しコンテンツを実行するコンテンツ実行手段と、設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視する監視手段と、前記監視手段により得られた人数の増減に基づき前記コンテンツを評価する評価手段と、前記評価手段による評価の結果に基づき前記ロボットが実行するコンテンツを決定する決定手段と、を備えることを特徴とするロボットである。
第2の発明によれば、ロボットは、ロボットの周囲(視聴エリア)に集まる視聴者の人数を監視し、コンテンツの実行に伴う視聴者の人数の増減に基づきコンテンツを評価し、評価の結果に基づき実行するコンテンツを決定する。これにより、コンテンツと視聴者の心理、行動の変化の相関関係を認識できる。その結果、視聴者の興味を引き、視聴者を誘引するような効果的なコンテンツを学習することができ視聴者の評価の高いコンテンツを実行して集客力を向上させることが可能となる。
第3の発明は、視聴者に対しコンテンツを実行するロボットを制御するロボット制御方法であって、設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視するステップと、前記視聴者の人数の増減に基づき前記コンテンツを評価するステップと、前記評価の結果に基づき前記ロボットが実行するコンテンツを決定するステップと、を含むことを特徴とするロボット制御方法である。
第3の発明によれば、ロボットの周囲(視聴エリア)に集まる視聴者の人数を監視し、コンテンツの実行に伴う視聴者の人数の増減に基づきコンテンツを評価し、評価の結果に基づき実行するコンテンツを決定する。これにより、コンテンツと視聴者の心理、行動の変化の相関関係を認識できる。その結果、視聴者の興味を引き、視聴者を誘引するような効果的なコンテンツを学習することができ視聴者の評価の高いコンテンツを実行して集客力を向上させることが可能となる。
第4の発明は、コンピュータを、第1の発明のロボット制御装置として機能させるプログラムである。第4の発明により、コンピュータを第1の発明のロボット制御装置として機能させることが可能となる。
本発明により、視聴者の興味を引くコンテンツを実行することが可能なロボットを実現するためのロボット制御装置、ロボット、ロボット制御方法、及びプログラムを提供できる。
以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。
図1は、ロボット制御システム1のシステム構成の一例を示す図である。ロボット制御システム1は、ロボット2、コンピュータ3、カメラ4、及びマイク5を備えて構成される。ロボット2、カメラ4、及びマイク5はコンピュータ3に通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、カメラ4、マイク5とコンピュータ3との通信接続の形態は、有線、無線を問わない。カメラ4は図2に示すように、視聴エリア7を含む範囲を撮像するビデオカメラである。カメラ4に替えてロボット2に内蔵されるカメラ210を用いて視聴エリア7を含む範囲を撮像することもできる。その場合はカメラ4を省略してよい。視聴エリア7は、カメラ4またはカメラ210の撮影範囲内に任意に設定される特定の範囲とする。図2は視聴エリア7の内外に複数の視聴者6が存在する例を示しているが、視聴者6の人数は時間の経過に伴い増減するため図2の例に限定されない。マイク5は図2に示すように、視聴エリア7内の音声を収集する。マイク5に替えてロボット2に内蔵されるマイク211を用いて視聴エリア7内の音声情報を得ることもできる。その場合はマイク5を省略してよい。
図1は、ロボット制御システム1のシステム構成の一例を示す図である。ロボット制御システム1は、ロボット2、コンピュータ3、カメラ4、及びマイク5を備えて構成される。ロボット2、カメラ4、及びマイク5はコンピュータ3に通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、カメラ4、マイク5とコンピュータ3との通信接続の形態は、有線、無線を問わない。カメラ4は図2に示すように、視聴エリア7を含む範囲を撮像するビデオカメラである。カメラ4に替えてロボット2に内蔵されるカメラ210を用いて視聴エリア7を含む範囲を撮像することもできる。その場合はカメラ4を省略してよい。視聴エリア7は、カメラ4またはカメラ210の撮影範囲内に任意に設定される特定の範囲とする。図2は視聴エリア7の内外に複数の視聴者6が存在する例を示しているが、視聴者6の人数は時間の経過に伴い増減するため図2の例に限定されない。マイク5は図2に示すように、視聴エリア7内の音声を収集する。マイク5に替えてロボット2に内蔵されるマイク211を用いて視聴エリア7内の音声情報を得ることもできる。その場合はマイク5を省略してよい。
図2は、ロボット2が視聴者6に対しコンテンツを実行する様子を表す概念図である。カメラ4またはロボット2に内蔵されるカメラ210はロボット2の周囲を視聴エリア7として撮影し、撮影した画像をコンピュータ3に入力する。またマイク5またはロボット2に内蔵されるマイク211は視聴エリア7の音声を収集し、取得した音声情報をコンピュータ3に入力する。コンピュータ3は、カメラ4またはカメラ210からの画像、及びマイク5またはマイク211からの音声情報を取得する。またコンピュータ3は、ロボット2、カメラ4、及びマイク5の動作を制御する。
ロボット2は、対話型のロボットである。図3に示すように、ロボット2は、制御部201、記憶部202、入力部203、表示部204、メディア入出力部205、通信I/F206、可動部駆動機構207、周辺機器I/F部208、音声処理部209、カメラ210、マイク211、センサ212、及びスピーカ213がバス220を介して接続されて構成される。
制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部202、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス220を介して接続された各部を駆動制御する。
ROMは、ロボット2のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部201が各種処理を行うために使用するワークエリアを備える。
記憶部202は、制御部201が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部201により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
また記憶部202は、ロボット2がコンテンツに含まれる発話やアクション(芸や応答等)を実行するための動作手順を定義した発話DBやアクションDB等の各種のデータベースを有する。
発話DBは、文字情報(テキストデータ)と音声データとが対応づけて格納される。音声処理部209は、発話DBに格納された文字情報と音声データとの対応関係に基づいて合成音声を生成し、スピーカ213から出力することでロボット2による発話を実現する。発話DBには、定型文の音声データや、ロボット2の感情状態に応じて発話の抑揚や語尾を変化させるための発話変換データ等が格納されるようにしてもよい。
アクションDBは、ロボット2の応答やコンテンツに含まれるアクション(発話内容やアクション内容)の制御シーケンスを記載した制御シーケンステーブルが格納される。制御シーケンステーブルには、応答やアクションの動作名とロボット2の可動部制御シーケンスとを紐づけたデータが格納される。動作名は、動作の識別情報であり、一連の可動部制御シーケンスをロボット2が実行した際のロボット動作の様子を示している。可動部制御シーケンスは、制御対象とする各可動部の駆動箇所と値等(例えば頭部チルト角0度、右腕チルト角0度等)のリストである。
入力部203は、例えばタッチパネル等の入力装置や各種操作ボタン等を含み、入力されたデータを制御部201へ出力する。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
メディア入出力部205は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
通信I/F206は、ネットワーク8との通信を媒介するインターフェースである。ネットワーク8は、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット等の公衆の通信回線、基地局等を含む。ネットワーク8との通信接続は有線、無線を問わない。ロボット2はネットワーク8を介してWebサーバにアクセスし、各種のプログラムやデータを送受信可能である。
可動部駆動機構207は、ロボット2の頭部、首、肩、腕、腰、脚等に設けられた可動部を駆動する機構及び駆動装置を含む。可動部駆動機構207の動作は制御部201により制御される。制御部201は記憶部202に記憶されているアクションDBから可動部制御シーケンスを読み出し、各可動部駆動機構207に対して制御信号を送り、各駆動部を動作させる。
周辺機器I/F(インターフェース)部208は、周辺機器を接続させるためのポートであり、周辺機器I/F部208を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。ロボット2は周辺機器I/F部208を介してコンピュータ3等と通信接続可能となる。
音声処理部209は、音声合成部、音声認識部等を含む。音声合成部は、制御部201からの指令に基づき、文字情報(テキストデータ)に対応する合成音声データを生成し、スピーカ213に合成音声を出力する。合成音声は、予め記憶部202に記憶されている発話DBに格納されている文字情報と音声データとの対応関係に基づいて生成される。音声合成部により、ロボット2によるコンテンツ内の発話や視聴者の反応に対する発話等を実現する。
音声認識部は、マイク211から入力された音声データ(例えば、人の音声)について音声認識処理を実施し、音声データに対応する文字情報(テキストデータ)を生成し、制御部201に入力する。制御部201は音声認識部により入力された文字情報に基づいて人の話の内容を認識したり、周囲の状況を判断したりし、ロボット2の感情を変化させたり、アクションや発話の内容を決定する。
カメラ210は、ロボット2に内蔵される例えばCCD(Charge-Coupled Device)カメラ等であり、周囲の様子を撮影する。カメラ210により撮影された画像は制御部201に入力される。制御部201はカメラ210から入力された画像を認識し(画像認識処理)、周囲の状況を判断したり、認識結果に応じて感情を変化させたり、発話やアクションを決定したりする。
マイク211は、視聴エリア7の音声を入力し、制御部201に送る。
スピーカ213は、音声処理部209の音声合成部により生成された合成音声を出力したり、制御部201からの指令に基づきアラーム音等の所定の音声を出力したりする。
スピーカ213は、音声処理部209の音声合成部により生成された合成音声を出力したり、制御部201からの指令に基づきアラーム音等の所定の音声を出力したりする。
センサ212は、3Dセンサ、タッチセンサ、ジャイロセンサ、ソナーセンサ、レーザセンサ、バンパーセンサ、赤外線センサ等の各種のセンサを含む。各センサは検出した信号を制御部201に入力する。制御部201は各センサからの入力信号に応じて感情を変化させたり、ロボット2の発話の内容やアクションを決定したりする。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
コンピュータ3は、ロボット制御システム1全体の動作を制御する制御装置であり、カメラ4による画像の取得やマイク5による音声情報の取得を行う。また、ロボット2の動作を制御する。
図4に示すように、コンピュータ3は、制御部301、記憶部302、メディア入出力部303、周辺機器I/F部304、入力部306、表示部307、通信I/F308がバス309を介して接続されて構成される。
制御部301は、CPU、ROM、RAM等により構成される。CPUは、記憶部302、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス309を介して接続された各部を駆動制御する。
制御部301のCPUは、ロボット2が実行するコンテンツを評価するコンテンツ評価処理(図8参照)を実行する。またロボット2によるコンテンツ実行を制御したり、コンテンツの実行状況に応じたカメラ4、マイク5等の制御を行う。
ROMは、コンピュータ3のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部301が各種処理を行うために使用するワークエリアを備える。
記憶部302は、制御部301が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部301により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
記憶部302は、コンテンツDB310を有する。コンテンツDB310には複数のコンテンツの識別情報(コンテンツID)と制御シーケンステーブルとが対応付けて記憶されている。制御シーケンステーブルには、コンテンツで実行する一連の発話やアクションの制御シーケンスが格納される。
また、記憶部302は、後述するコンテンツ評価処理により学習した情報であるコンテンツ評価データ51(図9参照)を記憶する。
記憶部302は、コンテンツDB310を有する。コンテンツDB310には複数のコンテンツの識別情報(コンテンツID)と制御シーケンステーブルとが対応付けて記憶されている。制御シーケンステーブルには、コンテンツで実行する一連の発話やアクションの制御シーケンスが格納される。
また、記憶部302は、後述するコンテンツ評価処理により学習した情報であるコンテンツ評価データ51(図9参照)を記憶する。
メディア入出力部303は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
周辺機器I/F(インタフェース)部304は、周辺機器を接続させるためのポートであり、周辺機器I/F部304を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。周辺機器I/F部304を介してコンピュータ3に、ロボット2、カメラ4、及びマイク5等を通信接続できる。
入力部306は、例えばキーボード、マウス、タッチパネル等の入力装置であり、入力されたデータを制御部301へ出力する。
表示部307は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部301の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部306のタッチパネルは表示部307のディスプレイと一体的に構成される。制御部301は表示部307に対して表示情報を送り、表示させる。
通信I/F308は、ネットワーク8との通信を媒介するインターフェースである。コンピュータ3はネットワーク8上のWebサーバから各種のプログラムやデータを送受信可能である。
バス309は、制御信号、データ信号等の授受を媒介する経路である。
次に、図5を参照してロボット制御装置3の機能構成について説明する。ロボット制御装置3は、人数監視部31、反応取得部32、関心度算出部33、評価部34、及びコンテンツ決定部35を備える。
人数監視部31は、ロボット2に内蔵されるカメラ210または外付けのカメラ4により撮影された視聴エリア7内の画像を取得し、取得した画像を解析することにより視聴エリア7内の視聴者の人数を認識する。なお、人数監視部31による視聴者6の人数の認識タイミングは、所定時間経過時点としてもよいし、コンテンツの実行の前後、或いは、コンテンツと連動して予め設定されたタイミングとしてもよい。人数監視部31は、これらの所定の視聴者数取得タイミングにおける視聴エリア7内の視聴者の人数を算出し、評価部34に通知する。
反応取得部32は、ロボット2により実行されるコンテンツに対する視聴者6の反応を取得する。反応とは、例えば視聴者6によるロボット2への接触、視聴者6の発声(視聴エリア7の音声情報)、各視聴者6の視聴エリア7での滞留時間、各視聴者6の表情等である。
関心度算出部33は、反応取得部32により得られた視聴者6の反応の変化に基づいて視聴エリア7内の視聴者6全体の関心度を求め、評価部34に通知する。
ロボット制御装置3は、例えば図6に示すように、タッチ認識、音声認識、滞留時間、表情解析等を行うことにより視聴者6の反応を取得する。そして、それらの反応を集計することにより視聴エリア7内の視聴者6全体の関心度を算出する。
タッチ認識では、ロボット制御装置3は、ロボット2から視聴者6がロボット2に触れた回数(タッチ回数)を取得する。タッチ回数は、ロボット2のセンサ212(タッチセンサ)により計測される。
音声認識では、ロボット制御装置3は、マイク5またはロボット2に設けられたマイク211を用いて視聴エリア7の音声情報を取得する。ロボット制御装置3は所定時間内に取得した音声情報を解析して視聴者6の反応を求める。音声情報の解析では、ロボット制御装置3は、例えば音声情報から「面白い」等のポジティブワードを検出し、ポジティブワードを検出した回数に応じて視聴者6の関心度を算出する。また、音声情報から視聴者6の笑い声や拍手等の音声を検出し、その検出量に応じて関心度を算出してもよい。
滞留時間の解析では、ロボット制御装置3は、取得した画像データから視聴エリア7内に存在する各視聴者6が視聴エリア7内に入ってから視聴エリア7の外へ出るまでの時間である滞留時間を計測する。ロボット制御装置3は、各視聴者6の滞留時間を集計することにより視聴者6全体の関心度を求める。集計は、例えば各視聴者6の滞留時間の平均値等を求めることにより行われる。
表情解析では、図7に示すように、ロボット制御装置3は取得した画像データから視聴エリア7内に存在する各視聴者6a、6b、6c、6d、6eのそれぞれの表情(笑顔や目線等)を解析し、各視聴者6a、6b、6c、6d、6eの関心度を推定する。ロボット制御装置3は各視聴者6a、6b、6c、6d、6eの関心度を集計することにより視聴者6全体の関心度を求める。
なお、上述の関心度の算出例は一例であり、タッチ認識、音声認識、滞留時間、表情解析等のうちいずれか一つの処理によって関心度を求めるものとしてもよいし、複数の処理の結果を利用して関心度を算出するものとしてもよい。また、タッチ認識、音声認識、滞留時間、表情解析以外の手法により視聴者6の関心度を求めてもよい。
評価部34は、人数監視部31により得られた視聴者6の人数の増減及び関心度算出部33により算出された関心度の変化に基づきコンテンツを評価する。例えば、コンテンツの実行前と実行後(或いはコンテンツ実行中)の視聴者6の人数の増減、及び関心度の変化からコンテンツの評価ポイントを付与または減少させる。コンテンツの実行後(或いはコンテンツ実行中)の視聴者6の人数または関心度のうち少なくともいずれか一方が、コンテンツ実行前よりも増加した場合に、評価ポイントを付与する。または視聴者6の人数または関心度のうち少なくともいずれか一方が減少した場合にはコンテンツの評価ポイントを減点する。
なお、ロボット制御装置3は視聴エリア7内に存在する各視聴者の性別や年齢等の属性情報を取得し、上述の評価の結果を視聴者の属性毎に記憶部302に記憶することが望ましい。視聴者の属性情報は、ロボット制御装置3がカメラ4等から取得した画像データから割り出すか、或いは予め行われた入場者アンケート等により入力された視聴者の属性情報等を利用できる。
なお、ロボット制御装置3は視聴エリア7内に存在する各視聴者の性別や年齢等の属性情報を取得し、上述の評価の結果を視聴者の属性毎に記憶部302に記憶することが望ましい。視聴者の属性情報は、ロボット制御装置3がカメラ4等から取得した画像データから割り出すか、或いは予め行われた入場者アンケート等により入力された視聴者の属性情報等を利用できる。
コンテンツ決定部35は、評価部34による評価の結果に基づきコンテンツの優先度を算出する。コンテンツ決定部35は、この優先度に基づいて次回以降にロボット2が実行するコンテンツを決定する。なお、評価部34による評価結果が視聴者の属性(性別や年齢層等)毎に記憶される場合は、コンテンツ決定部35は、視聴者属性に相応しいコンテンツを優先度に基づいて決定する。
次に、図8を参照してロボット制御装置(コンピュータ)3が実行するコンテンツ評価処理について説明する。
まず、ロボット制御装置3は、視聴エリア7内の人数をカウントする(ステップS101)。すなわち、ロボット制御装置3はカメラ4による撮像を開始し、ロボット2の周囲の視聴エリア7を撮影した画像データを取得する。ロボット制御装置3は取得した画像データから視聴エリア7内に存在する視聴者6(人)の数を数えて、人数(1)として記憶部302に保持する。なお、ステップS101において、ロボット制御装置3はカメラ4から取得した画像データから視聴者6の年齢や性別等の属性情報を解析する。ロボット制御装置3は視聴者6の属性毎の人数をカウントする。
まず、ロボット制御装置3は、視聴エリア7内の人数をカウントする(ステップS101)。すなわち、ロボット制御装置3はカメラ4による撮像を開始し、ロボット2の周囲の視聴エリア7を撮影した画像データを取得する。ロボット制御装置3は取得した画像データから視聴エリア7内に存在する視聴者6(人)の数を数えて、人数(1)として記憶部302に保持する。なお、ステップS101において、ロボット制御装置3はカメラ4から取得した画像データから視聴者6の年齢や性別等の属性情報を解析する。ロボット制御装置3は視聴者6の属性毎の人数をカウントする。
次にロボット制御装置3は、視聴者6の反応を取得し関心度を計測する(ステップS102)。ステップS102において、ロボット制御装置3は、視聴者6がロボット2に接触する回数(タッチ回数)や、視聴者6の様子を撮影した画像データや、視聴エリア7の音声情報等を取得し、これらの情報に基づいてタッチ認識、音声認識、滞留時間、表情解析等を行うことにより視聴者6の反応を取得する。そして、それらの反応を集計することにより視聴エリア7内の視聴者6全体の関心度を算出する。ロボット制御装置3は、コンテンツ開始前のタイミングで得た関心度を関心度(1)として記憶部302に保持する。
次に、ロボット制御装置3は、ロボット2にコンテンツ実行開始指示の信号を送る。ロボット2は、ロボット制御装置3から送信されたコンテンツ実行開始指示に従い、指定されたコンテンツを実行する(ステップS103)。
ロボット制御装置3は、ロボット2がコンテンツを実行した後、或いはコンテンツを実行開始してから所定時間経過後に得た画像データに基づき、視聴エリア7内の視聴者6の人数をカウントする(ステップS104)。ステップS104で求めた視聴者6の人数を人数(2)として記憶部302に保持する。
ロボット制御装置3は、ステップS101において取得した人数(1)とステップS104で取得した人数(2)とを比較する(ステップS105)。すなわち、コンテンツ実行前の視聴者6の人数(1)とコンテンツ実行後(または実行中)の視聴者6の人数(2)とを比較する。コンテンツ実行前と実行後(または実行中)の人数が等しい場合は(ステップS105;Yes)、ロボット制御装置3は、この時点での視聴者6の関心度を計測する(ステップS106)。ステップS106の関心度は、ステップS102の関心度の計測と同じ手法により求める。ロボット制御装置3は、ステップS106で計測した関心度を関心度(2)として記憶部302に記憶する。
ロボット制御装置3は、ステップS102において計測した関心度(1)とステップS106で計測した関心度(2)とを比較する(ステップS107)。すなわち、コンテンツ実行前の視聴者6の関心度(1)とコンテンツ実行後(または実行中)の視聴者6の関心度(2)とを比較する(ステップS107)。コンテンツ実行中(または実行後)の関心度(2)がコンテンツ実行前の関心度(1)以上である場合は(ステップS107;Yes)、当該コンテンツについて評価ポイントをその時の視聴者6の属性毎に付与する(ステップS108)。
ステップS107において、コンテンツ実行後(または実行中)の関心度(2)がコンテンツ実行前の関心度(1)より低いと判定された場合は(ステップS107;No)、当該コンテンツについて評価ポイントをその時の視聴者6の属性毎に所定値だけ減少させる(ステップS109)。
コンテンツ実行前に視聴者6の人数(1)よりコンテンツの実行後(または実行中)の人数(2)が増えている場合も(ステップS105;No→ステップS110;Yes)、ロボット制御装置3は、当該コンテンツについて評価ポイントを視聴者6の属性毎に付与する(ステップS108)。一方、コンテンツ実行後(または実行中)の人数(2)がコンテンツ実行前に視聴者6の人数(1)以下となった場合(ステップS105;No→ステップS110;No)は、ロボット制御装置3は、当該コンテンツについて評価ポイントを視聴者6の属性毎に所定値だけ減少させる(ステップS109)。
コンテンツに対する評価ポイントは、例えば、図9に示すコンテンツ評価データ51のような形式でロボット制御装置3の記憶部302に記録される。図9に示すコンテンツ評価データ51では、コンテンツの識別情報であるコンテンツIDと、コンテンツに付与された評価ポイントとが視聴者6の属性毎に分類されて記憶されている。評価ポイントの値は、コンテンツ評価処理を実行することにより更新される。なお、コンテンツ実行中に複数のタイミングでコンテンツの評価を行う場合には、1つのコンテンツIDについて複数の評価タイミング(ロボットの動作の名称や動作の番号(ID)、或いは動作を実施する時間等)での評価ポイントが記録される。
以上のように、コンテンツの実行に伴う視聴者6の人数の増減と関心度の変化に応じて評価ポイントのポイントアップまたはポイントダウン(ポイントの減少)を行うと、ロボット制御装置3は、次にロボット2に実行させるコンテンツがあるか否かを確認し、次のコンテンツがある場合は(ステップS111;Yes)、ステップS103に戻り次のコンテンツの実行開始を指示する。
ロボット制御装置3は、次のコンテンツについても同様に、ステップS104〜ステップS110の処理を実行し、視聴者6の人数の変化や関心度の変化に応じてポイントアップ(ポイントの付与)またはポイントダウン(ポイントの減少)を行う。次のコンテンツがない場合は(ステップS111;No)、処理を終了する。
一連のコンテンツ評価処理により生成されたコンテンツ評価データ51は、ロボット制御装置3がロボット2に実行させるコンテンツを決定する際に参照される。例えばロボット制御装置3は、評価ポイントが高いコンテンツが優先的に実行されるように、コンテンツの優先度を決定する。
なお、上述の処理においてロボット制御装置3は、カメラ4から得た画像データから視聴者6の性別や年齢等の属性情報を推定し、各視聴者6の関心度を性別や年齢等の属性情報と関連付けて集計するようにしてもよい。その場合には、ロボット制御装置3がロボット2にコンテンツを実行させる際に、カメラ4により撮影した画像データからロボット2の周囲にいる視聴者6の性別や年齢層を認識し、性別や年齢層に応じて評価ポイントの高いコンテンツを優先的に実行する等、リアルタイムに実行するコンテンツを決定してもよい。
以上説明したように、本発明に係るロボット制御装置3は、ロボット2の周囲(視聴エリア7)に集まる視聴者6の人数を監視するとともに、ロボット2により実行されるコンテンツに対する視聴者6の反応を取得し、視聴者6の反応に基づいて関心度を求め、コンテンツの実行に伴う視聴者6の人数の増減及び関心度の変化に基づきコンテンツを評価する。また、ロボット制御装置3は評価の結果に基づきロボット2が実行するコンテンツを決定する。
これにより、視聴者6の状態を把握し、コンテンツと視聴者6の心理、行動の変化の相関関係を認識できる。その結果、視聴者6の興味を引き、視聴者6を誘引するような効果的なコンテンツを学習することができる。これにより視聴者6の関心度の高いコンテンツを実行して集客力を向上させることが可能となる。
これにより、視聴者6の状態を把握し、コンテンツと視聴者6の心理、行動の変化の相関関係を認識できる。その結果、視聴者6の興味を引き、視聴者6を誘引するような効果的なコンテンツを学習することができる。これにより視聴者6の関心度の高いコンテンツを実行して集客力を向上させることが可能となる。
なお、本実施形態では、ロボット2とは別に設けられたコンピュータがロボット制御装置3として機能し、視聴エリア7内の視聴者6の監視、視聴者6の反応取得、関心度算出、評価、コンテンツ決定等の処理を行うものとしているが、これらの各処理をロボット2の制御部201が実行するものとしてもよい。また、これらの各処理はプログラムによって実行されるものとしてもよい。プログラムはロボット2の記憶部202またはコンピュータ3の記憶部302に記憶されものとしてもよいし、ネットワーク8を介してロボット2またはコンピュータ(ロボット制御装置3)にインストールすることも可能である。
以上、添付図面を参照して、本発明に係るロボット制御装置、ロボット、ロボット制御方法、及びプログラム等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1……………………ロボット制御システム
2……………………ロボット
201………………制御部
202………………記憶部
203………………入力部
204………………表示部
205………………メディア入出力部
206………………通信I/F部
207………………可動部駆動機構
208………………周辺機器I/F部
209………………音声処理部
210………………スピーカ
211………………マイク
212………………センサ
220………………バス
3……………………コンピュータ(ロボット制御装置)
31…………………人数監視部
32…………………反応取得部
33…………………関心度算出部
34…………………評価部
35…………………コンテンツ決定部
301………………制御部
302………………記憶部
303………………メディア入出力部
304………………周辺機器I/F部
306………………入力部
307………………表示部
308………………通信I/F部
309………………バス
310………………コンテンツDB
4……………………カメラ
5……………………マイク
51…………………
6、6a〜6e……視聴者
7……………………視聴エリア
8……………………ネットワーク
2……………………ロボット
201………………制御部
202………………記憶部
203………………入力部
204………………表示部
205………………メディア入出力部
206………………通信I/F部
207………………可動部駆動機構
208………………周辺機器I/F部
209………………音声処理部
210………………スピーカ
211………………マイク
212………………センサ
220………………バス
3……………………コンピュータ(ロボット制御装置)
31…………………人数監視部
32…………………反応取得部
33…………………関心度算出部
34…………………評価部
35…………………コンテンツ決定部
301………………制御部
302………………記憶部
303………………メディア入出力部
304………………周辺機器I/F部
306………………入力部
307………………表示部
308………………通信I/F部
309………………バス
310………………コンテンツDB
4……………………カメラ
5……………………マイク
51…………………
6、6a〜6e……視聴者
7……………………視聴エリア
8……………………ネットワーク
Claims (13)
- 視聴者に対しコンテンツを実行するロボットを制御するロボット制御装置であって、
設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視する監視手段と、
前記監視手段により得られた人数の増減に基づき前記コンテンツを評価する評価手段と、
前記評価手段による評価の結果に基づき前記ロボットが実行するコンテンツを決定する決定手段と、
を備えることを特徴とするロボット制御装置。 - 実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、
前記反応取得手段により得られた視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、を備え、
前記決定手段は、前記評価手段による評価の結果及び前記関心度算出手段により求められた関心度の変化に基づき前記ロボットが実行するコンテンツを決定することを特徴とする請求項1に記載のロボット制御装置。 - 前記反応取得手段は、前記視聴者による前記ロボットへの接触回数を前記反応として取得することを特徴とする請求項2に記載のロボット制御装置。
- 前記反応取得手段は、前記視聴エリアから取得した音声情報を解析することにより前記反応を取得することを特徴とする請求項2または請求項3のいずれかに記載のロボット制御装置。
- 前記反応取得手段は、前記視聴エリアを撮影した画像から各視聴者の視聴エリアでの滞留時間を計測し、計測した滞留時間に基づいて視聴者の反応を求めることを特徴とする請求項2から請求項4のいずれかに記載のロボット制御装置。
- 反応取得手段は、前記視聴エリアを撮影した画像から各視聴者の表情を解析し、解析した表情に基づいて視聴者の反応を求めることを特徴とする請求項2から請求項5のいずれかに記載のロボット制御装置。
- 前記評価手段は、前記人数または前記関心度のうち少なくともいずれか一方が増加した場合に前記コンテンツに対してポイントを付与することを特徴とする請求項2から請求項6のいずれかに記載のロボット制御装置。
- 前記視聴者の属性情報を解析または取得する属性情報取得手段と、
前記評価手段による評価の結果を前記視聴者の属性毎に記憶する記憶手段と、を更に備え、
前記決定手段は、前記記憶手段に記憶された前記視聴者の属性毎の評価の結果に応じて効果の高いコンテンツを優先的に実行するよう決定することを特徴とする請求項1から請求項7のいずれかに記載のロボット制御装置。 - 当該ロボット制御装置はロボット本体に設けられることを特徴とする請求項1から請求項8のいずれかに記載のロボット制御装置。
- 当該ロボット制御装置はロボット本体とは別に設けられることを特徴とする請求項1から請求項8のいずれかに記載のロボット制御装置。
- 視聴者に対しコンテンツを実行するコンテンツ実行手段と、
設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視する監視手段と、
前記監視手段により得られた人数の増減に基づき前記コンテンツを評価する評価手段と、
前記評価手段による評価の結果に基づき前記ロボットが実行するコンテンツを決定する決定手段と、
を備えることを特徴とするロボット。 - 視聴者に対しコンテンツを実行するロボットを制御するロボット制御方法であって、
設定された特定範囲となる視聴エリアに集まる視聴者の人数を監視するステップと、
前記視聴者の人数の増減に基づき前記コンテンツを評価するステップと、
前記評価の結果に基づき前記ロボットが実行するコンテンツを決定するステップと、
を含むことを特徴とするロボット制御方法。 - コンピュータを、請求項1から請求項10のいずれかに記載のロボット制御装置として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188003A JP2018051648A (ja) | 2016-09-27 | 2016-09-27 | ロボット制御装置、ロボット、ロボット制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188003A JP2018051648A (ja) | 2016-09-27 | 2016-09-27 | ロボット制御装置、ロボット、ロボット制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018051648A true JP2018051648A (ja) | 2018-04-05 |
Family
ID=61833346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016188003A Pending JP2018051648A (ja) | 2016-09-27 | 2016-09-27 | ロボット制御装置、ロボット、ロボット制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018051648A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019217558A (ja) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217124A (ja) * | 2005-02-02 | 2006-08-17 | Matsushita Electric Ind Co Ltd | 機器制御装置、機器制御方法およびそれを用いた番組視聴システム |
JP2007148911A (ja) * | 2005-11-29 | 2007-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報出力システム、情報出力方法およびプログラム |
JP2011124656A (ja) * | 2009-12-08 | 2011-06-23 | Nomura Research Institute Ltd | 映像コンテンツ推奨管理装置、映像コンテンツのシーン再生指示方法及びそのプログラム |
JP2011142432A (ja) * | 2010-01-06 | 2011-07-21 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2012155616A (ja) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
-
2016
- 2016-09-27 JP JP2016188003A patent/JP2018051648A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217124A (ja) * | 2005-02-02 | 2006-08-17 | Matsushita Electric Ind Co Ltd | 機器制御装置、機器制御方法およびそれを用いた番組視聴システム |
JP2007148911A (ja) * | 2005-11-29 | 2007-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報出力システム、情報出力方法およびプログラム |
JP2011124656A (ja) * | 2009-12-08 | 2011-06-23 | Nomura Research Institute Ltd | 映像コンテンツ推奨管理装置、映像コンテンツのシーン再生指示方法及びそのプログラム |
JP2011142432A (ja) * | 2010-01-06 | 2011-07-21 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2012155616A (ja) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019217558A (ja) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
JP7045938B2 (ja) | 2018-06-15 | 2022-04-01 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11937929B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
US11206450B2 (en) | System, apparatus and method for providing services based on preferences | |
WO2017215297A1 (zh) | 云端互动系统及其多感知型智能机器人和感知互动方法 | |
WO2016129192A1 (ja) | 感情推定装置及び感情推定方法 | |
KR102092931B1 (ko) | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 | |
CN111163906B (zh) | 能够移动的电子设备及其操作方法 | |
US11327320B2 (en) | Electronic device and method of controlling the same | |
KR20190105403A (ko) | 전자 장치, 전자 장치와 결합 가능한 외부 디바이스 및 이의 디스플레이 방법 | |
US10836044B2 (en) | Robot control device and robot control method | |
KR102396794B1 (ko) | 전자 장치 및 이의 제어 방법 | |
JP7123856B2 (ja) | プレゼンテーションを評価するシステム、方法、学習済みモデル及びプログラム、情報処理装置並びに端末装置 | |
JP2017064853A (ja) | ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム | |
WO2016206645A1 (zh) | 为机器装置加载控制数据的方法及装置 | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
US20220288791A1 (en) | Information processing device, information processing method, and program | |
JP2018051648A (ja) | ロボット制御装置、ロボット、ロボット制御方法、及びプログラム | |
JP2017182261A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20230154380A (ko) | 행동 및 발화 패턴 기반 감성 인식 결과에 의해 사용자의 감성 상태에 적합한 헬스케어 서비스를 제공하는 시스템 및 방법 | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
CN111919250B (zh) | 传达非语言提示的智能助理设备 | |
JP2018055232A (ja) | コンテンツ提供装置、コンテンツ提供方法、及びプログラム | |
JP2017068592A (ja) | ロボット、ロボット制御装置、ロボット制御方法、及びプログラム | |
JP7202836B2 (ja) | コミュニケーションシステム | |
JP2021051645A (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210316 |