JP2017064853A - Robot, content deciding device, content deciding method, and program - Google Patents
Robot, content deciding device, content deciding method, and program Download PDFInfo
- Publication number
- JP2017064853A JP2017064853A JP2015193511A JP2015193511A JP2017064853A JP 2017064853 A JP2017064853 A JP 2017064853A JP 2015193511 A JP2015193511 A JP 2015193511A JP 2015193511 A JP2015193511 A JP 2015193511A JP 2017064853 A JP2017064853 A JP 2017064853A
- Authority
- JP
- Japan
- Prior art keywords
- content
- viewer
- robot
- unit
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムに関し、詳細には、対話型ロボットを制御する技術に関する。 The present invention relates to a robot, a content determination device, a content determination method, and a program, and more particularly to a technique for controlling an interactive robot.
近年、人との対話が可能なロボットが開発されている。この種のロボットは、対話のための音声認識機能や発話機能を持つ他、対話相手の表情や音声感情、明るさや温度等の周囲の状況を音声・画像認識エンジンや各種のセンサにより読み取ることができる。また読み取った内容に応じてロボット自身の感情も変化させ、ディスプレイで感情を可視化したり、感情に応じた発話を行うものもある。また、ロボットの頭や腕、腰等に可動部を設け、対話や指令の内容に応じたアクションを行わせることも可能となっている。 In recent years, robots capable of interacting with people have been developed. This type of robot has a voice recognition function and a speech function for dialogue, and can read the surrounding situation such as facial expression, voice emotion, brightness and temperature of the other party with voice / image recognition engine and various sensors. it can. There are also robots that change their emotions according to the read content, visualize the emotions on the display, and utter utterances according to the emotions. Also, it is possible to provide a movable part on the robot's head, arm, waist, etc., and to perform an action corresponding to the content of the dialogue or command.
例えば特許文献1には、ロボットにユーザと共に映像を視聴しているかのようなアクションを実行させるロボット制御方法について記載されている。このロボット制御方法では、ソーシャルメディアサーバから視聴中の番組に関するコメントを取得し、ロボットに設定されたパーソナリティと一致するパーソナリティ一致話者のコメントからロボットに発話させる発話内容を決定するとともに、発話内容の対話状態とロボットの感情状態に基づいてロボットに実行させるアクション内容をアクションデータベースから抽出して、視聴中の番組の内容に応じたアクションをロボットに実行させている。
For example,
しかしながら、特許文献1のロボット制御方法は、ロボットの発話内容やアクションの内容をソーシャルメディアサーバから得た情報に基づいて決定するものであり、ロボットの目の前の多数の視聴者の状況から判断するものではない。例えば、お話し形式のコンテンツやクイズ形式のコンテンツをイベントの来場者の前で実施する場合、来場者の反応や周囲の状況をリアルタイムに判断し、興味や関心を引き寄せるような演目をロボットに行わせることで、集客力を向上させたいといった要望がある。
However, the robot control method disclosed in
本発明は、視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムを提供することを目的とする。 An object of the present invention is to provide a robot, a content determination device, a content determination method, and a program that can select and screen a performance with a high degree of interest of the viewer according to the situation.
前述した課題を解決するため第1の発明は、視聴者に対しコンテンツを実行するコンテンツ実行手段と、実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、を備えることを特徴とするロボットである。 In order to solve the above-described problems, the first invention is a content execution unit that executes content for a viewer, a reaction acquisition unit that acquires the viewer's response to the content to be executed, and the acquired viewer's response An interest level calculating means for determining the degree of interest of the viewer based on the content; and a content determining means for determining content to be executed by the content executing means based on the interest level of the viewer. is there.
第1の発明によれば、視聴者に対しコンテンツを実行するロボットが、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定する。
これにより、ロボットが人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、実行することが可能となる。視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボットを提供できる。
According to the first invention, the robot that executes content for the viewer acquires the viewer's response to the content to be executed, obtains the viewer's interest based on the acquired viewer's response, and views Content to be executed is determined based on the interest level of the person.
As a result, the robot can determine and execute the content based on the reaction (degree of interest) of the viewer without human intervention. It is possible to provide a robot that can be selected and screened according to the situation in which the audience is highly interested.
また第1の発明において、前記視聴者の属性を取得する属性取得手段、を更に備え、前記コンテンツ決定手段は、前記視聴者の属性及び前記関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定することが望ましい。これにより、視聴者の属性を考慮して実行するコンテンツを決定することが可能となる。 In the first aspect of the invention, further comprising attribute acquisition means for acquiring the viewer attribute, wherein the content determination means determines content to be executed by the content execution means based on the viewer attribute and the degree of interest. It is desirable to do. This makes it possible to determine the content to be executed in consideration of the viewer's attributes.
また第1の発明において、前記視聴者の様子を撮影した画像を取得し解析する画像解析手段と、前記視聴者の発声状況を取得する発声状況取得手段と、を更に備え、前記反応取得手段は、前記画像の解析結果及び前記発声状況に基づいて前記視聴者の反応を取得することが望ましい。これにより、観客の画像や発声状況から観客の反応を判断できるようになる。 In the first aspect of the invention, the image processing device further includes an image analysis unit that acquires and analyzes an image obtained by capturing the state of the viewer, and an utterance state acquisition unit that acquires an utterance state of the viewer. Preferably, the viewer's reaction is acquired based on the analysis result of the image and the utterance situation. Thereby, it becomes possible to judge the reaction of the audience from the image of the audience and the utterance situation.
また第1の発明において、インターネットに公開された情報から前記コンテンツの上映に関する反応を収集するインターネット情報収集手段、を更に備え、前記反応取得手段は、更に前記インターネット情報収集手段により収集した反応を前記視聴者の反応に含めることが望ましい。また前記反応取得手段は、更に来場者数を前記視聴者の反応に含めることが望ましい。これにより、インターネットに公開されたコメントやレビュー等の情報や来場者数から上映に関する反応や話題性を判断し上映演目の決定に反映できるようになる。 In the first aspect of the invention, the information processing device further comprises an Internet information collecting unit that collects a reaction related to the screening of the content from information published on the Internet, and the reaction acquisition unit further includes the reaction collected by the Internet information collecting unit. It should be included in the viewer's response. Moreover, it is desirable that the response acquisition means further includes the number of visitors in the viewer's response. As a result, it is possible to judge the reaction and topicality related to the screening from information such as comments and reviews published on the Internet and the number of visitors, and reflect it in the determination of the screening performance.
また第1の発明において、各コンテンツに対する前記関心度を前記視聴者の属性と紐づけて記録する記録手段、を更に備え、前記コンテンツ決定手段は、視聴者の属性及び前記関心度に基づいて前記記録手段に記録されたコンテンツの中から最適なコンテンツを複数選択し、一連の上映リストを生成することが望ましい。これにより、事前に上映リストを作成しておき、来場者の属性(性別や年齢層等)に応じて関心度の高い上映リストを選択して実行できる。また例えば、盛り上がり重視や集中度重視等、求める関心度に応じた上映リストを予め生成して記憶しておけるようになる。 In the first invention, the recording apparatus may further include a recording unit that records the interest level of each content in association with the viewer attribute, and the content determination unit is configured to record the content based on the viewer attribute and the interest level. It is desirable to select a plurality of optimum contents from the contents recorded in the recording means and generate a series of screening lists. Thereby, a screening list can be created in advance, and a screening list with a high degree of interest can be selected and executed according to the attributes (gender, age group, etc.) of the visitors. In addition, for example, a screening list corresponding to a desired degree of interest such as emphasis on excitement and concentration can be generated and stored in advance.
また第1の発明において、前記コンテンツ決定手段は、しばらく上映されていないコンテンツを前記上映リストに優先的に含めるようにしてもよい。また、予め指定された推薦コンテンツを前記上映リストに優先的に含めるようにしてもよい。また、新たに作成されたコンテンツを前記上映リストに優先的に含めるようにしてもよい。
これにより、関心度が高い演目だけでなく、演出者側が優先して上映したい演目や上映頻度の低い演目を組み込んで実行できるようになるので、視聴者が飽きることなく、新たに関心度が高くなる演目を見出すことが可能となる。
In the first invention, the content determination means may preferentially include content that has not been shown for a while in the screening list. In addition, pre-designated recommended content may be preferentially included in the screening list. Also, newly created content may be preferentially included in the screening list.
As a result, not only shows with a high degree of interest but also performances that the director wants to preferentially show or shows with a low screening frequency can be executed, so viewers will not get bored and a new level of interest will be added. It becomes possible to find the performance that becomes.
第2の発明は、視聴者に対しコンテンツを実行するコンテンツ実行手段と、実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、を備えることを特徴とするコンテンツ決定装置である。 According to a second aspect of the present invention, content execution means for executing content for a viewer, reaction acquisition means for acquiring the viewer's response to the content to be executed, and the viewer's response based on the acquired viewer's response An interest level calculating means for obtaining an interest level, and a content determination means for determining content to be executed by the content execution means based on the interest level of the viewer.
第2の発明によれば、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定し、視聴者に対しコンテンツを実行する。
これにより、人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、実行することが可能な装置を提供できる。視聴者の関心度の高い演目を状況に応じて選択し上映可能となる。
According to the second invention, the viewer's response to the content to be executed is acquired, the viewer's interest level is obtained based on the acquired viewer's response, and the content to be executed is determined based on the viewer's interest level And execute the content to the viewer.
Accordingly, it is possible to provide an apparatus that can determine and execute content based on the reaction (degree of interest) of a viewer without human intervention. Performances with high viewer interest can be selected and screened according to the situation.
また第2の発明において、前記コンテンツ実行手段はロボットを用いて前記コンテンツを実行することが望ましい。これにより、第2の発明のコンテンツ決定装置により決定されたコンテンツをロボットが実行できる。ロボットを用いて、視聴者の関心度の高い演目を状況に応じて選択し上映可能となる。 In the second invention, it is desirable that the content execution means execute the content using a robot. Thereby, the robot can execute the content determined by the content determination device of the second invention. Using a robot, it is possible to select and screen performances with high viewer interest according to the situation.
第3の発明は、コンピュータがロボットを用いて視聴者に対しコンテンツを実行させるステップと、コンピュータが実行されるコンテンツに対する前記視聴者の反応を取得するステップと、コンピュータが取得した視聴者の反応に基づいて前記視聴者の関心度を求めるステップと、コンピュータが前記視聴者の関心度に基づき実行するコンテンツを決定するステップと、を含むことを特徴とするコンテンツ決定方法である。 According to a third aspect of the present invention, a computer causes a viewer to execute content by using a robot, a step of acquiring the viewer's response to the content executed by the computer, and a viewer's response acquired by the computer. A content determination method comprising: obtaining an interest level of the viewer based on the content; and determining content to be executed by a computer based on the interest level of the viewer.
第3の発明によれば、コンピュータの制御により、ロボットを用いて視聴者に対しコンテンツを実行させ、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定する。
これにより、人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、ロボットを用いて実行させることが可能となる。視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボットを提供できる。
According to the third invention, by controlling the computer, the viewer is caused to execute the content using a robot, the viewer's response to the executed content is acquired, and the viewer is based on the acquired viewer's response. The content to be executed is determined based on the interest level of the viewer.
This makes it possible to determine content based on the viewer's reaction (degree of interest) without human intervention and execute the content using a robot. It is possible to provide a robot that can be selected and screened according to the situation in which the audience is highly interested.
第4の発明は、コンピュータを、第2の発明のコンテンツ決定装置として機能させるプログラムである。第4の発明により、コンピュータを第2の発明のコンテンツ決定装置として機能させることが可能となる。 A fourth invention is a program for causing a computer to function as the content determination device of the second invention. According to the fourth invention, it is possible to cause a computer to function as the content determination apparatus of the second invention.
本発明により、視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムを提供できる。 According to the present invention, it is possible to provide a robot, a content determination device, a content determination method, and a program capable of selecting and showing a performance with a high degree of interest of the viewer according to the situation.
以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。
図1は、コンテンツ決定システム1のシステム構成の一例を示す図である。コンテンツ決定システム1は、ロボット2、コンピュータ3、距離画像センサ4、及びマイク5を備えて構成され、ロボット2またはコンピュータ3は、ネットワークを介してインターネット6上のSNSサーバ7(Social Networking Service)等に通信接続可能となっている。ロボット2、距離画像センサ4、マイク5はコンピュータ3に通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、距離画像センサ4、及びマイク5とコンピュータ3との通信接続の形態は、有線、無線を問わない。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a system configuration of the
距離画像センサ4は、画像を撮影するとともに距離情報(奥行情報)を測定する装置であり、ロボット2の周辺にいる視聴者の様子を撮影した画像や、視聴者との距離(奥行情報)をコンピュータ3に入力する。
The
マイク5は、ロボット2の周辺にいる視聴者の発声状況を取得し、コンピュータ3に入力する。
なお、距離画像センサ4に替えてロボット2に内蔵されるカメラ210を用いて視聴者の様子を撮影し、視聴者とロボット2との距離情報を取得することもできる。その場合は距離画像センサ4を省略してよい。マイク5についても同様にロボット2に内蔵されるマイク211を用いて視聴者の発声状況を取得することもできる。その場合はマイク5を省略してよい。
The
Note that it is also possible to take a picture of the viewer using the
コンピュータ3は、ロボット2の動作を制御する他、距離画像センサ4による画像及び距離情報の取得やマイク5の音声取得の制御を行う。
In addition to controlling the operation of the
ロボット2は、対話型のロボットである。図2に示すように、ロボット2は、制御部201、記憶部202、入力部203、表示部204、メディア入出力部205、通信I/F206、可動部駆動機構207、周辺機器I/F部208、音声処理部209、カメラ210、マイク211、センサ212、及びスピーカ213がバス220を介して接続されて構成される。
The
制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部202、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス220を介して接続された各部を駆動制御する。
The
制御部201のCPUは、コンテンツ決定処理(図10参照)を実行する。この処理の詳細については後述する。
The CPU of the
ROMは、ロボット2のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部201が各種処理を行うために使用するワークエリアを備える。
The ROM permanently stores programs such as a boot program for the
記憶部202は、制御部201が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部201により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
The
また記憶部202は、コンテンツDB(データベース)31、発話DB(データベース)32、アクションDB(データベース)33等のデータベースを保持する。また記憶部202は、制御部201が実行するコンテンツ決定処理において参照されるデータとして、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85等を有する(図4参照)。コンテンツDB31、発話DB32、アクションDB33、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85の詳細については後述する。
The
入力部203は、例えばタッチパネル等の入力装置や各種操作ボタン等を含み、入力されたデータを制御部201へ出力する。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
The
The
メディア入出力部205は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
The media input /
通信I/F(インタフェース)206は、ネットワークとの通信を媒介するインタフェースである。ネットワークは、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット6等の公衆の通信回線、基地局等を含む。ネットワークとの通信接続は有線、無線を問わない。ロボット2はネットワークを介してインターネット6上のSNS(Social Networking Service)サーバ等にアクセスし、インターネット6に公開されている情報を取得したり、Webサーバから各種のプログラムやデータを送受信可能である。
A communication I / F (interface) 206 is an interface that mediates communication with a network. The network includes a LAN (Local Area Network), a WAN (Wide Area Network) connected to a wider area, a public communication line such as the
可動部駆動機構207は、ロボット2の頭部、首、肩、腕、腰、脚等に設けられた可動部を駆動する機構及び駆動装置を含む。可動部駆動機構207の動作は制御部201により制御される。制御部201は記憶部202のアクションDB33から可動部制御シーケンスを読み出し、各可動部駆動機構207に対して制御信号を送り、各駆動部を動作させる。
The movable
周辺機器I/F(インタフェース)部208は、周辺機器を接続させるためのポートであり、周辺機器I/F部208を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。ロボット2は周辺機器I/F部208を介してコンピュータ3等と通信可能となる。
The peripheral device I / F (interface)
音声処理部209は、音声合成部、音声認識部等を含む。音声合成部は、制御部201からの指令に基づき、文字情報(テキストデータ)に対応する合成音声データを生成し、スピーカ213に合成音声を出力する。合成音声は、予め記憶部202の発話DB32に格納されている文字情報と音声データとの対応関係に基づいて生成される。音声合成部により、ロボット2による発話や人との対話等が実現する。
The
音声認識部は、マイク211から入力された音声データ(例えば、人の音声)について音声認識処理を実施し、音声データに対応する文字情報(テキストデータ)を生成し、制御部201に入力する。制御部201は音声認識部により入力された文字情報に基づいて人の話の内容を認識したり、周囲の状況を判断したりし、ロボット2の感情を変化させたり、アクションや発話の内容を決定する。
The voice recognition unit performs voice recognition processing on voice data (for example, human voice) input from the
カメラ210は、ロボット2に内蔵される例えばCCD(Charge-Coupled Device)カメラ等であり、周囲の様子を撮影する。カメラ210により撮影された画像は制御部201に入力される。制御部201はカメラ210から入力された画像を認識(画像解析処理)し、周囲の状況を取得したり、認識結果に応じて感情を変化させたり、発話やアクションを決定したりする。
The
マイク211は、外部の音声を入力し、制御部201に送る。
スピーカ213は、音声処理部209の音声合成部により生成された合成音声を出力したり、制御部201からの指令に基づきアラーム音等の所定の音声を出力したりする。
The
The
センサ212は、3Dセンサ、タッチセンサ、ジャイロセンサ、ソナーセンサ、レーザセンサ、バンパーセンサ、赤外線センサ等の各種のセンサを含む。各センサは検出した信号を制御部201に入力する。制御部201は各センサからの入力信号に応じて感情を変化させたり、ロボット2の発話の内容やアクションを決定したりする。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
The
The
コンピュータ3は、コンテンツ決定システム1全体の動作を制御する制御装置であり、ロボット2の動作を制御する他、距離画像センサ4による画像や距離情報の取得やマイク5による音声取得の制御を行う。
The
図3に示すように、コンピュータ3は、制御部301、記憶部302、メディア入出力部303、周辺機器I/F部304、入力部306、表示部307、通信I/F308がバス309を介して接続されて構成される。
As shown in FIG. 3, the
制御部301は、CPU、ROM、RAM等により構成される。CPUは、記憶部302、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス309を介して接続された各部を駆動制御する。
The
制御部301のCPUは、ロボット2が実行するコンテンツ決定処理(図10参照)と連携して距離画像センサ4による撮影制御やマイク5の音声取得制御を行う。
The CPU of the
ROMは、コンピュータ3のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部301が各種処理を行うために使用するワークエリアを備える。
The ROM permanently stores a boot program for the
記憶部302は、制御部301が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部301により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
The
メディア入出力部303は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。
The media input /
周辺機器I/F(インタフェース)部304は、周辺機器を接続させるためのポートであり、周辺機器I/F部304を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。周辺機器I/F部304を介してコンピュータ3に、ロボット2、距離画像センサ4、及びマイク5等を通信接続できる。
A peripheral device I / F (interface)
入力部306は、例えばキーボード、マウス、タッチパネル等の入力装置であり、入力されたデータを制御部301へ出力する。
The
表示部307は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部301の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部306のタッチパネルは表示部307のディスプレイと一体的に構成される。
The
通信I/F(インタフェース)308は、インターネット6等のネットワークとの通信を媒介するインタフェースである。コンピュータ3はネットワークを介してインターネット6上のSNSサーバ7等にアクセスし、インターネット6に公開されている情報を取得したり、Webサーバから各種のプログラムやデータを送受信可能である。
A communication I / F (interface) 308 is an interface that mediates communication with a network such as the
バス309は、制御信号、データ信号等の授受を媒介する経路である。
The
次に、図4を参照してロボット2の機能構成について説明する。
図4に示すように、ロボット2は、コンテンツ実行部21、属性取得部22、反応取得部23、関心度算出部24、記録部25、コンテンツ決定部26、コンテンツDB31、発話DB32、アクションDB33、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85を備える。
Next, the functional configuration of the
As shown in FIG. 4, the
コンテンツ実行部21は、ロボット2によるコンテンツの実行を制御する。コンテンツ実行部21は、記憶部202に記憶されている上映リストデータ82を参照し、指定された上映リスト、或いは所定の条件に合致する上映リストに含まれる複数のコンテンツのコンテンツデータをコンテンツDB31から順に読み出して実行する。上映するコンテンツは、例えば、ロボット2によるクイズの出題や進行、お話、その他の各種の演目が含まれる。
The content execution unit 21 controls the execution of content by the
図5は、記憶部202に格納されている上映リストデータ82の例を示す。上映リストデータ82は複数パターンの上映リストが格納されている。上映リストは公演単位にどのコンテンツをどの順に実行するが定められたものである。「上映No.」は上映リストの識別情報である。例えば、昼の公演では上映No.1の上映リスト(コンテンツB,A,D)を実行し、夜の公演では上映No.3の上映リスト(コンテンツE,A,F,D)を実行するというように、上映No.を指定すれば、上映する一連のコンテンツを指定できる。
FIG. 5 shows an example of the
コンテンツDB31は、コンテンツテーブル81と複数のコンテンツデータとが格納されている。コンテンツテーブル81は、コンテンツのタイトルや種別(クイズ、お話し等の種別)等を格納したテーブルである。コンテンツデータは、コンテンツ内でロボット2が実行する発話やアクションのシーケンスデータ、及び関連する映像や音楽等のデータを含む。
The
コンテンツを実行する際、コンテンツ実行部21はコンテンツデータに定義された発話内容に対応する合成音声をロボット2の音声処理部209により生成して、ロボット2に読み上げ(音声出力)させる。音声処理部209は発話DB32を参照してコンテンツデータに定義された発話内容(テキストデータ)に対応する音声データを取得し、合成音声を生成する。
When executing the content, the content execution unit 21 generates a synthesized voice corresponding to the utterance content defined in the content data by the
発話DB32は、文字情報(テキストデータ)と音声データとが対応づけて格納される。音声処理部209は、発話DB32に格納された文字情報と音声データとの対応関係に基づいて合成音声を生成し、スピーカ213から出力することでロボット2による発話を実現する。発話DB32には、定型文の音声データや、ロボット2の感情状態に応じて発話の抑揚や語尾を変化させるための発話変換データ等が格納されるようにしてもよい。
The
また、コンテンツ実行部21はロボット2の可動部駆動機構207を制御して、コンテンツデータに定義された動作(アクション)をロボット2に実行させる。
Further, the content execution unit 21 controls the movable
アクションDB33は、ロボット2の制御シーケンスを記載した制御シーケンステーブルが格納される。制御シーケンステーブルには、アクションの動作名とロボット2の可動部制御シーケンスとを紐づけたデータが格納される。動作名は、コンテンツデータのアクションの動作名と対応し、例えば、「うなずく」、「片手を上げる」、「両手を上げる」といった一連の可動部制御シーケンスをロボット2が実行した際のロボット動作の様子を示している。可動部制御シーケンスは、制御対象とする各可動部の駆動箇所と値等(例えば頭部チルト角0度、右腕チルト角0度等)のリストである。
The
属性取得部22は、ロボット2が実行するコンテンツを視聴している視聴者の属性を取得する。視聴者の属性とは、例えば年齢や性別等である。属性取得部22は、ロボット2のカメラ210により撮影した画像または距離画像センサ4から入力される画像を解析し、例えば顔認識処理により各視聴者の属性(年齢や性別)を判断する。顔画像から人物の属性を認識する方法は公知の手法(特開2012−053813等)を用いればよい。視聴者は複数であるため、各視聴者の属性のうちロボット2の近くにいる人の属性を視聴者全体の代表的な属性としてもよいし、年齢層や性別の比率を求め、比率の大きい年齢層や性別を視聴者全体の代表的な属性としてもよい。また、例えば視聴者へのアンケート調査等によって視聴者の属性がデータとして収集可能な場合は、入力部203またはコンピュータ3等を介してロボット2(コンピュータ3)に視聴者の属性の値を入力してもよい。
The
反応取得部23は、コンテンツ実行部21により実行されたコンテンツに対する視聴者の反応を取得する。視聴者の反応は、例えば(1)ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報、(2)ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報、(3)インターネット6に公開された情報等から取得できる。
The
そのため反応取得部23は、画像解析部23a、発声状況取得部23b、及びインターネット情報収集部23cのうち少なくともいずれか一つを備える。
Therefore, the
画像解析部23aは、ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報から視聴者の表情を読み取る。表情は、例えば喜び、驚き、怒り、悲しみ、無表情等のいくつかの感情パターンに分類される。各感情パターンは、口角の上り具合、頬、目、眉等の位置関係等から読み取り可能である。顔の表情から感情、状態を認識する方法は公知の手法(特開2014−206903等)を用いればよい。画像解析部23aは画像情報から読み取った視聴者の表情から、喜び度、驚き度、怒り度、悲しみ度、無関心度といったいくつかの感情の度合いを求め、関心度算出部24に通知する。
The
発声状況取得部23bは、ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報から視聴者の発声状況を読み取る。発声状況は、例えば発声の音量、発話密度等である。発話密度とは、発話がどれだけ密集しているか(話者が積極的に参加しているか)を示す数値であり、音量が大きくなるピークの頻度やタイミング等から求められる。発声状況取得部23bは求めた発声状況の各数値を関心度算出部24に通知する。
The utterance
インターネット情報収集部23cは、ソーシャルネットワーキングサービス(SNS)等によりインターネット6に公開された情報からコンテンツの上映に関する反応を収集する。インターネット情報収集部23cは、例えば、コンテンツのタイトルやコンテンツに含まれる語句等を検索キーワードとして、インターネット6に公開された情報を収集する。検索のヒット数や感想に相当する語句(「面白かった」、「つまらない」等)の種類や数等からコンテンツに対する反応の内容や大きさを数値化する。インターネット情報収集部23cは求めた数値を関心度算出部24に通知する。
The Internet
関心度算出部24は、反応取得部23(画像解析部23a、発声状況取得部23b、インターネット情報収集部23c)から取得した視聴者の反応に基づいて視聴者の関心度を求める。関心度を求める際、関心度算出部24は図6に示すような関心度算出テーブル83を参照してもよい。関心度算出テーブル83とは、反応を示す複数の項目の値と関心度(「盛り上がり度」等)との関係を定義したテーブルである。
The interest
図6は関心度算出テーブル83の一例を示す図である。
関心度として例えば「盛り上がり度」を求める場合、音量、発話密度、表情、よそ見(をしている視聴者の数または密度)、画面との距離、SNS(インターネット情報)、来場者数等の各項目について、度数の和やどの項目の値が顕著に高いか等から、盛り上がりの程度を数種類に分類する。
FIG. 6 is a diagram illustrating an example of the interest level calculation table 83.
For example, when “degree of excitement” is calculated as the degree of interest, each of volume, utterance density, facial expression, looking away (number of viewers or density), distance from the screen, SNS (Internet information), number of visitors, etc. For items, the degree of excitement is classified into several types based on the sum of frequencies and the value of which item is remarkably high.
例えば盛り上がり度「9」の「じっと見入る」の判定基準は、音量が「3」以下、発話密度が「5」以下、よそ見が「3」以下、画面との距離が「3」以下、SNSが「7」以上、来場者数が「7」以上とする。視聴者が集中してじっと見入る状態である場合、話やよそ見をする視聴者が少なく、画面(ステージ)に近づいていることが多い。表情は問わないものとしている。 For example, the criterion of “satisfying” for the degree of excitement “9” is that the volume is “3” or less, the speech density is “5” or less, the looking away is “3” or less, the distance from the screen is “3” or less, and the SNS is “7” or more and the number of visitors is “7” or more. When viewers are focused and staring, there are few viewers who talk and look away, and they are often approaching the screen (stage). The expression is not questioned.
一方、盛り上がり度「10」の「大盛り上がり」の判定基準は、音量が「8」以上、発話密度が「9」以上、「喜び」を示す表情が「8」以上、よそ見が「3」以下、画面との距離が「3」以下、SNSが「8」以上、来場者数が「8」以上とする。 On the other hand, the criteria for “big excitement” with the degree of excitement “10” are: volume level “8” or higher, speech density “9” or higher, “joy” facial expression “8” or higher, looking away “3” or lower The distance from the screen is “3” or less, the SNS is “8” or more, and the number of visitors is “8” or more.
また、盛り上がり度「1」の「飽きてぼんやりしている」の判定基準は、音量が「3」以下、発話密度が「2」以下、「無表情」を示す表情が「8」以上、よそ見が「5」以上、画面との距離が「5」以上、SNSが「5」以下または「8」以上(話題性がない、或いはつまらないといった感想が多い等)、来場者数が「4」以下とする。 In addition, the criteria for determining the level of excitement as “1” is “being bored and blurred” is that the volume is “3” or less, the speech density is “2” or less, and the expression indicating “no expression” is “8” or more. Is “5” or more, the distance to the screen is “5” or more, the SNS is “5” or less or “8” or more (there are many topics that are not topical or boring), and the number of visitors is “4” or less. And
また、盛り上がり度「1」の「つまらなくて騒いでいる」の判定基準は、音量が「8」以上、発話密度が「9」以上、「無表情」を示す表情が「7」以上、よそ見が「5」以上、画面との距離が「5」以上、SNSが「5」以下または「8」以上(話題性がない、或いはつまらないといった感想が多い等)、来場者数が「5」以下とする。
関心度算出部24は、以上のように複数の指標に基づいて求めた関心度をコンテンツ決定部26に通知する。
In addition, the criteria of “noisy and noisy” with a degree of excitement of “1” is that the volume is “8” or higher, the speech density is “9” or higher, the expression indicating “no expression” is “7” or higher, “5” or more, the distance to the screen is “5” or more, SNS is “5” or less or “8” or more (there are many topics that are not topical or boring), and the number of visitors is “5” or less To do.
The interest
なお、関心度は「盛り上がり度」に限定されず、例えば観客が集中しているかを示す「集中度」や感動の度合いを示す「感動度」等とし、異なる判定基準を設けてもよい。 Note that the degree of interest is not limited to “the degree of excitement”, and for example, “concentration” indicating whether the audience is concentrated, “impression” indicating the degree of impression, and the like, different determination criteria may be provided.
記録部25は、コンテンツ上映(実行)の履歴として、関心度算出部24により算出した関心度と属性取得部22により取得した視聴者の属性とを各コンテンツに紐づけて記録する。
The
図7は記録部25により記録される上映履歴情報84の一例である。
図7に示すように、上映履歴情報84には、コンテンツの上映日時と実行したコンテンツのコンテンツNo.が順次記録される。各コンテンツNo.には視聴者の性別や年齢層といった属性情報と、関心度算出部24により算出された関心度とが紐づけて記録される。属性情報の性別や年齢層は、視聴者全体の比率の大きい性別や年齢層を記録する。或いは、男女の比率や、各年齢層の比率を記録してもよい。
FIG. 7 is an example of the
As shown in FIG. 7, the
コンテンツ決定部26は、属性取得部22により取得した視聴者の属性、及び関心度算出部24により算出された関心度に基づき、ロボット2(コンテンツ実行部21)が実行するコンテンツを決定する。具体的にはコンテンツ決定部26は、視聴者の属性及び関心度に基づいてコンテンツテーブル81に記録されたコンテンツの中から最適なコンテンツを複数選択し、視聴者の属性及び関心度に適した推薦上映リスト85を生成する。生成された推薦上映リスト85は、記憶部202の上映リストデータ82に含めてもよいし、記憶部202の別の記憶領域に記憶されてもよい。
The
図8は、コンテンツ決定部26により生成された推薦上映リスト85の一例である。
図8に示すように、性別、年齢層、及び関心度に基づいていくつかのコンテンツを選択したリスト(上映リスト)が生成される。例えば、コンテンツ決定部26は該当する性別及び年齢層で関心度の高いコンテンツを優先的に上映リストに含めるようにすればよい。
FIG. 8 is an example of the recommended
As shown in FIG. 8, a list (screening list) in which some contents are selected based on gender, age group, and degree of interest is generated. For example, the
具体的には、0〜5歳の男子向けにはコンテンツA,C,D,・・・、0〜5歳の女子向けにはコンテンツB,A,C,・・・、6〜12歳の男子向けにはコンテンツB,C,E,・・・、6〜12歳の女子向けにはコンテンツA,D,E,・・・のように上映リストが生成される。 Specifically, content A, C, D, ... for boys 0-5 years old, content B, A, C, ..., 6-12 years old for girls 0-5 years old A screening list is generated for contents B, C, E,... For boys, and contents A, D, E,.
また、コンテンツ決定部26は、上映履歴情報84を参照して所定期間上映されていないコンテンツを上述の推薦上映リスト85に優先的に含めるようにしてもよい。また、予め指定された優先コンテンツを推薦上映リスト85に優先的に含めるようにしてもよい。また、新たに作成された新作コンテンツを推薦上映リスト85に優先的に含めるようにしてもよい。そのため、コンテンツDB31に格納された各コンテンツに、図9に示すように「優先」フラグや「新作」フラグをユーザが設定しておくことが望ましい。コンテンツ決定部26はこれらのフラグが「1」に設定されたコンテンツを優先的に推薦上映リスト85に組み込むものとする。また、コンテンツ決定部26は上映頻度が偏らないように上映するコンテンツを選択、決定するようにしてもよい。
In addition, the
図9に示すコンテンツテーブル81は、コンテンツDB31に格納された各コンテンツのタイトル、種別、優先度等を設定したテーブルである。コンテンツテーブル81はコンテンツデータとともにコンテンツDB31に格納される。コンテンツテーブル81の「コンテンツNo.」はコンテンツの識別情報であり、「タイトル」は各コンテンツの題名であり、「種別」はクイズ、お話等のコンテンツの内容の種別であり、「優先」は上映リストに優先的に含めるか否かを指定するフラグであり、「新作」は新作であるか否かを示すフラグである。
The content table 81 shown in FIG. 9 is a table in which the title, type, priority, etc. of each content stored in the
コンテンツ決定部26は、コンテンツテーブル81の優先フラグや新作フラグ、或いは上映履歴情報84を参照して、推薦上映リスト85に含めるコンテンツをコンテンツテーブル81から選択する。またコンテンツの順序は、例えば同じ種別のコンテンツが連続しないように並べたり、或いはあえて同じ種別のコンテンツを連続させたりするなど、演出者が予め指定した条件で決定すればよい。
The
次に、図10を参照してロボット2が実行するコンテンツ決定処理の流れを説明する。
Next, the flow of content determination processing executed by the
図10のフローチャートに示すように、ロボット2の制御部201はまず周囲にいる視聴者の視聴者属性を取得する(ステップS101)。上述したように、視聴者属性は、例えば年齢や性別等であり、ロボット2のカメラ210または外付けの距離画像センサ4により撮影した画像を解析し、各視聴者の属性(年齢や性別)を判断する。また、アンケート調査等によって得た属性データをロボット2に入力してもよい。
As shown in the flowchart of FIG. 10, the
公演が始まると、ロボット2はコンテンツを実行する(ステップS102)。制御部201は、ロボット2によるコンテンツの実行を制御する。すなわち制御部201は、記憶部202に記憶されている上映リストデータ82を参照し、事前に設定されるか、或いは指定された上映リストに設定されているコンテンツのコンテンツデータをコンテンツDB31から順に読み出して実行する。上映するコンテンツは、例えば、ロボット2によるクイズの出題や進行、お話、その他の各種の演目が含まれる。制御部201は、コンテンツデータに従ってロボット2の発話やアクションを制御する。
When the performance starts, the
コンテンツ実行中、ロボット2の制御部201は視聴者の反応を取得する(ステップS103)。視聴者の反応は、上述したように、例えば(1)ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報、(2)ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報、(3)インターネット6に公開された情報等から取得できる。(1)の画像情報及び(2)の音声情報は、ロボット2がコンテンツを実行している間にリアルタイムに取得する。(3)のインターネット6に公開された情報は、視聴者がコンテンツの視聴終了後にSNS等を利用し、感想等を書き込むため、通常、上映終了後に取得できる。
During the execution of the content, the
制御部201は、ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報に基づいて視聴者の表情(喜び、驚き、怒り、悲しみ、無表情等)を取得する。また制御部201は、ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報に基づいて会場(視聴者)音量や発話密度等を取得する。
The
制御部201は、ステップS103で取得した視聴者の反応に基づきコンテンツに対する関心度を算出する(ステップS104)。制御部201は記憶部202に記憶されている関心度算出テーブル83(図6参照)を参照し、音量、発話密度、表情、よそ見、画面との距離等のいくつかの指標を考慮して、上映中の各コンテンツの関心度を算出する。制御部201は更に、来場者数等の入力されたデータを考慮して関心度を算出してもよい。例えば、来場者数が多い場合は関心度が高く、来場者が少ない場合は関心度が低いとすればよい。
The
制御部201は、ステップS104で算出した視聴者の関心度とステップS101で取得した視聴者属性とをコンテンツに紐づけて上映履歴情報84(図7参照)に記録する(ステップS105)。
The
コンテンツの実行中、ステップS103〜ステップS105の処理を行い、実行した各コンテンツについて属性(視聴者の性別や年齢層)を上映履歴情報84に記録するとともに、視聴者の反応(関心度)を上映履歴情報84に記録しておく。
During the execution of the content, the processing from step S103 to step S105 is performed, and the attribute (viewer's gender and age group) is recorded in the
上映終了後に制御部201はインターネット6に公開された情報から上映したコンテンツについて検索し、検索ヒット数や感想等を取得し、これらのインターネット情報を考慮して関心度を再算出し、再記録してもよい。
After the screening, the
上映が終了すると、制御部201は、上映履歴情報84を参照して、視聴者の性別、年齢毎に推薦上映リスト85を生成する(ステップS106)。推薦上映リスト85を生成する際、制御部201は各コンテンツの関心度を考慮する他、来場者数や、コンテンツに設定された優先度(優先フラグ、新作フラグ)を考慮して推薦上映リスト85を作成する。
When the screening is completed, the
制御部201は作成した推薦上映リスト85を記憶部202の上映リストデータ82に追加し、一連のコンテンツ決定処理を終了する。
ロボット2の制御部201が上映するコンテンツを決定する際は、上映リストデータ82(推薦上映リスト85を含む)の中から、視聴者の属性や年齢に応じて最適な上映リストを選択すればよい。例えば、盛り上がり重視や集中度重視等、求める関心度に応じた上映リストを、視聴者の属性や年齢層に応じて選択できる。
The
When the
以上説明したように、ロボット2は視聴者に対しコンテンツを実行する際に、視聴者の属性を取得し、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の属性及び関心度に基づきロボット2が実行するコンテンツを決定する。視聴者の関心度は、視聴者がコンテンツを視聴している様子を撮影した画像や会場(視聴者)の音声情報、SNS等のインターネット情報、来場者数等から求められる。これにより視聴者の関心度の高いコンテンツを人手を介さずに決定してロボット2に実行させることが可能となる。
As described above, when the
なお、図4ではロボット2内の制御部201及び記憶部202に、コンテンツ決定システム1が備える各機能部(コンテンツ実行部21、属性取得部22、反応取得部23、画像解析部23a、発声状況取得部23b、インターネット情報収集部23c、関心度算出部24、記録部25、コンテンツ決定部26、及び各種データ等)が設けられるものとしているが、ロボット2とは別に設けられるコンピュータ3にこれらの各機能部を設け、コンピュータ3が図10に示すコンテンツ決定処理を実行したり、ロボット2を制御したりしてもよい。また、各機能部の処理はプログラムによって実行されるものとしてもよい。これらの処理に関するプログラムはロボット2の記憶部202またはコンピュータ3の記憶部302に記憶されものとしてもよいし、インターネット6等のネットワークを介してロボット2またはコンピュータ3にインストールすることも可能である。
In FIG. 4, the
以上、添付図面を参照して、本発明に係るロボット、コンテンツ決定装置、コンテンツ決定方法等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the robot, the content determination device, the content determination method, and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.
1……………………コンテンツ決定システム
2……………………ロボット
201………………制御部
21…………………コンテンツ実行部
22…………………属性取得部
23…………………反応取得部
23a………………画像解析部
23b………………発声状況取得部
23c………………インターネット情報収集部
24…………………関心度算出部
25…………………記録部
26…………………コンテンツ決定部
202………………記憶部
31…………………コンテンツDB
32…………………発話DB
33…………………アクションDB
81…………………コンテンツテーブル
82…………………上映リストデータ
83…………………関心度算出テーブル
84…………………上映履歴情報
85…………………推薦上映リスト
3……………………コンピュータ
301………………制御部
302………………記憶部
4……………………距離画像センサ
5……………………マイク
6……………………インターネット
7……………………SNSサーバ
1 ……………………
32 ………………… Speech DB
33 …………………… Action DB
81 …………………… Contents table 82 …………………
Claims (13)
実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、
取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、
前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、
を備えることを特徴とするロボット。 Content execution means for executing content for viewers;
Reaction acquisition means for acquiring a response of the viewer to the content to be executed;
An interest level calculating means for calculating the viewer's interest level based on the acquired viewer's reaction;
Content determination means for determining content to be executed by the content execution means based on the degree of interest of the viewer;
A robot characterized by comprising:
前記コンテンツ決定手段は、前記視聴者の属性及び前記関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定することを特徴とする請求項1に記載のロボット。 Attribute acquisition means for acquiring attributes of the viewer,
The robot according to claim 1, wherein the content determination unit determines the content to be executed by the content execution unit based on the attribute of the viewer and the degree of interest.
前記視聴者の発声状況を取得する発声状況取得手段と、を更に備え、
前記反応取得手段は、前記画像の解析結果及び前記発声状況に基づいて前記視聴者の反応を取得することを特徴とする請求項1または請求項2に記載のロボット。 Image analysis means for acquiring and analyzing an image of the viewer's appearance;
Utterance status acquisition means for acquiring the utterance status of the viewer,
The robot according to claim 1, wherein the response acquisition unit acquires the viewer's response based on the analysis result of the image and the utterance state.
前記反応取得手段は、更に前記インターネット情報収集手段により収集した反応を前記視聴者の反応に含めることを特徴とする請求項1から請求項3のいずれかに記載のロボット。 Internet information collecting means for collecting a reaction related to the screening of the content from information published on the Internet,
The robot according to any one of claims 1 to 3, wherein the response acquisition unit further includes the response collected by the Internet information collection unit in the viewer's response.
前記コンテンツ決定手段は、視聴者の属性及び前記関心度に基づいて前記記録手段に記録されたコンテンツの中から最適なコンテンツを複数選択し、一連の上映リストを生成することを特徴とする請求項2に記載のロボット。 Recording means for recording the degree of interest for each content in association with the attribute of the viewer;
The content determination means selects a plurality of optimum contents from contents recorded in the recording means based on viewer attributes and the degree of interest, and generates a series of screening lists. 2. The robot according to 2.
実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、
取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、
前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、
を備えることを特徴とするコンテンツ決定装置。 Content execution means for executing content for viewers;
Reaction acquisition means for acquiring a response of the viewer to the content to be executed;
An interest level calculating means for calculating the viewer's interest level based on the acquired viewer's reaction;
Content determination means for determining content to be executed by the content execution means based on the degree of interest of the viewer;
A content determination apparatus comprising:
コンピュータが実行されるコンテンツに対する前記視聴者の反応を取得するステップと、
コンピュータが取得した視聴者の反応に基づいて前記視聴者の関心度を求めるステップと、
コンピュータが前記視聴者の関心度に基づき実行するコンテンツを決定するステップと、
を含むことを特徴とするコンテンツ決定方法。 A computer causing a viewer to execute content using a robot;
Obtaining a response of the viewer to computer-executed content;
Determining the viewer's interest based on a viewer response obtained by a computer;
Determining content to be executed by a computer based on the viewer's interest;
The content determination method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015193511A JP2017064853A (en) | 2015-09-30 | 2015-09-30 | Robot, content deciding device, content deciding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015193511A JP2017064853A (en) | 2015-09-30 | 2015-09-30 | Robot, content deciding device, content deciding method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017064853A true JP2017064853A (en) | 2017-04-06 |
Family
ID=58491121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015193511A Pending JP2017064853A (en) | 2015-09-30 | 2015-09-30 | Robot, content deciding device, content deciding method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017064853A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018001710T5 (en) | 2017-03-29 | 2019-12-24 | Honda Motor Co., Ltd. | Walking aid system, walking aid procedure and walking aid program |
JP2019217558A (en) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | Interactive system and control method for the same |
JP2022070003A (en) * | 2020-10-26 | 2022-05-12 | トヨタ自動車株式会社 | Display system |
US11823553B2 (en) | 2019-04-08 | 2023-11-21 | Sony Group Corporation | Information processing device, information processing method, and information processing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011124656A (en) * | 2009-12-08 | 2011-06-23 | Nomura Research Institute Ltd | Video content recommendation management device, method of instructing reproduction of scene in video content, and program thereof |
JP2012155616A (en) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | Content provision system, content provision method, and content provision program |
-
2015
- 2015-09-30 JP JP2015193511A patent/JP2017064853A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011124656A (en) * | 2009-12-08 | 2011-06-23 | Nomura Research Institute Ltd | Video content recommendation management device, method of instructing reproduction of scene in video content, and program thereof |
JP2012155616A (en) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | Content provision system, content provision method, and content provision program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018001710T5 (en) | 2017-03-29 | 2019-12-24 | Honda Motor Co., Ltd. | Walking aid system, walking aid procedure and walking aid program |
JP2019217558A (en) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | Interactive system and control method for the same |
JP7045938B2 (en) | 2018-06-15 | 2022-04-01 | 株式会社日立製作所 | Dialogue system and control method of dialogue system |
US11823553B2 (en) | 2019-04-08 | 2023-11-21 | Sony Group Corporation | Information processing device, information processing method, and information processing system |
JP2022070003A (en) * | 2020-10-26 | 2022-05-12 | トヨタ自動車株式会社 | Display system |
US11687308B2 (en) | 2020-10-26 | 2023-06-27 | Toyota Jidosha Kabushiki Kaisha | Display system |
JP7310779B2 (en) | 2020-10-26 | 2023-07-19 | トヨタ自動車株式会社 | display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220284896A1 (en) | Electronic personal interactive device | |
JP6902683B2 (en) | Virtual robot interaction methods, devices, storage media and electronic devices | |
Sadoughi et al. | Speech-driven animation with meaningful behaviors | |
US10347250B2 (en) | Utterance presentation device, utterance presentation method, and computer program product | |
US20140278403A1 (en) | Systems and methods for interactive synthetic character dialogue | |
JP6122792B2 (en) | Robot control apparatus, robot control method, and robot control program | |
TW201117114A (en) | System, apparatus and method for message simulation | |
US9525841B2 (en) | Imaging device for associating image data with shooting condition information | |
WO2018043112A1 (en) | Information presentation apparatus and information presentation method | |
JP2023552854A (en) | Human-computer interaction methods, devices, systems, electronic devices, computer-readable media and programs | |
JP2017064853A (en) | Robot, content deciding device, content deciding method, and program | |
JP2016177483A (en) | Communication support device, communication support method, and program | |
JP2010224715A (en) | Image display system, digital photo-frame, information processing system, program, and information storage medium | |
JP6886651B2 (en) | Action command generation system, response system and action command generation method | |
JP2019133451A (en) | Evaluation method, evaluation device, evaluation program, and evaluation system | |
Origlia et al. | FANTASIA: a framework for advanced natural tools and applications in social, interactive approaches | |
JP2017182261A (en) | Information processing apparatus, information processing method, and program | |
JP6972526B2 (en) | Content providing device, content providing method, and program | |
WO2019146199A1 (en) | Information processing device and information processing method | |
WO2020087534A1 (en) | Generating response in conversation | |
JP2017068592A (en) | Robot, robot control device, robot control method and program | |
KR102616058B1 (en) | Method, computer device, and computer program to replay audio recording through visualization | |
JP7327161B2 (en) | Information processing device, information processing method, and program | |
Yuan | An approach to integrating emotion in dialogue management | |
JP6759907B2 (en) | Information presentation device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200218 |