JP2018098545A - Robot, operation control system, operation control method, and program - Google Patents

Robot, operation control system, operation control method, and program Download PDF

Info

Publication number
JP2018098545A
JP2018098545A JP2016238785A JP2016238785A JP2018098545A JP 2018098545 A JP2018098545 A JP 2018098545A JP 2016238785 A JP2016238785 A JP 2016238785A JP 2016238785 A JP2016238785 A JP 2016238785A JP 2018098545 A JP2018098545 A JP 2018098545A
Authority
JP
Japan
Prior art keywords
content
unit
user
emotion
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016238785A
Other languages
Japanese (ja)
Inventor
大塚 利彦
Toshihiko Otsuka
利彦 大塚
広城 渥美
Hiroki Atsumi
広城 渥美
高弘 冨田
Takahiro Tomita
高弘 冨田
河村 義裕
Yoshihiro Kawamura
義裕 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016238785A priority Critical patent/JP2018098545A/en
Publication of JP2018098545A publication Critical patent/JP2018098545A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a robot to make an operation based on the degree of user's interest in a content.SOLUTION: A robot 100 comprises an acquisition unit 111, an operation content determination unit 112, and an operation control unit 113. The acquisition unit 111 acquires insertion data inserted in a content. The operation content determination unit 112 determines an operation content of its own device on the basis of the degree of the user's interest in the insertion data acquired by the acquisition unit 111. The operation control section 113 causes its own device to operate on the basis of the operation content determined by the operation content determination unit 112.SELECTED DRAWING: Figure 5

Description

本発明は、ロボット、動作制御システム、動作制御方法及びプログラムに関する。   The present invention relates to a robot, an operation control system, an operation control method, and a program.

ロボットの動きを放送内容に連動させる技術が知られている。例えば、特許文献1には、放送局がロボットの動作情報をデータ放送として映像情報と共に配信し、配信された情報を受信した受信装置が映像情報と同期させて該動作情報をロボットへ送信することにより、映像と同期してロボットを動作させる技術が開示されている。   A technique for linking the movement of a robot to the broadcast content is known. For example, in Patent Document 1, a broadcast station distributes robot operation information together with video information as a data broadcast, and a receiving device that receives the distributed information transmits the operation information to the robot in synchronization with the video information. Thus, a technique for operating a robot in synchronization with a video is disclosed.

特開2003−169305号公報JP 2003-169305 A

特許文献1に開示されている技術は、配信された動作情報に従ってロボットを動作させることができる。しかし、このロボットは、配信された動作情報に従って動作するだけであり、コンテンツに対するユーザの関心度に基づく動作をすることはできない。   The technique disclosed in Patent Literature 1 can operate a robot according to distributed motion information. However, this robot only operates according to the distributed operation information, and cannot operate based on the user's degree of interest in the content.

本発明はこのような事情に鑑みてなされたものであって、コンテンツに対するユーザの関心度に基づく動作をすることが可能なロボット、動作制御システム、動作制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide a robot, an operation control system, an operation control method, and a program capable of performing an operation based on a user's interest in content. To do.

上記目的を達成するため、本発明に係るロボットは、
コンテンツに挿入されている挿入データを取得する取得部と、
前記取得部が取得した前記挿入データに対するユーザの関心度に基づいて、自装置の動作内容を決定する動作内容決定部と、
前記動作内容決定部が決定した動作内容に基づいて前記自装置を動作させる動作制御部と、
を備える。
In order to achieve the above object, a robot according to the present invention provides:
An acquisition unit for acquiring insertion data inserted in the content;
An operation content determination unit that determines the operation content of the device based on the degree of interest of the user with respect to the insertion data acquired by the acquisition unit;
An operation control unit for operating the device based on the operation content determined by the operation content determination unit;
Is provided.

本発明によれば、ロボットが、コンテンツに対するユーザの関心度に基づく動作をすることを可能にする。   According to the present invention, it is possible for the robot to perform an operation based on the degree of interest of the user with respect to the content.

本発明の実施形態に係る動作制御システムのシステム構成図を示す図である。It is a figure showing the system configuration figure of the operation control system concerning the embodiment of the present invention. 実施形態に係る動作制御データ挿入済コンテンツを説明する図である。It is a figure explaining the operation control data inserted content concerning an embodiment. 実施形態に係る動作制御システムの動作制御データの例を示す図である。It is a figure which shows the example of the operation control data of the operation control system which concerns on embodiment. 実施形態に係るロボットの外観を示す図である。It is a figure which shows the external appearance of the robot which concerns on embodiment. 実施形態に係るロボットの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the robot which concerns on embodiment. 実施形態に係るロボットのキーワード関心度対応表の例を示す図である。It is a figure which shows the example of the keyword interest degree correspondence table | surface of the robot which concerns on embodiment. 実施形態に係るロボットのキーワード関心度対応表において、感情の項目を含む例を示す図である。It is a figure which shows the example containing the item of an emotion in the keyword interest degree correspondence table | surface of the robot which concerns on embodiment. 実施形態に係るロボットのユーザ毎キーワード関心度対応表の例を示す図である。It is a figure which shows the example of the keyword interest level corresponding table | surface for every user of the robot which concerns on embodiment. 実施形態に係るロボットの関心度動作内容対応表の例を示す図である。It is a figure which shows the example of the interest level operation | movement content corresponding table of the robot which concerns on embodiment. 実施形態に係る動作制御システムの感情判定値送信データの例を示す図である。It is a figure which shows the example of the emotion judgment value transmission data of the operation control system which concerns on embodiment. 実施形態に係るコンテンツ再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content reproduction apparatus which concerns on embodiment. 実施形態に係るコンテンツ配信装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content delivery apparatus which concerns on embodiment. 実施形態に係るコンテンツ配信装置が記憶する動作制御データDBの例を示す図である。It is a figure which shows the example of operation | movement control data DB which the content delivery apparatus which concerns on embodiment memorize | stores. 実施形態に係るコンテンツ配信装置が記憶する配信スケジュールDBの例を示す図である。It is a figure which shows the example of distribution schedule DB which the content distribution apparatus which concerns on embodiment memorize | stores. 実施形態に係るコンテンツ配信装置が記憶する関心度DBの例を示す図である。It is a figure which shows the example of interest level DB which the content delivery apparatus which concerns on embodiment memorize | stores. 実施形態に係るコンテンツ配信装置のコンテンツ配信処理のフローチャートである。It is a flowchart of the content delivery process of the content delivery apparatus which concerns on embodiment. 実施形態に係るコンテンツ再生装置のコンテンツ再生処理のフローチャートである。It is a flowchart of the content reproduction process of the content reproduction apparatus which concerns on embodiment. 実施形態に係るロボットの動作制御処理のフローチャートである。It is a flowchart of the operation control process of the robot which concerns on embodiment. 実施形態に係るコンテンツ配信装置の関心度DB集計処理のフローチャートである。It is a flowchart of the interest level DB totalization process of the content distribution apparatus which concerns on embodiment. 本発明の実施形態の変形例に係る動作制御システムのシステム構成図を示す図である。It is a figure showing the system configuration figure of the operation control system concerning the modification of the embodiment of the present invention. 変形例に係る動作制御データ挿入済コンテンツを説明する図である。It is a figure explaining the motion control data insertion completed content which concerns on a modification. 変形例に係るコンテンツ再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content reproduction apparatus which concerns on a modification. 変形例に係るコンテンツ再生装置のコンテンツ再生処理のフローチャートである。It is a flowchart of the content reproduction process of the content reproduction apparatus which concerns on a modification. 変形例に係るロボットの動作制御処理のフローチャートである。It is a flowchart of the operation control process of the robot which concerns on a modification. 制御部等の一部を外部のサーバに設ける構成の一例を示す図である。It is a figure which shows an example of a structure which provides one part, such as a control part, in an external server.

以下、本発明の実施形態に係るロボット、動作制御システム、動作制御方法及びプログラムについて、図面を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Hereinafter, a robot, an operation control system, an operation control method, and a program according to an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

本発明の実施形態に係る動作制御システム1000は、図1に示すように、ロボット100と、コンテンツ再生装置200と、コンテンツ配信装置300と、を備える。コンテンツ配信装置300は、放送網(電波等)又はIP(Internet Protocol)ネットワークを介して、コンテンツ再生装置200にコンテンツを配信する。コンテンツ再生装置200は、コンテンツ配信装置300から配信されたコンテンツを再生する。一般にコンテンツは、映像、音声及びデータから構成されるが、これらの一部のみから構成されるコンテンツもあり得る。例えば、映像のみ、音声のみ、映像と音声のみ、映像とデータのみ、音声とデータのみ、からなるコンテンツである。動作制御システム1000で用いるコンテンツには、図2に示すように、ロボット100の動作を制御するための動作制御データ(挿入データ)が、映像及び/又は音声に挿入されている。図3に示すように、動作制御データには、コンテンツに関連するキーワード等が含まれており、ロボット100が動作内容を決定するために使用する。   As illustrated in FIG. 1, the operation control system 1000 according to the embodiment of the present invention includes a robot 100, a content reproduction device 200, and a content distribution device 300. The content distribution device 300 distributes content to the content reproduction device 200 via a broadcast network (such as radio waves) or an IP (Internet Protocol) network. The content reproduction device 200 reproduces the content distributed from the content distribution device 300. In general, the content is composed of video, audio, and data, but there may be content composed of only a part of these. For example, the content includes only video, only audio, only video and audio, only video and data, and only audio and data. In the content used in the motion control system 1000, motion control data (insertion data) for controlling the motion of the robot 100 is inserted into video and / or audio, as shown in FIG. As shown in FIG. 3, the motion control data includes keywords and the like related to the content, and is used by the robot 100 to determine the motion content.

ロボット100は、コンテンツ再生装置200によって再生されたコンテンツに挿入されている動作制御データを取得する。そしてロボット100は、取得した動作制御データに含まれるキーワードに対するユーザ400の関心度に基づいて、動作、仕草、表情、声等を用いてユーザ400に該コンテンツの情報を知らせる。そしてロボット100は、該コンテンツを視聴したユーザ400の反応(表情、動作、仕草、声等)に基づいてユーザ400の感情を判定し、判定した感情の値をコンテンツ配信装置300に送信する。なお、関心度とは、関心の高さを示す値であり、0%から100%までの値を取る。また、コンテンツには、音声の含まれないコンテンツ及び映像の含まれないコンテンツもあり得るため、「コンテンツを視聴したユーザ」には、「コンテンツを見たユーザ」及び「コンテンツを聴いたユーザ」が含まれる。1台のコンテンツ配信装置300からコンテンツの配信を受けるコンテンツ再生装置200は1台以上存在する。また1台のコンテンツ再生装置200から動作制御データを取得するロボット100は1台以上存在する。そして、各ロボット100は、通常1人のユーザ400によって所有される。   The robot 100 acquires operation control data inserted in the content reproduced by the content reproduction device 200. Then, the robot 100 informs the user 400 of the content information using the motion, gesture, facial expression, voice, and the like based on the degree of interest of the user 400 with respect to the keyword included in the acquired motion control data. Then, the robot 100 determines the emotion of the user 400 based on the reaction (expression, action, gesture, voice, etc.) of the user 400 who viewed the content, and transmits the determined emotion value to the content distribution device 300. The interest level is a value indicating the level of interest, and takes a value from 0% to 100%. In addition, since content may include content that does not include audio and content that does not include video, “user who viewed content” includes “user who viewed content” and “user who viewed content”. included. There are one or more content reproduction devices 200 that receive content distribution from one content distribution device 300. In addition, there are one or more robots 100 that acquire operation control data from one content reproduction apparatus 200. Each robot 100 is normally owned by one user 400.

コンテンツに動作制御データを挿入する者(動作制御データ挿入者)は、コンテンツ配信業者、コンテンツ制作者、コンテンツ配信のスポンサー等である。コンテンツ中に動作制御データが挿入されていると、ロボット100は、該動作制御データに含まれる情報に基づいて動作等(動作、仕草、表情、声等)の内容を決定し、ユーザ400の気を引くように該動作等を行う。動作制御データ挿入者は、このロボット100の動作等によって、ユーザ400がコンテンツの内容により関心を持つことを期待している。したがって、動作制御データ挿入者は、ユーザ400に関心を持たせたいと考える「もの」又はユーザ400が関心を持っているであろうと考える「もの」がコンテンツに含まれる場合に、該コンテンツに動作制御データを挿入する。その際、動作制御データ挿入者は、コンテンツのその「もの」が再生される直前の部分に、その「もの」を示すキーワードを含む動作制御データを挿入する。そして、この動作制御データを取得したロボット100は、動作制御データに含まれるキーワードに対するユーザ400の関心度等に応じて、動作等の内容を決定する。ロボット100によるこの動作等により、ユーザ400は、自分が関心を持っている「もの」がコンテンツ再生装置200から再生されることを事前に知ることができる。   The person who inserts the operation control data into the content (the operation control data inserter) is a content distributor, a content creator, a content distribution sponsor, or the like. When motion control data is inserted into the content, the robot 100 determines the content of the motion or the like (motion, gesture, facial expression, voice, etc.) based on the information included in the motion control data and Such an operation is performed so as to draw. The operation control data inserter expects the user 400 to be more interested in the content by the operation of the robot 100 or the like. Therefore, the operation control data inserter operates on the content when the “thing” that the user 400 wants to be interested in or the “thing” that the user 400 thinks that the user 400 is interested in is included in the content. Insert control data. At that time, the motion control data inserter inserts motion control data including a keyword indicating the “thing” in a portion immediately before the “thing” of the content is reproduced. The robot 100 that has acquired the motion control data determines the content of the motion and the like according to the degree of interest of the user 400 with respect to the keyword included in the motion control data. Through this operation by the robot 100, the user 400 can know in advance that the “thing” that he / she is interested in is reproduced from the content reproduction apparatus 200.

ロボット100は、図4(A)及び図4(B)に示すように、外観的には小型犬を模した立体的な形状を有する。ロボット100は、頭部151、胴部152、左右一対の手部157、左右一対の足部158及び尻尾部159を備える。また、頭部151は、左右一対の耳部153、左右一対の眼部154、鼻部155及び口部156を有する。口部156は、頭部151の下部に設けられた開口の形状を変化させる一般的な機構を有し、開口の形状の変化により種々の表情を表出する。なお、ロボット100の形状は、小型犬を模した立体的な形状に限定されるわけではなく、任意の形状を採用することができるが、ユーザ400に対して、種々の仕草及び表情を表出可能であることが望ましい。   As shown in FIGS. 4A and 4B, the robot 100 has a three-dimensional shape imitating a small dog in appearance. The robot 100 includes a head 151, a torso 152, a pair of left and right hands 157, a pair of left and right feet 158, and a tail 159. The head 151 has a pair of left and right ears 153, a pair of left and right eyes 154, a nose 155, and a mouth 156. The mouth part 156 has a general mechanism for changing the shape of the opening provided at the lower part of the head 151, and expresses various expressions by changing the shape of the opening. Note that the shape of the robot 100 is not limited to the three-dimensional shape imitating a small dog, and any shape can be adopted, but various gestures and expressions can be expressed to the user 400. It is desirable to be possible.

ロボット100は、機能的には、図5に示すように、制御部110、記憶部120、移動部131、可動部132、表示部133、音出力部134、通信部135及びセンサ部140、を備える。   Functionally, the robot 100 includes a control unit 110, a storage unit 120, a moving unit 131, a movable unit 132, a display unit 133, a sound output unit 134, a communication unit 135, and a sensor unit 140, as shown in FIG. Prepare.

制御部110は、CPU(Central Processing Unit)等を備える。制御部110は、記憶部120に記憶されたプログラムを実行することにより、後述する各部(取得部111、動作内容決定部112、動作制御部113、感情判定部114、関心度更新部115及び感情判定値送信部116)の機能を実現する。また、制御部110は図示しない時計部を備え、現在時刻を取得することができる。   The control unit 110 includes a CPU (Central Processing Unit) and the like. The control unit 110 executes each program (acquisition unit 111, operation content determination unit 112, operation control unit 113, emotion determination unit 114, interest level update unit 115, and emotion) described later by executing a program stored in the storage unit 120. The function of the determination value transmission unit 116) is realized. The control unit 110 includes a clock unit (not shown) and can acquire the current time.

記憶部120は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。ROMは制御部110のCPUが実行するプログラム及び、プログラムを実行する上で予め必要なデータを記憶する。RAMは、プログラム実行中に作成されたり変更されたりするデータが記憶される。また、記憶部120は、キーワード関心度対応表121、関心度動作内容対応表122及びロボットID123を記憶している。   The storage unit 120 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM stores a program executed by the CPU of the control unit 110 and data required in advance for executing the program. The RAM stores data that is created or changed during program execution. The storage unit 120 also stores a keyword interest level correspondence table 121, an interest level action content correspondence table 122, and a robot ID 123.

キーワード関心度対応表121は、図6に示すように、キーワードと、そのキーワードに対するロボット100のユーザ400の関心度と、を対応付けたテーブルである。ロボット100のユーザ400は、キーワード関心度対応表121の内容を、通信部135を介して通信可能なPC(Personal Computer)等からの入力により、自由に設定することができる。ユーザ400は、関心が高いキーワードには、100%を上限として、高い値を関心度に設定する。ユーザ400は、関心がないキーワードについては、キーワード関心度対応表121から削除するか、又は、関心度に0%を設定する。   As shown in FIG. 6, the keyword interest level correspondence table 121 is a table in which keywords are associated with the interest levels of the user 400 of the robot 100 for the keywords. The user 400 of the robot 100 can freely set the content of the keyword interest level correspondence table 121 by an input from a PC (Personal Computer) or the like that can communicate via the communication unit 135. The user 400 sets a high value as a degree of interest for keywords with high interest, with 100% as the upper limit. The user 400 deletes keywords that are not of interest from the keyword interest level correspondence table 121 or sets the interest level to 0%.

また、キーワード関心度対応表121は、図7に示すように、ユーザ400がキーワードに対して抱く感情を含んだテーブルとしても良い。感情を含んだテーブルにすると、ロボット100がキーワードに基づく動作をする際に、感情の値も用いて動作の内容を決定することができる。また、ロボット100が、後述する撮像部141及び音入力部142を用いて複数のユーザ400を認識することができる場合には、図8に示すような、認識可能なユーザ400毎のキーワード関心度対応表121としても良い。この場合も、さらに、感情を含んだテーブルにすることが可能である。   Further, as shown in FIG. 7, the keyword interest level correspondence table 121 may be a table including emotions that the user 400 has for the keywords. When a table including emotions is used, when the robot 100 performs an operation based on a keyword, the content of the operation can be determined using the emotion value. In addition, when the robot 100 can recognize a plurality of users 400 using an imaging unit 141 and a sound input unit 142 described later, the keyword interest level for each recognizable user 400 as shown in FIG. The correspondence table 121 may be used. Also in this case, it is possible to make a table including emotions.

関心度動作内容対応表122は、図9に示すように、関心度の大きさに応じたロボット100の動作内容を記憶したテーブルである。動作内容としては、移動部131による移動、可動部132による表情変化及び動き、表示部133による眼部154の表情変化、音出力部134による発声等、任意の動作を設定することができる。なお、可動部132による表情変化及び動きとは、頭部151の表情変化、回転及び傾げ、耳部153の動き、口部156の動き、手部157の動き、足部158の動き、尻尾部159の動き等である。また、図9に示す関心度動作内容対応表122は、関心度の大きさだけでなく、感情の値も考慮した動作内容を記憶しているが、感情の項目は省略しても良い。関心度動作内容対応表122は、感情の項目を含む場合は、ユーザ400にその感情を抱かせるような動作内容を記憶している。   The interest level operation content correspondence table 122 is a table storing the operation content of the robot 100 according to the magnitude of the interest level, as shown in FIG. As the operation content, an arbitrary operation such as movement by the moving unit 131, expression change and movement by the movable unit 132, expression change of the eye unit 154 by the display unit 133, utterance by the sound output unit 134, and the like can be set. The expression change and movement by the movable part 132 are expression change, rotation and tilt of the head 151, movement of the ear part 153, movement of the mouth part 156, movement of the hand part 157, movement of the foot part 158, and tail part. 159 movements and the like. Further, although the interest level operation content correspondence table 122 shown in FIG. 9 stores the operation content in consideration of not only the magnitude of the interest level but also the emotion value, the emotion item may be omitted. When the interest level operation content correspondence table 122 includes an emotion item, the operation level content that causes the user 400 to hold the emotion is stored.

ロボットID123は、ロボット100を一意に識別するためのID(Identification)である。基本的に各ユーザ400は、それぞれ異なるロボット100を所有しているため、コンテンツ配信装置300は、ロボットID123を、ユーザ400のIDに相当するものとして扱うことができる。   The robot ID 123 is an ID (Identification) for uniquely identifying the robot 100. Since each user 400 basically has a different robot 100, the content distribution apparatus 300 can handle the robot ID 123 as one corresponding to the ID of the user 400.

移動部131は、ロボット100を移動させるための部位である。移動部131は、ロボット100の左右一対の足部158の各々の底部に設けられた左右一対の車輪と、左右一対の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を備える。駆動回路は、制御部110からの制御信号に従って、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右一対の車輪を回転駆動させ、ロボット100を移動させる。なお、左右一対の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速等の走行が可能であれば、モータの数は任意である。例えば、連結機構又は操舵機構を設ける等して1つのモータで左右一対の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。また、車輪の代わりにクローラを備えても良い。また、ロボット100の形状によっては、複数(例えば2本)の足を備え、足で歩行することによって移動しても良い。この場合、移動部131は、複数の足と、その足を動かすモータと、モータを駆動制御する駆動回路と、を備える。   The moving unit 131 is a part for moving the robot 100. The moving unit 131 includes a pair of left and right wheels provided at the bottom of each of the pair of left and right feet 158 of the robot 100, a motor that rotationally drives the pair of left and right wheels, and a drive circuit that controls the motor. . The drive circuit supplies a drive pulse signal to the motor in accordance with a control signal from the control unit 110. The motor rotates the pair of left and right wheels according to the driving pulse signal to move the robot 100. Note that the number of motors is arbitrary as long as the pair of left and right wheels are configured to rotate independently of each other and the robot 100 can travel forward, backward, turn, accelerate and decelerate. For example, a pair of left and right wheels may be driven by one motor by providing a connection mechanism or a steering mechanism. In addition, the number of drive circuits can be changed as appropriate in accordance with the number of motors. Moreover, you may provide a crawler instead of a wheel. Further, depending on the shape of the robot 100, a plurality of (for example, two) legs may be provided and moved by walking with the legs. In this case, the moving unit 131 includes a plurality of legs, a motor that moves the legs, and a drive circuit that drives and controls the motor.

可動部132は、制御部110の制御に従って所定の動きをする部位である。可動部132は、頭部151、手部157、足部158、尻尾部159等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、を備える。制御部110の制御の下、駆動回路から供給された駆動信号に従って駆動部材が被駆動部材を駆動することにより、可動部132は、例えば、手足を動かす、頭を上下左右に振る、等の動作を行う。   The movable part 132 is a part that moves in accordance with the control of the control part 110. The movable part 132 includes a driven member such as a head 151, a hand part 157, a foot part 158, a tail part 159, a driving member such as an actuator that drives the driven member, and a drive circuit that drives and controls the driving member. Is provided. Under the control of the control unit 110, the driving member drives the driven member in accordance with the driving signal supplied from the driving circuit, so that the movable unit 132 moves, for example, limbs, shakes the head up and down, left and right, etc. I do.

表示部133は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機EL(Electro−luminescence)ディスプレイ等のディスプレイと、表示ドライバと、を備える。表示ドライバが、制御部110からの制御信号に基づいて、ディスプレイに表示する内容に応じた駆動信号をディスプレイに出力することによって、表示画面上への表示が行われる。ディスプレイは、左右一対の眼部154に設置され、目の開き具合、傾き、瞳等を表示する。眼部154に設置された表示部133により、ロボット100は、目で様々な表情を表現することが可能である。   The display unit 133 includes, for example, a display such as a liquid crystal display (LCD) or an organic EL (Electro-Luminescence) display, and a display driver. Based on the control signal from the control unit 110, the display driver outputs a drive signal corresponding to the content displayed on the display to the display, whereby display on the display screen is performed. The display is installed on the pair of left and right eyes 154 and displays the degree of eye opening, inclination, pupils, and the like. The robot 100 can express various facial expressions with eyes by the display unit 133 installed in the eye unit 154.

音出力部134は、スピーカを備え、制御部110により生成された音データを音に変換して外部に出力する。スピーカは、例えば、口部156に嵌め込まれて設置される。   The sound output unit 134 includes a speaker, converts sound data generated by the control unit 110 into sound, and outputs the sound to the outside. The speaker is installed by being fitted into the mouth 156, for example.

通信部135は、無線通信モジュール及びアンテナを備え、外部装置とのデータ通信を可能にする。ロボット100は、通信部135を介して、コンテンツ配信装置300とデータ通信を行うことができる。   The communication unit 135 includes a wireless communication module and an antenna, and enables data communication with an external device. The robot 100 can perform data communication with the content distribution apparatus 300 via the communication unit 135.

センサ部140として、撮像部141と、音入力部142と、を備える。   As the sensor unit 140, an imaging unit 141 and a sound input unit 142 are provided.

撮像部141は、画像を撮影するカメラを備える。カメラは、鼻部155等、眼部154の付近に設置され、ロボット100の正面に存在する物体を撮影する。ロボット100が移動及び回転したり、頭部151を上下左右に振ったりすることにより、撮像部141が撮影する対象を変更することができる。また、ロボット100は、ユーザ400を撮影する撮像部141と、コンテンツ再生装置200が再生する映像を撮影するコンテンツ撮像部(図示せず)と、を別々に設けても良いし、1つの撮像部141が、コンテンツ撮像部を兼ねても良い。以下では、1つの撮像部141が、コンテンツ撮像部を兼ねるものとして説明する。   The imaging unit 141 includes a camera that captures an image. The camera is installed in the vicinity of the eye portion 154 such as the nose portion 155 and photographs an object existing in front of the robot 100. When the robot 100 moves and rotates, or swings the head 151 up and down, left and right, the object to be imaged by the imaging unit 141 can be changed. In addition, the robot 100 may be provided with an image capturing unit 141 that captures the user 400 and a content image capturing unit (not shown) that captures an image reproduced by the content playback apparatus 200, or one image capturing unit. 141 may also serve as a content imaging unit. In the following description, it is assumed that one imaging unit 141 also serves as a content imaging unit.

音入力部142は、音を収集するマイクロフォンを備える。マイクロフォンは、左右一対の耳部153に設置される。ロボット100は、左右一対のマイクロフォンを備えているので、必要に応じて頭部151を上下左右に振って左右のマイクロフォンで取得される音量の差を把握することによって、音の発生方向を検出することができる。また、ロボット100は、ユーザ400の声を収集する音入力部142と、コンテンツ再生装置200が再生する非可聴域の音を収集するコンテンツ音入力部(図示せず)と、を別々に設けても良いし、1つの音入力部142が、コンテンツ音入力部を兼ねても良い。以下では、1つの音入力部142が、コンテンツ音入力部を兼ねるものとして説明する。   The sound input unit 142 includes a microphone that collects sound. The microphone is installed on a pair of left and right ears 153. Since the robot 100 includes a pair of left and right microphones, the direction of sound generation is detected by grasping the difference in volume acquired by the left and right microphones by shaking the head 151 up and down and left and right as necessary. be able to. In addition, the robot 100 is provided with a sound input unit 142 that collects the voice of the user 400 and a content sound input unit (not shown) that collects sounds in the non-audible range reproduced by the content reproduction device 200. Alternatively, one sound input unit 142 may also serve as a content sound input unit. In the following description, it is assumed that one sound input unit 142 also serves as a content sound input unit.

また、センサ部140は、これらに加えて、人感センサ、距離センサ、温度センサ、気圧センサ、ジャイロセンサ等を備えても良い。備えるセンサの数を増やすことにより、ロボット100は、動作をよりきめ細やかに制御することが可能になる。   In addition to these, the sensor unit 140 may include a human sensor, a distance sensor, a temperature sensor, an atmospheric pressure sensor, a gyro sensor, and the like. By increasing the number of sensors provided, the robot 100 can control the operation more finely.

次に、制御部110の機能構成について説明する。制御部110は、機能的には、取得部111、動作内容決定部112、動作制御部113、感情判定部114、関心度更新部115及び感情判定値送信部116を備える。   Next, the functional configuration of the control unit 110 will be described. Functionally, the control unit 110 includes an acquisition unit 111, an operation content determination unit 112, an operation control unit 113, an emotion determination unit 114, an interest level update unit 115, and an emotion determination value transmission unit 116.

取得部111は、コンテンツに挿入されている動作制御データを検出し、動作制御データに含まれているキーワードを取得する。   The acquisition unit 111 detects the operation control data inserted in the content, and acquires a keyword included in the operation control data.

ここで、動作制御データの詳細について説明する。動作制御データは、図3に示すように、「ID」、「キーワード」、「動作タイミング」、「感情」、「数」、「動作指示」を含む。「ID」は、動作制御データIDであり、動作制御データを一意に識別するものである。コンテンツ配信装置300は、後述する動作制御データDB(DataBase)322を参照することによって、この動作制御データIDに基づいて、この動作制御データが挿入されたコンテンツの配信日時及び番組名を取得することができる。「キーワード」は、動作制御データの挿入位置の直後のコンテンツに含まれている「もの」(動作制御データ挿入者が「ユーザ400に関心を持たせたい」又は「ユーザ400が関心を持っているであろう」と考える「もの」)を示すキーワードである。   Details of the operation control data will be described here. As shown in FIG. 3, the motion control data includes “ID”, “keyword”, “motion timing”, “emotion”, “number”, and “motion instruction”. “ID” is an operation control data ID, and uniquely identifies the operation control data. The content distribution device 300 refers to an operation control data DB (DataBase) 322, which will be described later, and acquires the distribution date and program name of the content in which the operation control data is inserted based on the operation control data ID. Can do. The “keyword” is “thing” included in the content immediately after the insertion position of the motion control data (the motion control data inserter wants to make the user 400 interested) or the user 400 is interested. It is a keyword indicating “things”).

「動作タイミング」は、「キーワード」に対し、ロボット100が動作を開始するタイミングを表す動作タイミング情報である。「動作タイミング」は省略可能であり、省略されている場合は、ロボット100は、動作制御データからキーワードを取得したらすぐに動作を開始する。なお、ロボット100は、動作制御データを取得するのに時間を要する場合がある。また、動作制御データの取得に失敗する場合がある。したがって、動作制御データをより確実にロボット100に取得させるためには、ロボット100に動作して欲しいタイミングよりも時間的にかなり前のコンテンツの位置(例えば数分前)から、該動作制御データを複数回に渡って挿入しておくことが望ましい。ロボット100は、どのようなタイミングで動作制御データを取得した場合でも、「動作タイミング」を参照することによって、適切なタイミングで動作を開始することができる。   “Operation timing” is operation timing information indicating the timing at which the robot 100 starts to operate with respect to the “keyword”. The “operation timing” can be omitted, and when it is omitted, the robot 100 starts the operation as soon as the keyword is acquired from the operation control data. Note that the robot 100 may take time to acquire the motion control data. In addition, acquisition of operation control data may fail. Therefore, in order to cause the robot 100 to acquire the motion control data more reliably, the motion control data is acquired from the position of the content (for example, several minutes before) that is much earlier than the timing at which the robot 100 wants to operate. It is desirable to insert multiple times. The robot 100 can start the operation at an appropriate timing by referring to the “operation timing” regardless of the timing at which the operation control data is acquired.

「感情」は、動作制御データ挿入者がロボット100の動作で表現してほしい感情を表す感情情報である。言い換えると、動作制御データ挿入者が、ロボット100の動作によって、ユーザ400に抱かせたい感情を表す。この「感情」は、関心度動作内容対応表122の「感情」の項目に対応する。動作内容決定部112は、関心度動作内容対応表122に感情の項目が含まれる場合には、ロボット100の動作内容を「感情」に対応する動作内容に決定する。「感情」に基づき動作内容にバリエーションを持たせることによって、ロボット100は、ユーザ400により関心を持たせる動作をすることができる。なお、動作制御データの「感情」の項目は省略可能である。動作制御データに「感情」の項目が含まれず、関心度動作内容対応表122に感情の項目が含まれる場合には、動作内容決定部112は、「感情」の値が「喜び」であるとして動作内容を決定する。   “Emotion” is emotion information representing an emotion that the motion control data inserter wants to express by the motion of the robot 100. In other words, the motion control data inserter expresses emotions that the user 400 wants to hold by the motion of the robot 100. This “emotion” corresponds to the item “emotion” in the interest level action content correspondence table 122. When the interest level operation content correspondence table 122 includes an emotion item, the operation content determination unit 112 determines the operation content of the robot 100 as the operation content corresponding to “emotion”. By giving variations to the operation content based on “emotion”, the robot 100 can perform an operation that makes the user 400 more interested. Note that the item “emotion” in the operation control data can be omitted. When the motion control data does not include the item “emotion” and the interest level motion content correspondence table 122 includes the emotion item, the motion content determination unit 112 determines that the value of “emotion” is “joy”. Determine the operation.

「数」は、その後に続くロボット100への「動作指示」の個数を表す。「動作指示」は動作制御データ挿入者がロボット100に実行してほしい動作内容を表す動作指示情報である。動作指示には「任意」と「強制」の2種類があり、ロボット100は、「任意」の動作指示は無視しても良いが、「強制」の動作指示は必ず実行しなければならない。この「動作指示」により、ロボット100は、ロボット100自身が記憶している(有限の)動作内容だけでなく、「動作指示」で指示される任意の(無限の可能性のある)動作を行うことができる。   “Number” represents the number of “operation instructions” to the robot 100 that follow. The “operation instruction” is operation instruction information indicating the operation content that the operation control data inserter wants the robot 100 to execute. There are two types of operation instructions, “arbitrary” and “forced”, and the robot 100 may ignore the “arbitrary” operation instruction, but the “forced” operation instruction must be executed. By this “operation instruction”, the robot 100 performs not only (finite) operation contents stored in the robot 100 itself, but also an arbitrary (infinite possibility) operation instructed by the “operation instruction”. be able to.

図3では、わかりやすさのために、「感情」及び「動作指示」を自然言語で示しているが、実際にはこれらはコード化されて動作制御データ内に設定される。感情については、例えば、喜びは1、驚きは2、悲しみは3にコード化される。また、動作指示は任意と強制の2種類があるが、例えば、任意は0、強制は1にコード化される。動作指示対象については、例えば、眼部154は1、耳部153は2、尻尾部159は3、口部156は4、手部157は5、足部158は6、頭部151は7、声は8にコード化される。また頻繁に指示すると想定される動作については動作指示の内容そのものもコード化される。例えば、「尻尾を振る」は31、「目をニコニコした表情にする」は11等である。動作指示の内容を細かく指定したい場合は、データの種別を示すコードとともに、動作指示のためのデータそのものを動作制御データに設定する。動作指示のためのデータそのものとは、例えば眼部154に表示する画像データ、音出力部134から発声する音声データ、等が挙げられる。   In FIG. 3, “emotion” and “motion instruction” are shown in natural language for easy understanding, but in actuality, these are coded and set in motion control data. For emotion, for example, joy is coded as 1, surprise is coded as 2, and sadness is coded as 3. There are two types of operation instructions, arbitrary and forced. For example, arbitrary is coded as 0 and forced is coded as 1. Regarding the operation instruction target, for example, the eye part 154 is 1, the ear part 153 is 2, the tail part 159 is 3, the mouth part 156 is 4, the hand part 157 is 5, the foot part 158 is 6, the head part 151 is 7, The voice is encoded into 8. In addition, for the operation that is assumed to be frequently instructed, the content of the operation instruction itself is also encoded. For example, “was tail” is 31, and “makes the face look like a smile” is 11. When it is desired to specify the details of the operation instruction, the data for the operation instruction itself is set in the operation control data together with the code indicating the data type. The data itself for the operation instruction includes, for example, image data displayed on the eye unit 154, audio data uttered from the sound output unit 134, and the like.

動作制御データ挿入者は、コンテンツの音及び/又は映像の部分に動作制御データを挿入する。つまり、挿入する部分は、音、映像、音及び映像、の3つの形態がある。これら3つのいずれの形態でも、動作制御データは、後述するように、人には認識できないような形で挿入される。動作制御データがコンテンツの音及び/又は映像に挿入されることによって、コンテンツを単に再生するだけで動作制御データがロボット100に送信されることになる。したがって、コンテンツ再生装置200は、動作制御データをロボット100に送信するために、特別な構成を付加する必要がなく、特別な処理をする必要もない。   The motion control data inserter inserts motion control data into the sound and / or video portion of the content. That is, there are three forms of the insertion part: sound, video, sound and video. In any of these three forms, the operation control data is inserted in a form that cannot be recognized by a person, as will be described later. By inserting the motion control data into the sound and / or video of the content, the motion control data is transmitted to the robot 100 simply by reproducing the content. Therefore, in order to transmit the motion control data to the robot 100, the content reproduction apparatus 200 does not need to add a special configuration and does not need to perform a special process.

動作制御データ挿入者が動作制御データを音に挿入する場合には、通常の人には聞こえない非可聴域の周波数(例えば17kHz以上の周波数)の音波による信号によって、動作制御データを挿入する。動作制御データ挿入者が動作制御データを映像に挿入する場合には、2種類の方法がある。1つは知覚困難型の電子透かしと同様の技術を利用したもので、例えば、人には認識できない輝度データによる信号を挿入する方法である。もう1つは、人には知覚できない超短時間(例えば1フレーム)の映像に信号を挿入する方法である。なお、単位時間当たりの情報量は音より映像の方が多いことから、動作制御データを、音に挿入するよりも映像に挿入する方が、同じ時間でより多くの情報量を挿入することができる。   When the motion control data inserter inserts the motion control data into the sound, the motion control data is inserted by a signal from a sound wave having a frequency in a non-audible range (for example, a frequency of 17 kHz or higher) that cannot be heard by a normal person. When the motion control data inserter inserts motion control data into a video, there are two types of methods. One is a technique that uses a technique similar to a perceptual digital watermark, for example, a method of inserting a signal based on luminance data that cannot be recognized by humans. The other is a method of inserting a signal into an image of an extremely short time (for example, one frame) that cannot be perceived by humans. In addition, since the amount of information per unit time is larger in the video than in the sound, it is possible to insert a larger amount of information in the same time when the motion control data is inserted into the video than in the sound. it can.

ロボット100は、ユーザ400及びコンテンツ再生装置200の近くにいて、コンテンツ再生装置200から再生されるコンテンツに挿入された動作制御データを認識する。ここで、ロボット100が、映像に挿入された動作制御データを認識するには、コンテンツ再生装置200によって再生されている映像(画像)を、撮像部141で撮影する必要がある。しかし、ロボット100がこの映像を撮影できるか否かは、ロボット100とコンテンツ再生装置200との位置関係に依存する。これに対し、ロボット100は、音声に挿入された動作制御データであれば、コンテンツ再生装置200によって再生されている音を音入力部142で収集できる位置にいる限り、この動作制御データを認識できると考えられる。   The robot 100 is in the vicinity of the user 400 and the content reproduction device 200 and recognizes the operation control data inserted into the content reproduced from the content reproduction device 200. Here, in order for the robot 100 to recognize the motion control data inserted in the video, the video (image) reproduced by the content reproduction device 200 needs to be captured by the imaging unit 141. However, whether or not the robot 100 can shoot this video depends on the positional relationship between the robot 100 and the content reproduction apparatus 200. On the other hand, the robot 100 can recognize the motion control data as long as it is in a position where the sound input unit 142 can collect the sound played back by the content playback device 200 if the motion control data is inserted into the voice. it is conceivable that.

そこで、動作制御データは、少なくとも音には挿入し、音だけでは情報量が足りない場合に映像にも挿入するのが望ましい。前述したように、ロボット100は、音入力部142により音の発生源の方向を検出できる。このため、ロボット100は、音に挿入された動作制御データを認識したら、その音の発生源の方に移動して音の発生源の方向を向くことにより、動作制御データが挿入された映像を撮像部141で撮影することが可能になる。   Therefore, it is desirable to insert the operation control data into at least the sound, and also insert it into the video when the amount of information is insufficient with the sound alone. As described above, the robot 100 can detect the direction of the sound source using the sound input unit 142. For this reason, when the robot 100 recognizes the motion control data inserted into the sound, the robot 100 moves toward the sound generation source and faces the sound generation source to thereby display the video with the motion control data inserted. Images can be taken by the imaging unit 141.

例えば、動作制御データ挿入者は、動作制御データのIDとキーワードだけからなる動作制御データを音に挿入し、図3に示す全ての情報からなる動作制御データを映像に挿入することができる。この場合、ロボット100は、音に挿入する動作制御データと映像に挿入する動作制御データとが対応しているか否かを、動作制御データのIDが同一か否かによって判定することができる。前述したように、動作制御データをコンテンツに挿入する方法にはいくつかの方法があるが、どの方法で挿入するかは事前に取り決めておき、コンテンツ配信装置300が配信するコンテンツへの動作制御データの挿入方法をロボット100は把握しているものとする。   For example, the motion control data inserter can insert motion control data including only the ID and keyword of the motion control data into the sound, and can insert motion control data including all the information shown in FIG. 3 into the video. In this case, the robot 100 can determine whether or not the motion control data to be inserted into the sound corresponds to the motion control data to be inserted into the video depending on whether or not the IDs of the motion control data are the same. As described above, there are several methods for inserting the operation control data into the content. The method for inserting the operation control data is determined in advance, and the operation control data for the content distributed by the content distribution device 300 is determined. It is assumed that the robot 100 knows how to insert the above.

制御部110の機能構成の説明の続きに戻る。動作内容決定部112は、取得部111が取得したキーワードに対するユーザ400の関心度を、キーワード関心度対応表121から求める。そして、その関心度に応じた自装置(ロボット100)の動作内容を、関心度動作内容対応表122に基づいて決定する。   Returning to the description of the functional configuration of the control unit 110. The operation content determination unit 112 obtains the degree of interest of the user 400 for the keyword acquired by the acquisition unit 111 from the keyword interest level correspondence table 121. Then, the operation content of the own device (robot 100) corresponding to the interest level is determined based on the interest level operation content correspondence table 122.

動作制御部113は、動作内容決定部112が決定した動作内容に基づいて、移動部131、可動部132、表示部133及び音出力部134を制御して、自装置であるロボット100に、所定の動作、仕草及び表情を表出させ、また、声を出させる。   The motion control unit 113 controls the moving unit 131, the movable unit 132, the display unit 133, and the sound output unit 134 on the basis of the motion content determined by the motion content determination unit 112, so that the robot 100 that is the device itself is given The movement, gesture and facial expression are expressed, and the voice is produced.

感情判定部114は、撮像部141で撮影したユーザ400の顔の認識結果と、音入力部142で収集したユーザ400の声の認識結果と、に基づき、ユーザ400の感情を判定する。感情には種々の種類があるが、感情判定部114は、主に「喜び」の感情を判定し、「喜び」の感情の大きさに応じた感情判定値を定める。例えば、顔認識による感情判定値については、顔の認識結果として、「笑い」を認識したら「7」、「通常」を認識したら「5」、「泣き」を認識したら「3」、と定めることができる。このように、ユーザ400の顔の表情を認識することによって、ユーザ400の感情を適切に判定することができる。   The emotion determination unit 114 determines the emotion of the user 400 based on the recognition result of the face of the user 400 photographed by the imaging unit 141 and the recognition result of the voice of the user 400 collected by the sound input unit 142. Although there are various types of emotions, the emotion determination unit 114 mainly determines the emotion of “joy” and determines an emotion determination value according to the magnitude of the emotion of “joy”. For example, the emotion recognition value based on face recognition is determined as “7” when “laughter” is recognized, “5” when “normal” is recognized, and “3” when “crying” is recognized as the face recognition result. Can do. Thus, by recognizing the facial expression of the user 400, the emotion of the user 400 can be appropriately determined.

また、音認識による感情判定値については、音の大きさの認識結果に応じて定めることができる。例えば音の大きさが、「50dB以上」なら「6」、「40dB以上50dB未満」なら「5」、「30dB以上40dB未満」なら「4」、「20dB以上30dB未満」なら「3」、「10dB以上20dB未満」なら「2」、「10dB未満」なら「1」、と定めることができる。このように音の大きさを用いることによって、複雑な認識処理をしなくても、ユーザ400の感情を判定することができる。なお、音認識による感情判定値に関しては、この他に、笑い声を認識したら増やし、泣き声を認識したら減らすという処理を行うこともできる。また、音の周波数領域及び持続時間を考慮して音認識による感情判定値を増減することもできる。さらに、音声認識によって、ユーザ400の発話した文章を認識すれば、より適切な感情判定を行うことができる。   Further, the emotion determination value by sound recognition can be determined according to the recognition result of the sound volume. For example, if the sound volume is “50 dB or more”, “6”, “40 dB or more and less than 50 dB” “5”, “30 dB or more and less than 40 dB” “4”, “20 dB or more but less than 30 dB” “3”, “ It can be determined as “2” if it is “10 dB or more and less than 20 dB”, and “1” if it is “less than 10 dB”. By using the loudness in this way, it is possible to determine the emotion of the user 400 without performing complicated recognition processing. In addition to this, the emotion determination value based on sound recognition can be increased by recognizing a laughing voice and decreased by recognizing a crying voice. It is also possible to increase or decrease the emotion determination value by sound recognition in consideration of the frequency region and duration of the sound. Furthermore, if the sentence spoken by the user 400 is recognized by voice recognition, more appropriate emotion determination can be performed.

感情判定部114は、さらに、撮像部141で撮影したユーザ400の動作の認識結果を用いてユーザ400の感情を判定しても良い。例えば、感情判定部114は、撮像部141で撮影したユーザ400の動きの量を認識して、動きの大きさに応じた感情判定値を定めることができる。そうすると、動き認識による感情判定値は、例えば、ユーザ400が大きく飛び上がる動作をしたら「7」、頷く動作をしたら「5」、じっとして動かなければ「3」と定めることができる。ロボット100とユーザ400との距離がかなり離れている場合には、ロボット100はユーザ400の顔を認識することが困難になる。しかし、この場合でも、ロボット100は、ユーザ400の動きを認識できるなら、ユーザ400の動きの量に基づいて、ユーザ400の感情を判定することができる。   The emotion determination unit 114 may further determine the emotion of the user 400 using the recognition result of the operation of the user 400 taken by the imaging unit 141. For example, the emotion determination unit 114 can recognize the amount of movement of the user 400 taken by the imaging unit 141 and determine an emotion determination value according to the magnitude of the movement. Then, for example, the emotion determination value based on motion recognition can be determined as “7” when the user 400 moves greatly, “5” when the user 400 moves, and “3” when the user 400 does not move. When the distance between the robot 100 and the user 400 is considerably large, it is difficult for the robot 100 to recognize the face of the user 400. However, even in this case, if the robot 100 can recognize the movement of the user 400, the robot 100 can determine the emotion of the user 400 based on the amount of movement of the user 400.

感情判定部114は、これら複数の感情判定値に所定の演算を行って、1つの感情判定値を求めることができる。所定の演算とは、例えば、加算、乗算、平均(相加平均、相乗平均、調和平均)、最大値算出等である。所定の演算として加算を用いる場合、感情判定部114は、顔認識及び音認識によってそれぞれ定められた感情判定値を加算して1つの感情判定値を求めることができる。例えば、顔認識による感情判定値が7で、音認識による感情判定値が4の時は、この2つの値を加算して求まる11を感情判定値とすることができる。   The emotion determination unit 114 can perform a predetermined calculation on the plurality of emotion determination values to obtain one emotion determination value. The predetermined calculation includes, for example, addition, multiplication, average (arithmetic mean, geometric mean, harmonic mean), maximum value calculation, and the like. When addition is used as the predetermined calculation, the emotion determination unit 114 can obtain one emotion determination value by adding the emotion determination values respectively determined by face recognition and sound recognition. For example, when the emotion determination value by face recognition is 7 and the emotion determination value by sound recognition is 4, 11 obtained by adding these two values can be used as the emotion determination value.

関心度更新部115は、感情判定部114が求めた感情判定値に基づき、その直前に取得部111が取得していたキーワードに対するユーザ400の関心度を求め、キーワード関心度対応表121を更新する。この関心度は、感情判定値が大きければ100%に近づき、感情判定値が小さければ0%に近づくように、関心度更新部115が定める。例えば、関心度=(顔認識による感情判定値+音認識による感情判定値)÷13と定めたり、関心度=max(顔認識による感情判定値÷7,音認識による感情判定値÷6)と定めたりすることができる。ここで、max(a,b)とは、aとbのうち大きい方の値を取る。   The interest level update unit 115 calculates the interest level of the user 400 for the keyword acquired by the acquisition unit 111 immediately before based on the emotion determination value obtained by the emotion determination unit 114, and updates the keyword interest level correspondence table 121. . This interest level is determined by the interest level updating unit 115 so as to approach 100% when the emotion determination value is large and approach 0% when the emotion determination value is small. For example, the degree of interest = (emotion judgment value by face recognition + emotion judgment value by sound recognition) ÷ 13, or the degree of interest = max (emotion judgment value by face recognition ÷ 7, emotion judgment value by sound recognition ÷ 6). Can be determined. Here, max (a, b) takes a larger value of a and b.

関心度更新部115は、今回のキーワードに対する関心度がキーワード関心度対応表121に記憶されていなければ、新たにそのキーワードと関心度とをキーワード関心度対応表121に記憶させる。今回のキーワードに対する関心度が既にキーワード関心度対応表121に記憶されている場合は、関心度更新部115は、記憶済みの関心度と今回求めた関心度とで加重平均を求め、キーワード関心度対応表121に記憶させる。適切に加重平均を求めるために、キーワード関心度対応表121に、各キーワードの累積更新回数を記憶させ、更新するたびにこの値をインクリメントするようにしても良い。この場合、新たな関心度は(記憶済みの関心度×累積更新回数+今回求めた関心度)÷(累積更新回数+1)で求めることができる。そして、累積更新回数の初期値を100等、ある程度大きな値にしておくと、誤認識等による感情判定値の異常値の影響を小さくすることができる。   If the interest level for the current keyword is not stored in the keyword interest level correspondence table 121, the interest level update unit 115 newly stores the keyword and the interest level in the keyword interest level correspondence table 121. When the interest level for the current keyword is already stored in the keyword interest level correspondence table 121, the interest level update unit 115 obtains a weighted average of the stored interest level and the interest level calculated this time, and obtains the keyword interest level. It is stored in the correspondence table 121. In order to obtain a weighted average appropriately, the keyword interest level correspondence table 121 may store the cumulative update count of each keyword, and this value may be incremented each time it is updated. In this case, the new degree of interest can be obtained by (stored interest degree × cumulative update count + interesting degree obtained this time) ÷ (cumulative update count + 1). If the initial value of the cumulative update count is set to a certain large value such as 100, the influence of the abnormal value of the emotion determination value due to misrecognition or the like can be reduced.

感情判定値送信部116は、図10に示すような、「ID」、「ロボットID」、「感情判定値」を含む感情判定値送信データを、通信部135を介して、コンテンツ配信装置300に送信する。ここで、「ID」は、今回の動作制御データのID(動作制御データID)を示す。また「ロボットID」は、ロボット100のロボットIDを示す。「感情判定値」は、感情判定部114が求めた今回の感情判定値を示す。図10に示す感情判定値送信データは、顔認識による感情判定値と音認識による感情判定値とを加算した1つの感情判定値のみを含んでいる。しかし、感情判定値は1つに限るわけではなく、感情判定値送信データは、例えば「顔認識による感情判定値」、「音認識による感情判定値」及び「動き認識による感情判定値」という複数の感情判定値を含んでも良い。また、感情判定値送信部116は、感情判定値の代わりに、撮像部141が撮像した顔画像データ及び音入力部142が収集した音のデータそのものを含む感情判定値送信データを送信しても良い。この場合、該感情判定値送信データを受信したコンテンツ配信装置300が、該顔画像データ及び該音のデータを用いて、ユーザ400の今回のキーワードに対する関心度を求める。また、ロボット100が、複数のユーザ400を認識することができる場合には、認識したユーザ400を一意に識別するユーザIDを感情判定値送信データに含めても良い。   The emotion determination value transmission unit 116 sends emotion determination value transmission data including “ID”, “robot ID”, and “emotion determination value” to the content distribution device 300 via the communication unit 135 as shown in FIG. Send. Here, “ID” indicates the ID of the current operation control data (operation control data ID). “Robot ID” indicates the robot ID of the robot 100. “Emotion determination value” indicates the current emotion determination value obtained by the emotion determination unit 114. The emotion determination value transmission data shown in FIG. 10 includes only one emotion determination value obtained by adding the emotion determination value based on face recognition and the emotion determination value based on sound recognition. However, the emotion determination value is not limited to one, and the emotion determination value transmission data includes, for example, “emotion determination value by face recognition”, “emotion determination value by sound recognition”, and “emotion determination value by motion recognition”. May also be included. Further, the emotion determination value transmission unit 116 may transmit the emotion determination value transmission data including the face image data captured by the imaging unit 141 and the sound data itself collected by the sound input unit 142 instead of the emotion determination value. good. In this case, the content distribution apparatus 300 that has received the sentiment determination value transmission data obtains the degree of interest of the user 400 for the current keyword by using the face image data and the sound data. If the robot 100 can recognize a plurality of users 400, a user ID that uniquely identifies the recognized user 400 may be included in the emotion determination value transmission data.

以上、ロボット100の機能構成について説明した。次に、コンテンツ再生装置200について説明する。コンテンツ再生装置200は、コンテンツ配信装置300から配信されたコンテンツを再生する装置である。コンテンツ再生装置200の例としては、テレビ放送を受信して再生するテレビ受像機及び、インターネット上のコンテンツを再生するタブレット端末が挙げられる。コンテンツ再生装置200は、機能的には、図11に示すように、制御部210、記憶部220、映像出力部231、音出力部232、コンテンツ受信部233及び入力部234、を備える。   The functional configuration of the robot 100 has been described above. Next, the content reproduction apparatus 200 will be described. The content reproduction device 200 is a device that reproduces the content distributed from the content distribution device 300. Examples of the content reproduction apparatus 200 include a television receiver that receives and reproduces a television broadcast, and a tablet terminal that reproduces content on the Internet. Functionally, the content reproduction apparatus 200 includes a control unit 210, a storage unit 220, a video output unit 231, a sound output unit 232, a content reception unit 233, and an input unit 234 as shown in FIG.

制御部210は、CPU等を備え、記憶部220に記憶されたプログラムを実行することにより、コンテンツ再生装置200の機能を実現する。   The control unit 210 includes a CPU and the like, and realizes the function of the content reproduction device 200 by executing a program stored in the storage unit 220.

記憶部220は、ROM、RAM等で構成される。ROMは制御部210のCPUが実行するプログラム及び、プログラムを実行する上で予め必要なデータを記憶する。RAMは、プログラム実行中に作成されたり変更されたりするデータが記憶される。   The storage unit 220 includes a ROM, a RAM, and the like. The ROM stores a program executed by the CPU of the control unit 210 and data necessary for executing the program in advance. The RAM stores data that is created or changed during program execution.

映像出力部231は、例えば、液晶ディスプレイ(LCD)又は有機ELディスプレイ等のディスプレイを備える。後述するコンテンツ受信部233が受信したコンテンツに含まれる映像データを、制御部210が映像出力部231に出力することによって、映像出力部231が備えるディスプレイに映像が表示される。   The video output unit 231 includes a display such as a liquid crystal display (LCD) or an organic EL display, for example. When the control unit 210 outputs video data included in content received by a content receiving unit 233 described later to the video output unit 231, the video is displayed on a display included in the video output unit 231.

音出力部232は、スピーカを備える。後述するコンテンツ受信部233が受信したコンテンツに含まれる音データを、制御部210が音出力部232に出力することによって、スピーカから音が出力される。   The sound output unit 232 includes a speaker. When the control unit 210 outputs sound data included in content received by the content receiving unit 233 described later to the sound output unit 232, sound is output from the speaker.

コンテンツ受信部233は、コンテンツ配信装置300から配信されるコンテンツを受信するためのデバイスを備える。例えば、コンテンツが電波を介して配信される場合は、コンテンツ受信部233は、アンテナとチューナとを備える。コンテンツがIPネットワークを介して配信される場合は、コンテンツ受信部233は、IP通信モジュールを備える。   The content receiving unit 233 includes a device for receiving content distributed from the content distribution device 300. For example, when content is distributed via radio waves, the content receiving unit 233 includes an antenna and a tuner. When the content is distributed via the IP network, the content receiving unit 233 includes an IP communication module.

入力部234は、例えば、押しボタンスイッチ又はリモコン(リモートコントローラ)等の入力デバイスを備える。コンテンツ再生装置200のユーザ(コンテンツ視聴者)は、入力部234を介して、コンテンツ再生装置200にコンテンツ再生に関する指示を出すことができる。   The input unit 234 includes, for example, an input device such as a push button switch or a remote controller (remote controller). A user (content viewer) of the content reproduction device 200 can issue an instruction regarding content reproduction to the content reproduction device 200 via the input unit 234.

以上、コンテンツ再生装置200の機能構成について説明した。次に、コンテンツ配信装置300について説明する。コンテンツ配信装置300は、コンテンツ再生装置200にコンテンツを配信する装置である。コンテンツ配信装置300の例としては、テレビ放送を放送するテレビ放送装置及び、インターネット上でコンテンツを配信するPC等が挙げられる。コンテンツ配信装置300は、機能的には、図12に示すように、制御部310、記憶部320、コンテンツ配信部331、通信部332、表示部333及び入力部334、を備える。   The functional configuration of the content reproduction device 200 has been described above. Next, the content distribution apparatus 300 will be described. The content distribution device 300 is a device that distributes content to the content reproduction device 200. Examples of the content distribution device 300 include a television broadcast device that broadcasts a television broadcast, a PC that distributes content on the Internet, and the like. Functionally, the content distribution apparatus 300 includes a control unit 310, a storage unit 320, a content distribution unit 331, a communication unit 332, a display unit 333, and an input unit 334, as shown in FIG.

制御部310は、CPU等を備える。制御部310は、記憶部320に記憶されたプログラムを実行することにより、後述する各部(感情判定値取得部311、関心度DB更新部312及び関心度DB集計部313)の機能を実現する。また、制御部310は図示しない時計部を備え、現在時刻を取得することができる。   The control unit 310 includes a CPU and the like. The control unit 310 executes the program stored in the storage unit 320 to realize the functions of each unit (emotion determination value acquisition unit 311, interest level DB update unit 312, and interest level DB totalization unit 313) described later. In addition, the control unit 310 includes a clock unit (not shown) and can acquire the current time.

記憶部320は、ROM、RAM等で構成される。ROMは制御部310のCPUが実行するプログラム及び、プログラムを実行する上で予め必要なデータを記憶する。RAMは、プログラム実行中に作成されたり変更されたりするデータが記憶される。また、記憶部320は、コンテンツDB321、動作制御データDB322、配信スケジュールDB323及び関心度DB324を記憶している。   The storage unit 320 includes a ROM, a RAM, and the like. The ROM stores a program to be executed by the CPU of the control unit 310 and data necessary for executing the program in advance. The RAM stores data that is created or changed during program execution. In addition, the storage unit 320 stores a content DB 321, an operation control data DB 322, a distribution schedule DB 323, and an interest level DB 324.

コンテンツDB321は、図2に示したような、動作制御データ挿入済みのコンテンツを記憶するデータベースである。各コンテンツにはそれぞれ、コンテンツを一意に特定するIDが割り当てられている。   The content DB 321 is a database for storing content with operation control data inserted as shown in FIG. Each content is assigned an ID that uniquely identifies the content.

動作制御データDB322は、図13に示すように、コンテンツに挿入された各動作制御データについての「動作制御データID」、「配信日時」、「コンテンツID」及び「番組名」を記憶する。「動作制御データID」は、動作制御データのIDを示す。「配信日時」は、「動作制御データID」で示されるIDの動作制御データが配信される日時を示す。これは、コンテンツ中で、動作制御データが挿入される位置を表す。「コンテンツID」は、「動作制御データID」で示されるIDの動作制御データが挿入されたコンテンツのIDを示す。「番組名」は、「動作制御データID」で示されるIDの動作制御データが挿入されたコンテンツの番組名を示す。コンテンツ配信装置300は、動作制御データDB322を参照することによって、動作制御データのIDから、その動作制御データの配信日時並びに、その動作制御データが挿入されたコンテンツのID及び番組名を取得することができる。   As shown in FIG. 13, the operation control data DB 322 stores “operation control data ID”, “delivery date / time”, “content ID”, and “program name” for each operation control data inserted into the content. “Operation control data ID” indicates the ID of the operation control data. “Distribution date and time” indicates the date and time when the operation control data having the ID indicated by “operation control data ID” is distributed. This represents the position where the operation control data is inserted in the content. “Content ID” indicates the ID of the content in which the operation control data having the ID indicated by “Operation control data ID” is inserted. “Program name” indicates the program name of the content in which the operation control data having the ID indicated by “operation control data ID” is inserted. The content distribution device 300 refers to the operation control data DB 322 to acquire the distribution date and time of the operation control data, the ID of the content in which the operation control data is inserted, and the program name from the ID of the operation control data. Can do.

配信スケジュールDB323は、図14に示すように、コンテンツDB321に記憶されている各コンテンツについての「コンテンツID」、「配信日時」、「番組名」及び「動作制御データID」を記憶する。「コンテンツID」は、配信するコンテンツを一意に特定するためのID(コンテンツID)を示す。「配信日時」は、「コンテンツID」で示されるコンテンツの配信日時を示す。「番組名」は、「コンテンツID」で示されるコンテンツの番組名を示す。「動作制御データID」は、「コンテンツID」で示されるコンテンツに挿入された動作制御データのIDを示す。なお、「動作制御データID」については、配信スケジュールDB323に記憶しなくても良い。配信スケジュールDB323が動作制御データのIDも記憶すると、コンテンツID、配信日時又は番組名から、配信された動作制御データのIDを逆引きすることが可能になる。   As shown in FIG. 14, the distribution schedule DB 323 stores “content ID”, “distribution date / time”, “program name”, and “operation control data ID” for each content stored in the content DB 321. “Content ID” indicates an ID (content ID) for uniquely specifying the content to be distributed. “Distribution date / time” indicates the distribution date / time of the content indicated by “content ID”. “Program name” indicates the program name of the content indicated by “content ID”. “Operation control data ID” indicates the ID of the operation control data inserted into the content indicated by “content ID”. The “operation control data ID” may not be stored in the distribution schedule DB 323. When the distribution schedule DB 323 also stores the ID of the operation control data, the ID of the distributed operation control data can be reversed from the content ID, the distribution date and time, or the program name.

関心度DB324は、図15に示すように、ロボット100から送信された感情判定値送信データに基づいて、「ID」、「ロボットID」、「キーワード」、「受信日時」、「番組名」及び「感情判定値」を記憶する。「ID」は、該感情判定値送信データに含まれる動作制御データIDを示す。「ロボットID」は、該感情判定値送信データに含まれるロボットIDを示す。「キーワード」は、「ID」で示される動作制御データに含まれるキーワードを示す。「受信日時」は、該感情判定値送信データを受信した日時を示す。「番組名」は、「ID」で示される動作制御データが挿入されたコンテンツの番組名を示す。「感情判定値」は、該感情判定値送信データに含まれる感情判定値を示す。ユーザ400のキーワードに対する関心度は、感情判定値に反映されるので、関心度DB324に記憶されたデータを集計することによって、キーワード毎、ロボットID(ユーザ400)毎、番組毎、日時毎の関心度の大きさをグラフにすることができる。そして、このグラフを見ることによって、動作制御データ挿入者は、ユーザ400に好まれるキーワード、番組、日時等を知ることができる。このため、動作制御データ挿入者は、その後、より効果的な動作制御データを、より効果的な位置に挿入することができるようになる。   As shown in FIG. 15, the degree-of-interest DB 324 is based on the emotion determination value transmission data transmitted from the robot 100, “ID”, “robot ID”, “keyword”, “reception date / time”, “program name”, and “Emotion judgment value” is stored. “ID” indicates an operation control data ID included in the emotion determination value transmission data. “Robot ID” indicates a robot ID included in the emotion determination value transmission data. “Keyword” indicates a keyword included in the operation control data indicated by “ID”. “Reception date and time” indicates the date and time when the emotion determination value transmission data is received. “Program name” indicates the program name of the content in which the operation control data indicated by “ID” is inserted. “Emotion determination value” indicates an emotion determination value included in the emotion determination value transmission data. Since the interest level of the user 400 with respect to the keyword is reflected in the emotion determination value, the interest stored for each keyword, each robot ID (user 400), each program, and each date / time is obtained by aggregating the data stored in the interest level DB 324. The magnitude of the degree can be graphed. Then, by looking at this graph, the operation control data inserter can know the keywords, programs, dates, etc. that are preferred by the user 400. Therefore, the motion control data inserter can thereafter insert more effective motion control data at a more effective position.

なお、図15に示す関心度DB324は、感情判定値を1つしか記憶していないが、ロボット100が送信する感情判定値送信データに応じて、複数の感情判定値を記憶しても良い。例えば、該感情判定値送信データが「顔認識による感情判定値」、「音認識による感情判定値」及び「動き認識による感情判定値」を含む場合、これら3つの値を別個に記憶しても良い。また、該感情判定値送信データが、感情判定値の代わりに、顔画像データ及び音のデータそのものを送信する場合は、関心度DB324の内容は例えば次の2種類の形態が考えられる。1つ目は、感情判定値の代わりに、ロボット100から送信されたこれらのデータ(顔画像データ及び音のデータそのもの)を関心度DB324に記憶する形態である。2つ目は、ロボット100から送信された顔画像データ及び音のデータを用いてコンテンツ配信装置300がキーワードに対するユーザ400の関心度を求め、求めた関心度を感情判定値の代わりに関心度DB324に記憶する形態である。また、ロボット100が、複数のユーザ400を認識することができる場合には、感情判定値送信データにユーザIDが含まれる場合がある。この場合は、関心度DB324にユーザIDも記憶する。これによって、コンテンツ配信装置300は、ロボットIDだけでなく、ユーザIDも用いた集計処理を行うことができる。   Although the interest level DB 324 illustrated in FIG. 15 stores only one emotion determination value, a plurality of emotion determination values may be stored according to the emotion determination value transmission data transmitted by the robot 100. For example, if the sent emotion judgment value transmission data includes “emotion judgment value by face recognition”, “emotion judgment value by sound recognition” and “emotion judgment value by motion recognition”, these three values may be stored separately. good. Further, when the emotion determination value transmission data transmits the face image data and the sound data itself instead of the emotion determination value, the contents of the interest level DB 324 may be in the following two types, for example. The first is a form in which these data (face image data and sound data itself) transmitted from the robot 100 are stored in the interest level DB 324 instead of the emotion determination value. Second, the content distribution apparatus 300 obtains the interest level of the user 400 with respect to the keyword using the face image data and sound data transmitted from the robot 100, and the interest level DB 324 uses the obtained interest level instead of the emotion determination value. It is a form to memorize. Further, when the robot 100 can recognize a plurality of users 400, the user ID may be included in the emotion determination value transmission data. In this case, the user ID is also stored in the interest level DB 324. Thereby, the content distribution apparatus 300 can perform a totaling process using not only the robot ID but also the user ID.

コンテンツ配信部331は、コンテンツ再生装置200にコンテンツを配信するためのデバイスを備える。例えば、コンテンツ配信装置300がコンテンツを、電波を介して配信する場合は、コンテンツ配信部331は、電波送信モジュールとアンテナとを備える。コンテンツ配信装置300がコンテンツを、IPネットワークを介して配信する場合は、コンテンツ配信部331は、IP通信モジュールを備える。   The content distribution unit 331 includes a device for distributing content to the content reproduction device 200. For example, when the content distribution device 300 distributes content via radio waves, the content distribution unit 331 includes a radio wave transmission module and an antenna. When the content distribution device 300 distributes content via an IP network, the content distribution unit 331 includes an IP communication module.

通信部332は、通信モジュールを備え、外部装置とのデータ通信を可能にする。コンテンツ配信装置300が無線で外部装置とのデータ通信を行う場合は、通信部332は、無線通信モジュール及びアンテナを備える。コンテンツ配信装置300は、通信部332を介して、ロボット100とデータ通信を行うことができる。   The communication unit 332 includes a communication module and enables data communication with an external device. When the content distribution device 300 performs data communication with an external device wirelessly, the communication unit 332 includes a wireless communication module and an antenna. The content distribution device 300 can perform data communication with the robot 100 via the communication unit 332.

表示部333は、例えば、液晶ディスプレイ(LCD)又は有機ELディスプレイ等のディスプレイを備える。表示部333により、関心度DB集計部313が作成したグラフの表示等を行うことができる。   The display unit 333 includes a display such as a liquid crystal display (LCD) or an organic EL display. The display unit 333 can display a graph created by the interest level DB totaling unit 313.

入力部334は、例えば、キーボード及びマウス等の入力デバイスを備える。コンテンツ配信装置300のユーザ(動作制御データ挿入者等)は、入力部334を介して、コンテンツ配信装置300に関心度DBの集計指示を出すことができる。   The input unit 334 includes input devices such as a keyboard and a mouse, for example. A user (such as an operation control data inserter) of the content distribution device 300 can issue a totalization instruction for the interest level DB to the content distribution device 300 via the input unit 334.

次に、コンテンツ配信装置300が行うコンテンツ配信処理について、図16を参照して説明する。この処理は、コンテンツ配信装置300がコンテンツを配信する時に実行される。   Next, content distribution processing performed by the content distribution apparatus 300 will be described with reference to FIG. This process is executed when the content distribution apparatus 300 distributes content.

まず、制御部310は、配信スケジュールDB323を読み込み(ステップS101)、配信すべきコンテンツIDを取得する。そして、制御部310は、コンテンツDB321から、ステップS101で取得したコンテンツIDのコンテンツを読み出し(ステップS102)、コンテンツ配信部331を介してコンテンツを配信する(ステップS103)。なお、コンテンツの読み出しと配信は細かい時間単位で行っても良いし、番組単位等の大きな時間単位で行っても良い。   First, the control unit 310 reads the distribution schedule DB 323 (step S101) and acquires the content ID to be distributed. Then, the control unit 310 reads the content with the content ID acquired in step S101 from the content DB 321 (step S102), and distributes the content via the content distribution unit 331 (step S103). Note that content reading and distribution may be performed in small time units or in large time units such as program units.

次に、制御部310は、コンテンツの配信を終了するか否かを判定する(ステップS104)。配信スケジュールDB323に配信するコンテンツがないか、又は、入力部334からコンテンツの配信終了の指示が入力されたなら、制御部310は、コンテンツの配信を終了する。コンテンツの配信を終了する場合は(ステップS104;Yes)、コンテンツ配信処理を終了する。コンテンツの配信を終了しない場合は(ステップS104;No)、感情判定値取得部311は、通信部332を介して、ロボット100から送信された感情判定値送信データを受信したか否かを判定する(ステップS105)。   Next, the control unit 310 determines whether or not to end the content distribution (step S104). If there is no content to be distributed in the distribution schedule DB 323, or if an instruction to end content distribution is input from the input unit 334, the control unit 310 ends content distribution. When the content distribution is to be ended (step S104; Yes), the content distribution process is ended. When the content distribution is not finished (step S104; No), the emotion determination value acquisition unit 311 determines whether or not the emotion determination value transmission data transmitted from the robot 100 is received via the communication unit 332. (Step S105).

感情判定値送信データを受信していなければ(ステップS105;No)、ステップS101に戻る。感情判定値送信データを受信したなら(ステップS105;Yes)、感情判定値取得部311は、感情判定値送信データに含まれる感情判定値等の値を取得する(ステップS106)。そして、感情判定値取得部311は、取得した感情判定値等の値に基づいて、関心度DB324を更新し(ステップS107)、ステップS104に戻る。なお、関心度DB324の更新は、簡単には、ステップS106で取得した感情判定値等のデータを関心度DB324に追加記憶すれば良い。   If the emotion judgment value transmission data has not been received (step S105; No), the process returns to step S101. When the emotion determination value transmission data is received (step S105; Yes), the emotion determination value acquisition unit 311 acquires a value such as an emotion determination value included in the emotion determination value transmission data (step S106). Then, the emotion determination value acquisition unit 311 updates the interest level DB 324 based on the acquired value such as the emotion determination value (step S107), and returns to step S104. Note that the update of the interest level DB 324 may be simply performed by additionally storing data such as the emotion determination value acquired in step S106 in the interest level DB 324.

以上の処理により、コンテンツ配信装置300は、配信スケジュールに従って、コンテンツをコンテンツ再生装置200に配信する。   Through the above processing, the content distribution device 300 distributes the content to the content reproduction device 200 according to the distribution schedule.

次に、コンテンツ再生装置200が行うコンテンツ再生処理について、図17を参照して説明する。この処理は、コンテンツ再生装置200がコンテンツの再生を開始する時に実行される。   Next, content reproduction processing performed by the content reproduction device 200 will be described with reference to FIG. This process is executed when the content playback apparatus 200 starts playback of content.

まず、制御部210は、コンテンツ受信部233を介して、コンテンツを受信する(ステップS201)。次に、制御部210は、受信したコンテンツのうち映像データを映像出力部231に出力し、音データを音出力部232に出力することによって、コンテンツを再生する(ステップS202)。コンテンツ再生装置200は、このコンテンツの受信と再生とを所定の細かい時間単位で少しずつ行う。   First, the control unit 210 receives content via the content receiving unit 233 (step S201). Next, the control unit 210 reproduces the content by outputting video data of the received content to the video output unit 231 and outputting sound data to the sound output unit 232 (step S202). The content reproduction apparatus 200 performs reception and reproduction of the content little by little in a predetermined fine time unit.

そして、制御部210は、コンテンツの再生を終了するか否かを判定する(ステップS203)。コンテンツ配信装置300からコンテンツが配信されなくなったか又は、入力部234から再生終了の指示が入力されたなら、制御部210はコンテンツの再生を終了する。コンテンツの再生を終了する場合は(ステップS203;Yes)、コンテンツ再生処理を終了する。コンテンツの再生を終了しない場合は(ステップS203;No)、ステップS201に戻る。   Then, the control unit 210 determines whether or not to end the content reproduction (step S203). If the content is no longer distributed from the content distribution device 300 or if an instruction to end reproduction is input from the input unit 234, the control unit 210 ends the reproduction of the content. When the content reproduction is to be terminated (step S203; Yes), the content reproduction process is terminated. When the content reproduction is not finished (step S203; No), the process returns to step S201.

以上の処理により、コンテンツ再生装置200は、コンテンツ配信装置300から配信されるコンテンツを再生する。   Through the above processing, the content reproduction device 200 reproduces the content distributed from the content distribution device 300.

次に、ロボット100が行う動作制御処理について、図18を参照して説明する。この処理は、ロボット100が、コンテンツ再生装置200から送信される動作制御データに基づいて動作を開始する時に実行される。基本的にはロボット100は、電源を投入すると、図18に示す動作制御処理を開始する。   Next, operation control processing performed by the robot 100 will be described with reference to FIG. This process is executed when the robot 100 starts an operation based on the operation control data transmitted from the content reproduction device 200. Basically, when the power is turned on, the robot 100 starts the operation control process shown in FIG.

まず、取得部111は、コンテンツ再生装置200が再生するコンテンツに挿入されている動作制御データを、取得可能か否かを判定する(ステップS301)。この判定は、音入力部142によって非可聴域の周波数の音波を収集可能か否か、また、撮像部141によって動作制御データの挿入された映像を撮影可能か否かによって行われる。動作制御データを取得できないなら(ステップS301;No)、制御部110は、移動部131及び可動部132を制御して、ロボット100を、コンテンツ再生装置200の近くに移動させ、コンテンツ再生装置200の方向に回転させる(ステップS302)。例えば、動作制御データが音及び映像に挿入されている場合は、ロボット100は、音入力部142によって非可聴域の周波数の音波の発生源の位置を把握することができるので、この音波を手がかりにして移動及び回転を行う。ロボット100は、音波の発生源の位置に移動し、音波の発生源の方向に回転することによって、撮像部141によって動作制御データの挿入された映像を撮影できる場所に移動することができる。制御部110は、ステップS302で移動及び回転の制御をした後、ステップS301に戻る。   First, the acquisition unit 111 determines whether it is possible to acquire the operation control data inserted in the content to be played back by the content playback device 200 (step S301). This determination is made based on whether or not the sound input unit 142 can collect sound waves having a frequency in a non-audible range, and whether or not the image into which the operation control data is inserted can be captured by the imaging unit 141. If the operation control data cannot be acquired (step S301; No), the control unit 110 controls the moving unit 131 and the movable unit 132 to move the robot 100 close to the content reproduction device 200, so that the content reproduction device 200 The direction is rotated (step S302). For example, when motion control data is inserted into sound and video, the robot 100 can grasp the position of a sound wave generation source having a frequency in a non-audible range by the sound input unit 142. And move and rotate. The robot 100 can move to a position where the image with the motion control data inserted can be taken by the imaging unit 141 by moving to the position of the sound wave generation source and rotating in the direction of the sound wave generation source. After controlling the movement and rotation in step S302, the control unit 110 returns to step S301.

取得部111が、動作制御データを取得可能なら(ステップS301;Yes)、取得部111は、動作制御データを取得し、取得した動作制御データに含まれるキーワード等のデータを取得する(ステップS303)。なお、ここで取得される動作制御データは、音入力部142によって収集された非可聴域の周波数の音波による信号で表された動作制御データ、又は、撮像部141によって撮影された映像(画像)に挿入されている動作制御データである。次に取得部111は、キーワード関心度対応表121を参照して、取得したキーワードに対応する関心度を取得する(ステップS304)。もしキーワード関心度対応表121に感情のデータも含まれているなら関心度とともに感情のデータも取得する。ここで取得した感情のデータは、動作制御データに感情のデータが含まれていない場合に、関心度動作内容対応表122を参照する際の感情のデータとして使用される。   If the acquisition unit 111 can acquire the operation control data (step S301; Yes), the acquisition unit 111 acquires the operation control data, and acquires data such as a keyword included in the acquired operation control data (step S303). . The motion control data acquired here is motion control data represented by a sound wave signal having a frequency in a non-audible range collected by the sound input unit 142 or a video (image) captured by the imaging unit 141. Is the operation control data inserted in the. Next, the acquisition unit 111 refers to the keyword interest level correspondence table 121 and acquires the interest level corresponding to the acquired keyword (step S304). If the keyword interest level correspondence table 121 also includes emotion data, emotion data is acquired together with the interest level. The emotion data acquired here is used as emotion data when referring to the interest level operation content correspondence table 122 when emotion data is not included in the motion control data.

次に、取得部111は、取得した関心度の値が基準関心度閾値(例えば50%)以上であるか否かを判定する(ステップS305)。関心度の値が基準関心度閾値未満なら(ステップS305;No)、ステップS308へ進む。関心度の値が基準関心度閾値以上なら(ステップS305;Yes)、動作内容決定部112は、ステップS303で取得部111が取得した動作制御データに含まれる「動作タイミング」、「感情」及び「動作指示」を取得する。そして、関心度動作内容対応表122を参照して、関心度及び「感情」に対応する動作内容を取得する。そして、動作内容決定部112は、各部位に対する動作指示及び動作内容を合成して、ロボット100が「動作タイミング」で指定された時刻に実行を開始する動作内容を決定する(ステップS306)。その際、同じ部位に対して複数の動作指示及び動作内容が存在した場合、動作内容決定部112は、強制の動作指示、関心度動作内容対応表122に記憶されている動作内容、任意の動作指示、という優先度の高い順に、動作指示又は動作内容を採用する。   Next, the acquisition unit 111 determines whether or not the acquired interest level value is equal to or greater than a reference interest level threshold (for example, 50%) (step S305). If the value of the interest level is less than the reference interest level threshold value (step S305; No), the process proceeds to step S308. If the value of the interest level is equal to or greater than the reference interest level threshold value (step S305; Yes), the motion content determination unit 112 includes “motion timing”, “emotion”, and “emotion” included in the motion control data acquired by the acquisition unit 111 in step S303. Acquire operation instruction. Then, referring to the interest level operation content correspondence table 122, the operation content corresponding to the interest level and “emotion” is acquired. Then, the operation content determination unit 112 combines the operation instruction and the operation content for each part, and determines the operation content that the robot 100 starts to execute at the time designated by the “operation timing” (step S306). At that time, when there are a plurality of operation instructions and operation contents for the same part, the operation content determination unit 112 performs the forced operation instruction, the operation contents stored in the interest level operation content correspondence table 122, any operation Operation instructions or operation contents are employed in descending order of priority.

一例として、ロボット100が、図6に示すキーワード関心度対応表121、及び、図9に示す関心度動作内容対応表122を記憶しており、図3に示す動作制御データがコンテンツに挿入されていた場合を説明する。この場合、キーワード「腕時計」に対する関心度は「90%」であることが図6に示すキーワード関心度対応表121から読み取れる。また、動作制御データに含まれる「感情」は「驚き」であることが図3から読み取れる。したがって、関心度動作内容対応表122から取得される動作内容は、「目を大きく開ける」及び「大きな音量で「ワオ」と発声」であることが図9から読み取れる。そして、動作制御データに含まれる、強制の動作指示は「尻尾を振る」、任意の動作指示は「「腕時計だよ」と発声」であることが図3から読み取れる。そうすると、眼部154に対する指示は「目を大きく開ける」のみであり、尻尾部159に対する指示は「尻尾を振る」のみであるので、これらの動作はそのまま採用される。   As an example, the robot 100 stores the keyword interest level correspondence table 121 shown in FIG. 6 and the interest level action content correspondence table 122 shown in FIG. 9, and the operation control data shown in FIG. 3 is inserted into the content. The case will be described. In this case, it can be read from the keyword interest level correspondence table 121 shown in FIG. 6 that the interest level for the keyword “watch” is “90%”. Further, it can be seen from FIG. 3 that “emotion” included in the operation control data is “surprise”. Therefore, it can be seen from FIG. 9 that the action contents acquired from the interest level action contents correspondence table 122 are “open your eyes wide” and “speak“ Wow ”with a large volume”. Then, it can be read from FIG. 3 that the compulsory operation instruction included in the operation control data is “shake tail”, and the arbitrary operation instruction is “speak“ I am a wristwatch ””. Then, since the instruction for the eye part 154 is only “open the eyes wide” and the instruction for the tail part 159 is only “shake the tail”, these operations are employed as they are.

音出力部134に対する指示は、「大きな音量で「ワオ」と発声」と「「腕時計だよ」と発声」の2つが競合しているので、優先度の高い「大きな音量で「ワオ」と発声」が採用され、「「腕時計だよ」と発声」は無視される。もし、「「腕時計だよ」と発声」が強制の動作指示であったなら、逆に「「腕時計だよ」と発声」が採用され、「大きな音量で「ワオ」と発声」は無視される。   The instruction to the sound output unit 134 is “Speaking“ Wow ”with a loud sound” and “Speaking with a wristwatch” and “Speaking” with a high priority. ”Is adopted, and“ Speaking of a watch ”is ignored. If "speaking" says "It's a wristwatch" is a compulsory action instruction, "speaking" "It's a wristwatch" "is adopted, and" speaking "Wa" "is ignored at a loud volume. .

ロボット100の動作内容は、このようにして、動作内容決定部112によって決定される。動作制御部113は、その決定された動作内容に従って、「動作タイミング」で指定された時刻に、移動部131、可動部132、表示部133及び音出力部134を制御することによって動作制御を行う(ステップS307)。その際、ロボット100は、ユーザ400に近づいてから動作を開始しても良い。ロボット100がユーザ400に近づく方法としては、例えば、音入力部142でユーザ400の声の方向を把握して、その方向に移動する方法がある。また、センサ部140に人感センサを備える場合には、人感センサを用いてユーザ400の存在する方向を把握して、その方向に移動する方法もある。ロボット100は、ユーザ400に近づいてから動作を開始することによって、ロボット100の動作をユーザ400により強く印象づけることができる。   The operation content of the robot 100 is determined by the operation content determination unit 112 in this way. The operation control unit 113 performs operation control by controlling the moving unit 131, the movable unit 132, the display unit 133, and the sound output unit 134 at the time designated by the “operation timing” according to the determined operation content. (Step S307). At that time, the robot 100 may start the operation after approaching the user 400. As a method for the robot 100 to approach the user 400, for example, there is a method in which the sound input unit 142 grasps the direction of the voice of the user 400 and moves in that direction. In addition, when the sensor unit 140 includes a human sensor, there is a method of grasping the direction in which the user 400 exists using the human sensor and moving in that direction. By starting the operation after approaching the user 400, the robot 100 can impress the user 400 more strongly with the operation of the robot 100.

次に、感情判定部114は、ユーザ400の顔の認識が可能か否かを判定する(ステップS308)。ここで、感情判定部114は、撮像部141によりユーザ400の顔を撮影でき、撮影したユーザ400の顔の表情を認識できる場合に、ユーザ400の顔の認識が可能と判定する。ユーザ400の顔の認識ができないなら(ステップS308;No)、制御部110は、移動部131及び可動部132を制御して、ロボット100を、ユーザ400の近くに移動させ、ユーザ400の顔を撮影できる方向に回転させる(ステップS309)。例えば、ロボット100は、音入力部142でユーザ400の声の方向を把握して、その方向に移動することができる。また、センサ部140に人感センサを備える場合には、ロボット100は、人感センサを用いてユーザ400の近くに移動することもできる。制御部110は、ステップS309で移動及び回転の制御をした後、ステップS308に戻る。   Next, the emotion determination unit 114 determines whether or not the face of the user 400 can be recognized (step S308). Here, the emotion determination unit 114 determines that the face of the user 400 can be recognized when the imaging unit 141 can capture the face of the user 400 and can recognize the facial expression of the captured user 400. If the user's 400 face cannot be recognized (step S308; No), the control unit 110 controls the moving unit 131 and the movable unit 132 to move the robot 100 close to the user 400, thereby moving the user 400's face. The image is rotated in the direction in which the image can be taken (step S309). For example, the robot 100 can grasp the direction of the voice of the user 400 with the sound input unit 142 and move in that direction. Further, when the sensor unit 140 includes a human sensor, the robot 100 can also move near the user 400 using the human sensor. After controlling the movement and rotation in Step S309, the control unit 110 returns to Step S308.

感情判定部114は、ユーザ400の顔の認識が可能なら(ステップS308;Yes)、ユーザ400の顔の表情、音声、動き等に基づいて、ユーザ400の感情を判定し(ステップS310)、前述した感情判定値を求める。そして、関心度更新部115は、感情判定部114が求めた感情判定値に基づき、取得部111がステップS303で取得したキーワードに対するユーザ400の関心度を求める(ステップS311)。これは、前述したように、例えば、関心度=(顔認識による感情判定値+音認識による感情判定値)÷13として求めることができる。   If the emotion determination unit 114 can recognize the face of the user 400 (step S308; Yes), the emotion determination unit 114 determines the emotion of the user 400 based on the facial expression, voice, movement, and the like of the user 400 (step S310). The sentiment judgment value is obtained. Then, the interest level update unit 115 calculates the interest level of the user 400 for the keyword acquired by the acquisition unit 111 in step S303 based on the emotion determination value obtained by the emotion determination unit 114 (step S311). As described above, this can be calculated as, for example, the degree of interest = (emotion determination value by face recognition + emotion determination value by sound recognition) ÷ 13.

そして、関心度更新部115は、前述したように、キーワード関心度対応表121を更新する(ステップS312)。これにより、当初はキーワード関心度対応表121に記憶されていなかったキーワードに対するユーザ400の関心度も、キーワード関心度対応表121に記憶される。また、ユーザ400の関心が変化した場合、キーワード関心度対応表121の記憶内容もそれに追従して変化することになる。   Then, as described above, the interest level update unit 115 updates the keyword interest level correspondence table 121 (step S312). As a result, the interest level of the user 400 for the keyword that was not initially stored in the keyword interest level correspondence table 121 is also stored in the keyword interest level correspondence table 121. When the interest of the user 400 changes, the stored content of the keyword interest level correspondence table 121 also changes accordingly.

次に、感情判定値送信部116は、感情判定部114が求めた感情判定値に基づき、図10に示すような感情判定値送信データを、通信部135を介して、コンテンツ配信装置300に送信する(ステップS313)。   Next, emotion determination value transmission unit 116 transmits emotion determination value transmission data as shown in FIG. 10 to content distribution device 300 via communication unit 135 based on the emotion determination value obtained by emotion determination unit 114. (Step S313).

そして、制御部110は、ロボット100の動作を終了するか否かを判定する(ステップS314)。ユーザ400がロボット100の電源を落とした時又は、ロボット100の備えるバッテリーの残量が閾値を下回った時に、ロボット100は動作を終了する。ロボット100が動作を終了するなら(ステップS314;Yes)、動作制御処理を終了する。ロボット100が動作を終了しないなら(ステップS314;No)、ステップS301に戻る。   Then, the control unit 110 determines whether or not to end the operation of the robot 100 (step S314). When the user 400 turns off the power of the robot 100 or when the remaining battery level of the robot 100 falls below a threshold value, the robot 100 ends its operation. If the robot 100 ends the operation (step S314; Yes), the operation control process ends. If the robot 100 does not end the operation (step S314; No), the process returns to step S301.

以上の動作制御処理により、ロボット100は、ユーザ400の関心度の高いキーワードがコンテンツに含まれる場合に、事前にそのことをユーザ400に知らせる種々の動作を行うことができる。そして、その後のユーザ400の感情を判定した値をコンテンツ配信装置300に送信することができる。また、関心度更新部115によって、キーワード関心度対応表121が更新されるので、当初記憶されていないキーワードも、ユーザ400が関心を示すとキーワード関心度対応表121に記憶される。このことによって、それ以後、ロボット100は、該キーワードがコンテンツに含まれることをユーザ400に知らせることができるようになる。   Through the above-described operation control processing, the robot 100 can perform various operations for informing the user 400 in advance when a keyword that is highly interested in the user 400 is included in the content. And the value which determined the user's 400 emotion after that can be transmitted to the content delivery apparatus 300. FIG. Moreover, since the keyword interest level correspondence table 121 is updated by the interest level update unit 115, keywords that are not initially stored are also stored in the keyword interest level correspondence table 121 when the user 400 shows interest. As a result, the robot 100 can thereafter inform the user 400 that the keyword is included in the content.

次に、ロボット100が送信した感情判定値を関心度DB324に蓄積したコンテンツ配信装置300が行う関心度DB集計処理について、図19を参照して説明する。この処理は、コンテンツ配信装置300のユーザ(動作制御データ挿入者等)が、入力部334を介して、関心度DBの集計指示を出すと開始される。   Next, the interest level DB tabulation process performed by the content distribution apparatus 300 that stores the emotion determination values transmitted by the robot 100 in the interest level DB 324 will be described with reference to FIG. This process is started when a user (such as an operation control data inserter) of the content distribution apparatus 300 issues a totalization instruction for the interest level DB via the input unit 334.

まず、関心度DB集計部313は、入力部334を介して入力されたユーザの指示が「キーワード別集計」であるか否かを判定する(ステップS401)。「キーワード別集計」であるなら(ステップS401;Yes)、関心度DB集計部313は、関心度DB324を参照して、キーワード毎に、感情判定値から算出される関心度を集計する(ステップS402)。関心度は、ロボット100の関心度更新部115と同様に、例えば、関心度=感情判定値÷13として求めることができる。関心度の集計は、関心度の平均値算出、中央値算出、最頻値算出等により、行うことができる。そして、関心度DB集計部313は、集計した関心度のグラフを作成し、表示部333に表示する(ステップS403)。その後、関心度DB集計部313は、集計を終了するか否かを判定する(ステップS404)。ユーザから入力部334を介してさらに集計指示が入力されている場合は、集計を終了せず(ステップS404;No)、ステップS401に戻る。ユーザから指示された集計を全て終了した場合は(ステップS404;Yes)、関心度DB集計部313は、関心度DB集計処理を終了する。   First, the degree-of-interest DB totaling unit 313 determines whether or not the user's instruction input via the input unit 334 is “total by keyword” (step S401). If “total by keyword” (step S401; Yes), the interest level DB totaling unit 313 refers to the interest level DB 324 and totals the interest level calculated from the emotion determination value for each keyword (step S402). ). Similar to the interest level update unit 115 of the robot 100, the interest level can be obtained, for example, as interest level = emotion determination value ÷ 13. The interest level can be calculated by calculating the average value, the median value, or the mode value of the interest level. Then, the interest level DB totaling unit 313 creates a graph of the total interest level and displays it on the display unit 333 (step S403). Thereafter, the interest level DB totaling unit 313 determines whether or not to end the totaling (step S404). When a totaling instruction is further input from the user via the input unit 334, the totaling is not terminated (step S404; No), and the process returns to step S401. When all the tabulations instructed by the user have been completed (step S404; Yes), the interest level DB tabulation unit 313 ends the interest level DB tabulation process.

入力部334を介して入力されたユーザの指示が「キーワード別集計」でないなら(ステップS401;No)、関心度DB集計部313は、入力部334を介して入力されたユーザの指示が「ロボットID別集計」であるか否かを判定する(ステップS405)。「ロボットID別集計」であるなら(ステップS405;Yes)、関心度DB集計部313は、関心度DB324を参照して、ロボットID毎に、感情判定値から算出される関心度を集計し(ステップS406)、ステップS403に進む。   If the user's instruction input via the input unit 334 is not “total by keyword” (step S401; No), the interest DB totaling unit 313 indicates that the user's instruction input via the input unit 334 is “Robot It is determined whether or not “total by ID” (step S405). If “total by robot ID” (step S405; Yes), the interest level DB totaling unit 313 refers to the interest level DB 324 and totals the interest level calculated from the emotion determination value for each robot ID ( Step S406), the process proceeds to step S403.

入力部334を介して入力されたユーザの指示が「ロボットID別集計」でないなら(ステップS405;No)、関心度DB集計部313は、入力部334を介して入力されたユーザの指示が「番組別集計」であるか否かを判定する(ステップS407)。「番組別集計」であるなら(ステップS407;Yes)、関心度DB集計部313は、関心度DB324を参照して、番組名毎に、感情判定値から算出される関心度を集計し(ステップS408)、ステップS403に進む。なお、番組別集計の際には、関心度DB324に記憶されているロボットIDの種類数をカウントすることによって、該番組を視聴しているユーザ400(ロボット100のユーザ400)の人数を把握することができる。したがって、この人数を、ロボット100の台数で割ることによって、該番組の視聴率(音声による番組の場合は聴取率)を算出することができる。   If the user's instruction input via the input unit 334 is not “total by robot ID” (step S405; No), the interest DB totaling unit 313 indicates that the user's instruction input via the input unit 334 is “ It is determined whether or not “total by program” (step S407). If it is “total by program” (step S407; Yes), the interest level DB totaling unit 313 refers to the interest level DB 324 and totals the interest level calculated from the emotion determination value for each program name (step S407). S408), the process proceeds to step S403. Note that, when counting by program, the number of types of robot IDs stored in the degree-of-interest DB 324 is counted to grasp the number of users 400 (users 400 of the robot 100) who are viewing the program. be able to. Therefore, by dividing this number by the number of robots 100, the audience rating of the program (listening rate in the case of an audio program) can be calculated.

入力部334を介して入力されたユーザの指示が「番組別集計」でないなら(ステップS407;No)、関心度DB集計部313は、入力部334を介して入力されたユーザの指示が「日時別集計」であるか否かを判定する(ステップS409)。「日時別集計」であるなら(ステップS409;Yes)、関心度DB集計部313は、関心度DB324を参照して、受信日時毎に、感情判定値から算出される関心度を集計し(ステップS410)、ステップS403に進む。受信日時毎の集計については、受信日時が正確に一致するもの毎に限る必要はなく、時間帯毎の関心度の平均値等を集計しても良い。   If the user's instruction input via the input unit 334 is not “total by program” (step S407; No), the interest level DB totaling unit 313 indicates that the user's instruction input via the input unit 334 is “date and time”. It is determined whether or not it is “separate count” (step S409). If it is “aggregation by date and time” (step S409; Yes), the interest level DB totaling unit 313 refers to the interest level DB 324 and totals the interest level calculated from the emotion determination value for each reception date and time (step S410), the process proceeds to step S403. The totaling for each reception date / time is not necessarily limited to the ones whose reception date / time exactly matches, and the average value of the degree of interest for each time zone may be totaled.

入力部334を介して入力されたユーザの指示が「日時別集計」でないなら(ステップS409;No)、ステップS404に進む。   If the user's instruction input via the input unit 334 is not “aggregation by date and time” (step S409; No), the process proceeds to step S404.

以上の、関心度DB集計処理により、コンテンツ配信装置300は、表示部333に、関心度DB324の集計結果を表示することができる。その結果、コンテンツ配信業者、コンテンツ制作者、コンテンツ配信のスポンサー等は、コンテンツの視聴者(ユーザ400)がどのようなキーワード又は番組等に関心を示すのかを知ることができる。したがって、動作制御データ挿入者は、その後、この集計結果を参考にすることにより、コンテンツの視聴者(ユーザ400)により効果的な動作制御データを挿入することができるようになる。   The content distribution apparatus 300 can display the total result of the interest level DB 324 on the display unit 333 by the above interest level DB total process. As a result, content distributors, content creators, content distribution sponsors, and the like can know what keywords or programs the content viewer (user 400) is interested in. Accordingly, the motion control data inserter can then insert more effective motion control data for the content viewer (user 400) by referring to the tabulation results.

以上説明したように、動作制御システム1000によれば、ユーザ400は、ロボット100の動作、表情、声等によって、関心を持っているコンテンツが放送されることを自然に知ることができる。また、コンテンツ配信装置300を用いてコンテンツを配信するコンテンツ配信業者は、ロボット100から送信された感情判定値に基づく関心度を集計することができるので、コンテンツに挿入する動作制御データをより効果的な内容に更新することができる。   As described above, according to the operation control system 1000, the user 400 can naturally know that the content of interest is broadcast by the operation, facial expression, voice, and the like of the robot 100. In addition, a content distributor who distributes content using the content distribution apparatus 300 can add up the degree of interest based on the emotion determination value transmitted from the robot 100, so that the operation control data inserted into the content is more effective. Can be updated.

(変形例)
前述した動作制御システム1000では、動作制御データはコンテンツの映像及び音声に挿入されているため、ロボット100は、動作制御データを取得するためにコンテンツ再生装置200の出力する音及び映像を取得する必要がある。もしロボット100が、コンテンツ再生装置200の出力する音及び映像を取得できなかった場合には、動作制御データを取得できず、動作制御データ挿入者が期待している動作を行うことができない。そこで、コンテンツ再生装置200の出力する音及び映像を取得できない場合でも、動作制御データを取得できるようにする変形例を説明する。
(Modification)
In the operation control system 1000 described above, since the operation control data is inserted into the video and audio of the content, the robot 100 needs to acquire the sound and video output from the content reproduction device 200 in order to acquire the operation control data. There is. If the robot 100 cannot acquire the sound and video output from the content reproduction apparatus 200, the operation control data cannot be acquired, and the operation expected by the operation control data inserter cannot be performed. Therefore, a modification will be described in which operation control data can be acquired even when sound and video output from the content reproduction device 200 cannot be acquired.

本発明の実施形態の変形例に係る動作制御システム1001は、図20に示すように、ロボット101と、コンテンツ再生装置201と、コンテンツ配信装置301と、を備える。コンテンツ配信装置301は、放送網(電波等)又はIPネットワークを介して、コンテンツ再生装置201にコンテンツを配信する。コンテンツ再生装置201は、コンテンツ配信装置301から配信されたコンテンツを再生する。動作制御システム1001で用いるコンテンツには、図21に示すように、映像及び音声には動作制御データは挿入されておらず、データ部分に動作制御データが挿入されている。動作制御データは、図3に示すように、コンテンツに関連するキーワード等が含まれており、ロボット101の動作内容を決定するために使用される点は、動作制御システム1000と同じである。   An operation control system 1001 according to a modification of the embodiment of the present invention includes a robot 101, a content reproduction device 201, and a content distribution device 301, as shown in FIG. The content distribution device 301 distributes content to the content reproduction device 201 via a broadcast network (such as radio waves) or an IP network. The content reproduction device 201 reproduces the content distributed from the content distribution device 301. In the content used in the motion control system 1001, as shown in FIG. 21, motion control data is not inserted in the video and audio, but motion control data is inserted in the data portion. As shown in FIG. 3, the motion control data includes keywords and the like related to the content, and is the same as the motion control system 1000 in that it is used to determine the motion details of the robot 101.

動作制御システム1001では、コンテンツ再生装置201は、コンテンツのデータ部分に挿入されている動作制御データをロボット101に送信する。そして、ロボット101は、コンテンツ再生装置201によってコンテンツの再生とともに送信される動作制御データを取得する。これらの点以外は、動作制御システム1001は、動作制御システム1000と同じである。   In the operation control system 1001, the content reproduction device 201 transmits the operation control data inserted in the data portion of the content to the robot 101. Then, the robot 101 acquires the operation control data transmitted together with the content reproduction by the content reproduction device 201. Except for these points, the operation control system 1001 is the same as the operation control system 1000.

ロボット101の外観及び機能構成はロボット100と同じである。ロボット101がロボット100と相違する点は、コンテンツ再生装置201の出力する動作制御データの取得方法のみである。ロボット101の取得部111は、コンテンツ再生装置201から送信される動作制御データを、通信部135を介して取得し、該動作制御データに含まれているキーワードを取得する。したがって、ロボット101は、動作制御データを取得するためにコンテンツ再生装置201の方へ移動したり向きを変えたりする必要はない。また、ロボット101は、コンテンツ再生装置201が再生する映像を撮影するコンテンツ撮像部を備える必要はなく、コンテンツ再生装置201が再生する音を収集するコンテンツ音入力部を備える必要もない。   The appearance and functional configuration of the robot 101 are the same as those of the robot 100. The difference between the robot 101 and the robot 100 is only the method for acquiring the operation control data output from the content reproduction apparatus 201. The acquisition unit 111 of the robot 101 acquires operation control data transmitted from the content reproduction device 201 via the communication unit 135, and acquires a keyword included in the operation control data. Therefore, the robot 101 does not need to move or change the direction of the content reproduction apparatus 201 in order to acquire the operation control data. In addition, the robot 101 does not need to include a content imaging unit that captures a video to be played back by the content playback device 201, and does not need to include a content sound input unit that collects sound played back by the content playback device 201.

コンテンツ再生装置201は、図22に示すように、コンテンツ再生装置200に、通信部235、動作制御データ取得部211及び動作制御データ送信部212が追加された構成になっている。   As shown in FIG. 22, the content reproduction apparatus 201 has a configuration in which a communication unit 235, an operation control data acquisition unit 211, and an operation control data transmission unit 212 are added to the content reproduction apparatus 200.

通信部235は、通信モジュールを備え、外部装置とのデータ通信を可能にする。コンテンツ再生装置201が無線で外部装置とのデータ通信を行う場合は、通信部235は、無線通信モジュール及びアンテナを備える。コンテンツ再生装置201は、通信部235を介して、ロボット101とデータ通信を行う。   The communication unit 235 includes a communication module and enables data communication with an external device. When the content reproduction device 201 performs data communication with an external device wirelessly, the communication unit 235 includes a wireless communication module and an antenna. The content reproduction device 201 performs data communication with the robot 101 via the communication unit 235.

動作制御データ取得部211は、コンテンツ受信部233が受信したコンテンツのデータ部分に挿入されている動作制御データを取得する。   The operation control data acquisition unit 211 acquires the operation control data inserted in the data portion of the content received by the content reception unit 233.

動作制御データ送信部212は、動作制御データ取得部211が取得した動作制御データを、通信部235を介して、ロボット101に送信する。   The motion control data transmission unit 212 transmits the motion control data acquired by the motion control data acquisition unit 211 to the robot 101 via the communication unit 235.

コンテンツ配信装置301の機能構成はコンテンツ配信装置300と同じである。コンテンツ配信装置301がコンテンツ配信装置300と相違する点は、コンテンツDB321が記憶しているコンテンツに挿入されている動作制御データが、コンテンツの映像及び音声部分ではなく、データ部分に挿入されている点のみである。コンテンツ配信装置301が行うコンテンツ配信処理は、図16を参照して説明した、コンテンツ配信装置300が行うコンテンツ配信処理と同じである。   The functional configuration of the content distribution device 301 is the same as that of the content distribution device 300. The content distribution device 301 is different from the content distribution device 300 in that the operation control data inserted into the content stored in the content DB 321 is inserted into the data portion, not the video and audio portions of the content. Only. The content distribution process performed by the content distribution apparatus 301 is the same as the content distribution process performed by the content distribution apparatus 300 described with reference to FIG.

コンテンツ再生装置201が行うコンテンツ再生処理について、図23を参照して説明する。この処理は、図17を参照して説明したコンテンツ再生装置200が行うコンテンツ再生処理の、ステップS201とステップS202の間に、ステップS204及びステップS205を追加した処理になっている。そこで、ここでは、ステップS204及びステップS205について説明する。   The content reproduction process performed by the content reproduction device 201 will be described with reference to FIG. This process is a process in which steps S204 and S205 are added between step S201 and step S202 of the content reproduction process performed by the content reproduction apparatus 200 described with reference to FIG. Therefore, step S204 and step S205 will be described here.

ステップS204では、動作制御データ取得部211は、制御部210がコンテンツ受信部233を介して受信したコンテンツのデータ部分から、動作制御データを取得する。動作制御データは、コンテンツ配信装置301が配信するコンテンツのデータ部分に予め挿入されているため、動作制御データ取得部211は、コンテンツのデータ部分を確認することによって、挿入されている動作制御データを取得することができる。   In step S <b> 204, the operation control data acquisition unit 211 acquires operation control data from the data portion of the content received by the control unit 210 via the content reception unit 233. Since the operation control data is inserted in advance in the data portion of the content distributed by the content distribution apparatus 301, the operation control data acquisition unit 211 confirms the data portion of the content, thereby Can be acquired.

ステップS205では、動作制御データ送信部212は、動作制御データ取得部211が取得した動作制御データを、通信部235を介して、ロボット101に送信する。   In step S <b> 205, the motion control data transmission unit 212 transmits the motion control data acquired by the motion control data acquisition unit 211 to the robot 101 via the communication unit 235.

その他の処理については、図17を参照して説明したコンテンツ再生装置200が行うコンテンツ再生処理と同じである。このコンテンツ再生処理によって、コンテンツ再生装置201は映像出力部231及び音出力部232からコンテンツを再生するとともに、通信部235を介して、ロボット101に動作制御データを送信することができる。したがって、ロボット101は、通信部135を介して動作制御データを取得することができ、動作制御データを取得するために、映像の撮影及び/又は音の収集をする必要はない。   Other processes are the same as the content reproduction process performed by the content reproduction apparatus 200 described with reference to FIG. By this content reproduction processing, the content reproduction device 201 can reproduce the content from the video output unit 231 and the sound output unit 232 and can transmit operation control data to the robot 101 via the communication unit 235. Therefore, the robot 101 can acquire the operation control data via the communication unit 135, and it is not necessary to shoot a video and / or collect sound in order to acquire the operation control data.

次に、ロボット101が行う動作制御処理について、図24を参照して説明する。この処理は、図18を参照して説明したロボット100が行う動作制御処理と一部を除いて同じであるので、相違点のみを説明する。   Next, operation control processing performed by the robot 101 will be described with reference to FIG. Since this process is the same as the operation control process performed by the robot 100 described with reference to FIG. 18 except for a part, only the differences will be described.

まず、取得部111は、コンテンツ再生装置201が送信する動作制御データを受信したか否かを判定する(ステップS315)。動作制御データを受信していなければ(ステップS315;No)、ステップS315に戻る。   First, the acquisition unit 111 determines whether or not the operation control data transmitted from the content reproduction device 201 has been received (step S315). If the operation control data has not been received (step S315; No), the process returns to step S315.

動作制御データを受信したなら(ステップS315;Yes)、取得部111は、受信した動作制御データに含まれるキーワード等のデータを取得する(ステップS303)。また、ステップS314での動作終了か否かの判定で、動作終了しない場合は(ステップS314;No)、ステップS315に戻る。その他の処理は、図18を参照して説明したロボット100の動作制御処理と同じである。   If the operation control data is received (step S315; Yes), the acquisition unit 111 acquires data such as a keyword included in the received operation control data (step S303). If it is determined in step S314 whether or not the operation has ended (step S314; No), the process returns to step S315. Other processes are the same as the operation control process of the robot 100 described with reference to FIG.

以上の動作制御処理により、ロボット101は、コンテンツ再生装置201の出力する映像の撮影及び音の収集をしなくても、コンテンツ再生装置201の出力する動作制御データを取得できる。そして、ユーザ400の関心度の高いキーワードがコンテンツに含まれる場合に、事前にそのことをユーザ400に自然に知らせる種々の動作を行うことができる。   Through the above-described operation control processing, the robot 101 can acquire the operation control data output from the content reproduction device 201 without shooting the video output from the content reproduction device 201 and collecting sound. And when a keyword with a high degree of interest of the user 400 is included in the content, various operations that naturally inform the user 400 in advance can be performed.

なお、本発明の実施形態に係るロボット100,101の各機能は、通常のPC等のコンピュータによっても実施することができる。具体的には、上記実施形態では、ロボット100,101が行う動作制御処理のプログラムが、記憶部120のROMに予め記憶されているものとして説明した。しかし、プログラムを、USB(Universal Serial Bus)メモリ、フレキシブルディスク、HDD(Hard Disk Drive)、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、前述の各機能を実現することができるコンピュータを構成してもよい。また、このプログラムは、ネットワークを介してコンピュータにダウンロードされてもよい。   Note that the functions of the robots 100 and 101 according to the embodiment of the present invention can also be implemented by a computer such as a normal PC. Specifically, in the above-described embodiment, the operation control processing program performed by the robots 100 and 101 has been described as being stored in advance in the ROM of the storage unit 120. However, the program can be used for USB (Universal Serial Bus) memory, flexible disk, HDD (Hard Disk Drive), CD-ROM (Compact Disc Read Only Memory), DVD (Digital Versatile Disc), MO (Dc), etc. You may comprise the computer which can implement | achieve each said function by storing in a computer-readable recording medium, distributing, and reading and installing the program in a computer. Further, this program may be downloaded to a computer via a network.

また、このコンピュータはロボット100,101に内蔵してもよいし、ロボット100,101とは別個に存在してもよい。すなわち、図25に示すように、ロボット102と通信可能な外部のサーバ500に制御部510及び記憶部520を設けてもよい。そして、クラウドコンピューティング技術により、ロボット102とサーバ500とが役割分担をして動作することができる。例えば、ロボット102の制御部110は、撮像部141及び音入力部142等で取得したデータを、通信部135を介して外部のサーバ500に送信する。そして、制御部110は、演算処理を該サーバ500にさせた後に、サーバ500が行った演算処理の結果を、通信部135を介して受信し、可動部132等を制御してもよい。図25では、サーバ500の制御部510が取得部111、動作内容決定部112、感情判定部114及び関心度更新部115を備え、ロボット102の制御部110が、動作制御部113及び感情判定値116を備える構成を示している。しかし、これらの各部は、サーバ500の制御部510とロボット102の制御部110とのどちらかに備わっていればよい。各部をサーバ500の制御部510が備えるかロボット102の制御部110が備えるかについては、任意である。ロボット102の記憶部120と、サーバ500の記憶部520についても同様である。   The computer may be built in the robots 100 and 101, or may exist separately from the robots 100 and 101. That is, as shown in FIG. 25, a control unit 510 and a storage unit 520 may be provided in an external server 500 that can communicate with the robot 102. Then, the robot 102 and the server 500 can operate by sharing roles by using cloud computing technology. For example, the control unit 110 of the robot 102 transmits data acquired by the imaging unit 141, the sound input unit 142, and the like to the external server 500 via the communication unit 135. Then, after causing the server 500 to perform the arithmetic processing, the control unit 110 may receive the result of the arithmetic processing performed by the server 500 via the communication unit 135 and control the movable unit 132 and the like. In FIG. 25, the control unit 510 of the server 500 includes an acquisition unit 111, an operation content determination unit 112, an emotion determination unit 114, and an interest level update unit 115, and the control unit 110 of the robot 102 includes an operation control unit 113 and an emotion determination value. A configuration including 116 is shown. However, these units may be provided in either the control unit 510 of the server 500 or the control unit 110 of the robot 102. Whether each unit is included in the control unit 510 of the server 500 or the control unit 110 of the robot 102 is arbitrary. The same applies to the storage unit 120 of the robot 102 and the storage unit 520 of the server 500.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
コンテンツに挿入されている挿入データを取得する取得部と、
前記取得部が取得した前記挿入データに対するユーザの関心度に基づいて、自装置の動作内容を決定する動作内容決定部と、
前記動作内容決定部が決定した動作内容に基づいて前記自装置を動作させる動作制御部と、
を備えるロボット。
(Appendix 1)
An acquisition unit for acquiring insertion data inserted in the content;
An operation content determination unit that determines the operation content of the device based on the degree of interest of the user with respect to the insertion data acquired by the acquisition unit;
An operation control unit for operating the device based on the operation content determined by the operation content determination unit;
Robot equipped with.

(付記2)
前記挿入データは前記コンテンツに関連するキーワードを含み、
前記取得部は、前記挿入データに含まれる前記キーワードを取得し、
前記動作内容決定部は、前記取得部が取得した前記キーワードに対する前記ユーザの関心度に基づいて、前記自装置の動作内容を決定する、
付記1に記載のロボット。
(Appendix 2)
The insertion data includes keywords related to the content;
The acquisition unit acquires the keyword included in the insertion data,
The operation content determination unit determines the operation content of the device based on the degree of interest of the user with respect to the keyword acquired by the acquisition unit.
The robot according to appendix 1.

(付記3)
前記挿入データが挿入されている前記コンテンツを見た又は聴いた時の前記ユーザの感情を判定する感情判定部と、
前記感情判定部が判定した前記ユーザの感情に基づいて、前記挿入データに対する前記ユーザの関心度を更新する関心度更新部と、
をさらに備え、
前記動作内容決定部は、前記関心度更新部が更新した前記ユーザの関心度に基づいて、前記自装置の動作内容を決定する、
付記1又は2に記載のロボット。
(Appendix 3)
An emotion determination unit that determines the emotion of the user when viewing or listening to the content in which the insertion data is inserted;
Based on the emotion of the user determined by the emotion determination unit, an interest level update unit that updates the interest level of the user with respect to the insertion data;
Further comprising
The operation content determination unit determines the operation content of the device based on the interest level of the user updated by the interest level update unit.
The robot according to appendix 1 or 2.

(付記4)
前記感情判定部が判定した感情を数値化した値である感情判定値を、コンテンツ配信装置に送信する感情判定値送信部をさらに備える、
付記3に記載のロボット。
(Appendix 4)
An emotion determination value transmission unit that transmits an emotion determination value, which is a value obtained by quantifying the emotion determined by the emotion determination unit, to the content distribution device;
The robot according to appendix 3.

(付記5)
画像を撮影する撮像部をさらに備え、
前記感情判定部は、前記撮像部が撮影した前記ユーザの画像に基づいて前記ユーザの感情を判定する、
付記3又は4に記載のロボット。
(Appendix 5)
It further includes an imaging unit that captures an image,
The emotion determination unit determines the user's emotion based on the user's image captured by the imaging unit;
The robot according to appendix 3 or 4.

(付記6)
前記感情判定部は、前記撮像部が撮影した前記ユーザの顔の表情を認識することによって、前記ユーザの感情を判定する、
付記5に記載のロボット。
(Appendix 6)
The emotion determination unit determines the emotion of the user by recognizing the facial expression of the user taken by the imaging unit.
The robot according to appendix 5.

(付記7)
音を収集する音入力部をさらに備え、
前記感情判定部は、前記音入力部が収集した前記ユーザの声の大きさを認識することによって、前記ユーザの感情を判定する、
付記3から6のいずれか1つに記載のロボット。
(Appendix 7)
A sound input unit for collecting sounds;
The emotion determination unit determines the user's emotion by recognizing the loudness of the user's voice collected by the sound input unit,
The robot according to any one of appendices 3 to 6.

(付記8)
コンテンツ再生装置が再生する映像を撮影するコンテンツ撮像部をさらに備え、
前記取得部は、前記コンテンツ撮像部が撮影した画像に挿入されている前記挿入データを取得する、
付記1から7のいずれか1つに記載のロボット。
(Appendix 8)
It further includes a content imaging unit that captures video that is played back by the content playback device,
The acquisition unit acquires the insertion data inserted in an image captured by the content imaging unit;
The robot according to any one of appendices 1 to 7.

(付記9)
コンテンツ再生装置が再生する非可聴域の音を収集するコンテンツ音入力部をさらに備え、
前記取得部は、前記コンテンツ音入力部が収集した非可聴域の音に挿入されている前記挿入データを取得する、
付記1から8のいずれか1つに記載のロボット。
(Appendix 9)
A content sound input unit that collects non-audible sound reproduced by the content reproduction device;
The acquisition unit acquires the insertion data inserted in a non-audible range sound collected by the content sound input unit,
The robot according to any one of appendices 1 to 8.

(付記10)
前記挿入データは前記自装置を動作させる時刻を示す動作タイミング情報を含み、
前記取得部は、前記挿入データに含まれる前記動作タイミング情報を取得し、
前記動作制御部は、前記取得部が取得した前記動作タイミング情報に示される時刻に前記自装置の動作を開始させる、
付記1から9のいずれか1つに記載のロボット。
(Appendix 10)
The insertion data includes operation timing information indicating a time for operating the device.
The acquisition unit acquires the operation timing information included in the insertion data,
The operation control unit starts the operation of the device at a time indicated by the operation timing information acquired by the acquisition unit;
The robot according to any one of appendices 1 to 9.

(付記11)
前記挿入データは前記ユーザに抱かせたい感情を示す感情情報を含み、
前記取得部は、前記挿入データに含まれる前記感情情報を取得し、
前記動作内容決定部は、前記取得部が取得した前記感情情報に示される感情を抱かせるような動作として記憶されている動作内容を、前記自装置の動作内容として決定する、
付記1から10のいずれか1つに記載のロボット。
(Appendix 11)
The insertion data includes emotion information indicating emotions that the user wants to hold,
The acquisition unit acquires the emotion information included in the insertion data,
The operation content determination unit determines an operation content stored as an operation that causes an emotion indicated in the emotion information acquired by the acquisition unit as an operation content of the own device.
The robot according to any one of appendices 1 to 10.

(付記12)
前記挿入データは前記ロボットに対する動作指示を示す動作指示情報を含み、
前記取得部は、前記挿入データに含まれる前記動作指示情報を取得し、
前記動作内容決定部は、前記取得部が取得した前記挿入データに対する前記ユーザの関心度に基づく動作内容と前記動作指示情報に示される動作指示とを合成して、前記自装置の動作内容を決定する、
付記1から11のいずれか1つに記載のロボット。
(Appendix 12)
The insertion data includes operation instruction information indicating an operation instruction for the robot,
The acquisition unit acquires the operation instruction information included in the insertion data,
The operation content determination unit determines the operation content of the device itself by combining the operation content based on the user's interest level with respect to the insertion data acquired by the acquisition unit and the operation instruction indicated in the operation instruction information. To
The robot according to any one of appendices 1 to 11.

(付記13)
前記自装置を移動させる移動部をさらに備え、
前記動作制御部は、前記動作内容決定部が決定した動作内容に基づいて前記自装置を動作させる前に、前記ユーザに近づくように前記移動部を制御する、
付記1から12のいずれか1つに記載のロボット。
(Appendix 13)
A moving unit for moving the device;
The operation control unit controls the moving unit to approach the user before operating the device based on the operation content determined by the operation content determination unit.
The robot according to any one of appendices 1 to 12.

(付記14)
挿入データが挿入されたコンテンツを配信するコンテンツ配信装置と、
前記コンテンツ配信装置が配信したコンテンツを再生する際に前記挿入データも出力するコンテンツ再生装置と、
前記コンテンツ再生装置が出力した前記挿入データに対するユーザの関心度に基づく動作を実行するロボットと、
を備える動作制御システム。
(Appendix 14)
A content distribution device that distributes the content in which the insertion data is inserted;
A content reproduction device that outputs the insertion data when reproducing the content distributed by the content distribution device;
A robot that performs an operation based on the degree of interest of the user with respect to the insertion data output by the content reproduction device;
An operation control system comprising:

(付記15)
コンテンツに挿入されている挿入データを取得する取得ステップと、
前記取得ステップで取得した前記挿入データに対するユーザの関心度に基づいて、動作内容を決定する動作内容決定ステップと、
前記動作内容決定ステップで決定した動作内容に基づいて自装置を動作させる動作制御ステップと、
を含む動作制御方法。
(Appendix 15)
An acquisition step of acquiring insertion data inserted into the content;
An operation content determination step for determining an operation content based on a user's interest in the insertion data acquired in the acquisition step;
An operation control step for operating the device based on the operation content determined in the operation content determination step;
An operation control method including:

(付記16)
コンピュータを、
コンテンツに挿入されている挿入データを取得する取得部、
前記取得部が取得した前記挿入データに対するユーザの関心度に基づいて、動作内容を決定する動作内容決定部、
前記動作内容決定部が決定した動作内容に基づいて自装置を動作させる動作制御部、
として機能させるためのプログラム。
(Appendix 16)
Computer
An acquisition unit for acquiring insertion data inserted in the content;
An operation content determination unit that determines an operation content based on a degree of interest of the user with respect to the insertion data acquired by the acquisition unit;
An operation control unit for operating the device based on the operation content determined by the operation content determination unit;
Program to function as.

100,101,102…ロボット、110,210,310,510…制御部、111…取得部、112…動作内容決定部、113…動作制御部、114…感情判定部、115…関心度更新部、116…感情判定値送信部、120,220,320,520…記憶部、121…キーワード関心度対応表、122…関心度動作内容対応表、123…ロボットID、131…移動部、132…可動部、133,333…表示部、134…音出力部、135,235,332,531…通信部、140…センサ部、141…撮像部、142…音入力部、151…頭部、152…胴部、153…耳部、154…眼部、155…鼻部、156…口部、157…手部、158…足部、159…尻尾部、200,201…コンテンツ再生装置、211…動作制御データ取得部、212…動作制御データ送信部、231…映像出力部、232…音出力部、233…コンテンツ受信部、234,334…入力部、300,301…コンテンツ配信装置、311…感情判定値取得部、312…関心度DB更新部、313…関心度DB集計部、321…コンテンツDB、322…動作制御データDB、323…配信スケジュールDB、324…関心度DB、331…コンテンツ配信部、400…ユーザ、500…サーバ、1000,1001…動作制御システム DESCRIPTION OF SYMBOLS 100,101,102 ... Robot, 110,210,310,510 ... Control part, 111 ... Acquisition part, 112 ... Motion content determination part, 113 ... Motion control part, 114 ... Emotion determination part, 115 ... Interest level update part, 116: emotion judgment value transmission unit, 120, 220, 320, 520 ... storage unit, 121 ... keyword interest level correspondence table, 122 ... interest level action content correspondence table, 123 ... robot ID, 131 ... moving unit, 132 ... movable unit 133,333 ... display unit, 134 ... sound output unit, 135,235,332,531 ... communication unit, 140 ... sensor unit, 141 ... imaging unit, 142 ... sound input unit, 151 ... head, 152 ... body 153 ... ear part, 154 ... eye part, 155 ... nose part, 156 ... mouth part, 157 ... hand part, 158 ... foot part, 159 ... tail part, 200, 201 ... content playback device, 211 ... motion Control data acquisition unit, 212 ... operation control data transmission unit, 231 ... video output unit, 232 ... sound output unit, 233 ... content reception unit, 234, 334 ... input unit, 300, 301 ... content distribution device, 311 ... emotion determination Value acquisition unit, 312 ... Interest level DB update unit, 313 ... Interest level DB totaling unit, 321 ... Content DB, 322 ... Operation control data DB, 323 ... Distribution schedule DB, 324 ... Interest level DB, 331 ... Content distribution unit, 400 ... User, 500 ... Server, 1000,1001 ... Operation control system

Claims (16)

コンテンツに挿入されている挿入データを取得する取得部と、
前記取得部が取得した前記挿入データに対するユーザの関心度に基づいて、自装置の動作内容を決定する動作内容決定部と、
前記動作内容決定部が決定した動作内容に基づいて前記自装置を動作させる動作制御部と、
を備えるロボット。
An acquisition unit for acquiring insertion data inserted in the content;
An operation content determination unit that determines the operation content of the device based on the degree of interest of the user with respect to the insertion data acquired by the acquisition unit;
An operation control unit for operating the device based on the operation content determined by the operation content determination unit;
Robot equipped with.
前記挿入データは前記コンテンツに関連するキーワードを含み、
前記取得部は、前記挿入データに含まれる前記キーワードを取得し、
前記動作内容決定部は、前記取得部が取得した前記キーワードに対する前記ユーザの関心度に基づいて、前記自装置の動作内容を決定する、
請求項1に記載のロボット。
The insertion data includes keywords related to the content;
The acquisition unit acquires the keyword included in the insertion data,
The operation content determination unit determines the operation content of the device based on the degree of interest of the user with respect to the keyword acquired by the acquisition unit.
The robot according to claim 1.
前記挿入データが挿入されている前記コンテンツを見た又は聴いた時の前記ユーザの感情を判定する感情判定部と、
前記感情判定部が判定した前記ユーザの感情に基づいて、前記挿入データに対する前記ユーザの関心度を更新する関心度更新部と、
をさらに備え、
前記動作内容決定部は、前記関心度更新部が更新した前記ユーザの関心度に基づいて、前記自装置の動作内容を決定する、
請求項1又は2に記載のロボット。
An emotion determination unit that determines the emotion of the user when viewing or listening to the content in which the insertion data is inserted;
Based on the emotion of the user determined by the emotion determination unit, an interest level update unit that updates the interest level of the user with respect to the insertion data;
Further comprising
The operation content determination unit determines the operation content of the device based on the interest level of the user updated by the interest level update unit.
The robot according to claim 1 or 2.
前記感情判定部が判定した感情を数値化した値である感情判定値を、コンテンツ配信装置に送信する感情判定値送信部をさらに備える、
請求項3に記載のロボット。
An emotion determination value transmission unit that transmits an emotion determination value, which is a value obtained by quantifying the emotion determined by the emotion determination unit, to the content distribution device;
The robot according to claim 3.
画像を撮影する撮像部をさらに備え、
前記感情判定部は、前記撮像部が撮影した前記ユーザの画像に基づいて前記ユーザの感情を判定する、
請求項3又は4に記載のロボット。
It further includes an imaging unit that captures an image,
The emotion determination unit determines the user's emotion based on the user's image captured by the imaging unit;
The robot according to claim 3 or 4.
前記感情判定部は、前記撮像部が撮影した前記ユーザの顔の表情を認識することによって、前記ユーザの感情を判定する、
請求項5に記載のロボット。
The emotion determination unit determines the emotion of the user by recognizing the facial expression of the user taken by the imaging unit.
The robot according to claim 5.
音を収集する音入力部をさらに備え、
前記感情判定部は、前記音入力部が収集した前記ユーザの声の大きさを認識することによって、前記ユーザの感情を判定する、
請求項3から6のいずれか1項に記載のロボット。
A sound input unit for collecting sounds;
The emotion determination unit determines the user's emotion by recognizing the loudness of the user's voice collected by the sound input unit,
The robot according to any one of claims 3 to 6.
コンテンツ再生装置が再生する映像を撮影するコンテンツ撮像部をさらに備え、
前記取得部は、前記コンテンツ撮像部が撮影した画像に挿入されている前記挿入データを取得する、
請求項1から7のいずれか1項に記載のロボット。
It further includes a content imaging unit that captures video that is played back by the content playback device,
The acquisition unit acquires the insertion data inserted in an image captured by the content imaging unit;
The robot according to any one of claims 1 to 7.
コンテンツ再生装置が再生する非可聴域の音を収集するコンテンツ音入力部をさらに備え、
前記取得部は、前記コンテンツ音入力部が収集した非可聴域の音に挿入されている前記挿入データを取得する、
請求項1から8のいずれか1項に記載のロボット。
A content sound input unit that collects non-audible sound reproduced by the content reproduction device;
The acquisition unit acquires the insertion data inserted in a non-audible range sound collected by the content sound input unit,
The robot according to any one of claims 1 to 8.
前記挿入データは前記自装置を動作させる時刻を示す動作タイミング情報を含み、
前記取得部は、前記挿入データに含まれる前記動作タイミング情報を取得し、
前記動作制御部は、前記取得部が取得した前記動作タイミング情報に示される時刻に前記自装置の動作を開始させる、
請求項1から9のいずれか1項に記載のロボット。
The insertion data includes operation timing information indicating a time for operating the device.
The acquisition unit acquires the operation timing information included in the insertion data,
The operation control unit starts the operation of the device at a time indicated by the operation timing information acquired by the acquisition unit;
The robot according to any one of claims 1 to 9.
前記挿入データは前記ユーザに抱かせたい感情を示す感情情報を含み、
前記取得部は、前記挿入データに含まれる前記感情情報を取得し、
前記動作内容決定部は、前記取得部が取得した前記感情情報に示される感情を抱かせるような動作として記憶されている動作内容を、前記自装置の動作内容として決定する、
請求項1から10のいずれか1項に記載のロボット。
The insertion data includes emotion information indicating emotions that the user wants to hold,
The acquisition unit acquires the emotion information included in the insertion data,
The operation content determination unit determines an operation content stored as an operation that causes an emotion indicated in the emotion information acquired by the acquisition unit as an operation content of the own device.
The robot according to any one of claims 1 to 10.
前記挿入データは前記ロボットに対する動作指示を示す動作指示情報を含み、
前記取得部は、前記挿入データに含まれる前記動作指示情報を取得し、
前記動作内容決定部は、前記取得部が取得した前記挿入データに対する前記ユーザの関心度に基づく動作内容と前記動作指示情報に示される動作指示とを合成して、前記自装置の動作内容を決定する、
請求項1から11のいずれか1項に記載のロボット。
The insertion data includes operation instruction information indicating an operation instruction for the robot,
The acquisition unit acquires the operation instruction information included in the insertion data,
The operation content determination unit determines the operation content of the device itself by combining the operation content based on the user's interest level with respect to the insertion data acquired by the acquisition unit and the operation instruction indicated in the operation instruction information. To
The robot according to any one of claims 1 to 11.
前記自装置を移動させる移動部をさらに備え、
前記動作制御部は、前記動作内容決定部が決定した動作内容に基づいて前記自装置を動作させる前に、前記ユーザに近づくように前記移動部を制御する、
請求項1から12のいずれか1項に記載のロボット。
A moving unit for moving the device;
The operation control unit controls the moving unit to approach the user before operating the device based on the operation content determined by the operation content determination unit.
The robot according to any one of claims 1 to 12.
挿入データが挿入されたコンテンツを配信するコンテンツ配信装置と、
前記コンテンツ配信装置が配信したコンテンツを再生する際に前記挿入データも出力するコンテンツ再生装置と、
前記コンテンツ再生装置が出力した前記挿入データに対するユーザの関心度に基づく動作を実行するロボットと、
を備える動作制御システム。
A content distribution device that distributes the content in which the insertion data is inserted;
A content reproduction device that outputs the insertion data when reproducing the content distributed by the content distribution device;
A robot that performs an operation based on the degree of interest of the user with respect to the insertion data output by the content reproduction device;
An operation control system comprising:
コンテンツに挿入されている挿入データを取得する取得ステップと、
前記取得ステップで取得した前記挿入データに対するユーザの関心度に基づいて、動作内容を決定する動作内容決定ステップと、
前記動作内容決定ステップで決定した動作内容に基づいて自装置を動作させる動作制御ステップと、
を含む動作制御方法。
An acquisition step of acquiring insertion data inserted into the content;
An operation content determination step for determining an operation content based on a user's interest in the insertion data acquired in the acquisition step;
An operation control step for operating the device based on the operation content determined in the operation content determination step;
An operation control method including:
コンピュータを、
コンテンツに挿入されている挿入データを取得する取得部、
前記取得部が取得した前記挿入データに対するユーザの関心度に基づいて、動作内容を決定する動作内容決定部、
前記動作内容決定部が決定した動作内容に基づいて自装置を動作させる動作制御部、
として機能させるためのプログラム。
Computer
An acquisition unit for acquiring insertion data inserted in the content;
An operation content determination unit that determines an operation content based on a degree of interest of the user with respect to the insertion data acquired by the acquisition unit;
An operation control unit for operating the device based on the operation content determined by the operation content determination unit;
Program to function as.
JP2016238785A 2016-12-08 2016-12-08 Robot, operation control system, operation control method, and program Pending JP2018098545A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016238785A JP2018098545A (en) 2016-12-08 2016-12-08 Robot, operation control system, operation control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238785A JP2018098545A (en) 2016-12-08 2016-12-08 Robot, operation control system, operation control method, and program

Publications (1)

Publication Number Publication Date
JP2018098545A true JP2018098545A (en) 2018-06-21

Family

ID=62633234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238785A Pending JP2018098545A (en) 2016-12-08 2016-12-08 Robot, operation control system, operation control method, and program

Country Status (1)

Country Link
JP (1) JP2018098545A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119364A (en) * 2019-01-25 2020-08-06 Necパーソナルコンピュータ株式会社 Interactive robot and controller of the same
JP2021018482A (en) * 2019-07-17 2021-02-15 本田技研工業株式会社 Robot management device, robot manufacturing method and robot management system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119364A (en) * 2019-01-25 2020-08-06 Necパーソナルコンピュータ株式会社 Interactive robot and controller of the same
JP7051728B2 (en) 2019-01-25 2022-04-11 Necパーソナルコンピュータ株式会社 Interactive robot and its control device
JP2021018482A (en) * 2019-07-17 2021-02-15 本田技研工業株式会社 Robot management device, robot manufacturing method and robot management system
JP7273638B2 (en) 2019-07-17 2023-05-15 本田技研工業株式会社 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM

Similar Documents

Publication Publication Date Title
US11858118B2 (en) Robot, server, and human-machine interaction method
JP6775557B2 (en) Video distribution system, video distribution method, and video distribution program
US20180124475A1 (en) Systems and Methods for Enhanced Television Interaction
JP6594646B2 (en) Robot, robot control method, and robot system
CN103237248B (en) Media program is controlled based on media reaction
US20160110922A1 (en) Method and system for enhancing communication by using augmented reality
JP6614929B2 (en) Video game tactile technology
EP3104258A1 (en) Broadcast haptics architectures
CN109416562B (en) Apparatus, method and computer readable medium for virtual reality
WO2022227408A1 (en) Virtual reality interaction method, device and system
JP7198244B2 (en) Video distribution system, video distribution method, and video distribution program
JPWO2016136104A1 (en) Information processing apparatus, information processing method, and program
JP2018098545A (en) Robot, operation control system, operation control method, and program
KR102430547B1 (en) Apparatus for creation of contents of game play
CN110753233B (en) Information interaction playing method and device, electronic equipment and storage medium
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
US20170296918A1 (en) Interactive game system
US11656683B2 (en) Signal generation device, signal generation method, and reproduction device
US20150254887A1 (en) Method and system for modeling emotion
JPWO2020158440A1 (en) A recording medium that describes an information processing device, an information processing method, and a program.
CN111435546A (en) Model action method and device, sound box with screen, electronic equipment and storage medium
CN116322507A (en) Sex demand interactive platform system