JP2017064853A - Robot, content deciding device, content deciding method, and program - Google Patents

Robot, content deciding device, content deciding method, and program Download PDF

Info

Publication number
JP2017064853A
JP2017064853A JP2015193511A JP2015193511A JP2017064853A JP 2017064853 A JP2017064853 A JP 2017064853A JP 2015193511 A JP2015193511 A JP 2015193511A JP 2015193511 A JP2015193511 A JP 2015193511A JP 2017064853 A JP2017064853 A JP 2017064853A
Authority
JP
Japan
Prior art keywords
content
viewer
robot
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015193511A
Other languages
Japanese (ja)
Inventor
智子 小堀
Tomoko Kobori
智子 小堀
小川 隆
Takashi Ogawa
隆 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015193511A priority Critical patent/JP2017064853A/en
Publication of JP2017064853A publication Critical patent/JP2017064853A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot, a content deciding device, a content deciding method and a program in which a program of high interest degree of a viewer can be selected according to the situation and can be screened.SOLUTION: A robot 2 implementing content to a viewer acquires an attribute of the viewer from an image of the surrounding (the viewer) and a vocalization situation. The robot 2 acquires the response of the viewer against the content, and seeks the interest degree of the viewer on the basis of the acquired response of the viewer. The content to be performed is decided based on the attribute and the interest degree of the viewer. It may be good that response on screening the content is collected from information opened on the Internet 6, and the interest degree of the viewer is sought based on the collected response. Furthermore, it may be good that the interest degree of the viewer is determined from the number of visitors.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムに関し、詳細には、対話型ロボットを制御する技術に関する。   The present invention relates to a robot, a content determination device, a content determination method, and a program, and more particularly to a technique for controlling an interactive robot.

近年、人との対話が可能なロボットが開発されている。この種のロボットは、対話のための音声認識機能や発話機能を持つ他、対話相手の表情や音声感情、明るさや温度等の周囲の状況を音声・画像認識エンジンや各種のセンサにより読み取ることができる。また読み取った内容に応じてロボット自身の感情も変化させ、ディスプレイで感情を可視化したり、感情に応じた発話を行うものもある。また、ロボットの頭や腕、腰等に可動部を設け、対話や指令の内容に応じたアクションを行わせることも可能となっている。   In recent years, robots capable of interacting with people have been developed. This type of robot has a voice recognition function and a speech function for dialogue, and can read the surrounding situation such as facial expression, voice emotion, brightness and temperature of the other party with voice / image recognition engine and various sensors. it can. There are also robots that change their emotions according to the read content, visualize the emotions on the display, and utter utterances according to the emotions. Also, it is possible to provide a movable part on the robot's head, arm, waist, etc., and to perform an action corresponding to the content of the dialogue or command.

例えば特許文献1には、ロボットにユーザと共に映像を視聴しているかのようなアクションを実行させるロボット制御方法について記載されている。このロボット制御方法では、ソーシャルメディアサーバから視聴中の番組に関するコメントを取得し、ロボットに設定されたパーソナリティと一致するパーソナリティ一致話者のコメントからロボットに発話させる発話内容を決定するとともに、発話内容の対話状態とロボットの感情状態に基づいてロボットに実行させるアクション内容をアクションデータベースから抽出して、視聴中の番組の内容に応じたアクションをロボットに実行させている。   For example, Patent Document 1 describes a robot control method that causes a robot to perform an action as if viewing a video together with a user. In this robot control method, a comment about the program being viewed is acquired from the social media server, and the utterance content to be uttered by the robot is determined from the comment of the personality matching speaker that matches the personality set in the robot. Based on the dialogue state and the emotional state of the robot, the action content to be executed by the robot is extracted from the action database, and the action corresponding to the content of the program being viewed is executed by the robot.

特開2015−148701号公報JP2015-148701A

しかしながら、特許文献1のロボット制御方法は、ロボットの発話内容やアクションの内容をソーシャルメディアサーバから得た情報に基づいて決定するものであり、ロボットの目の前の多数の視聴者の状況から判断するものではない。例えば、お話し形式のコンテンツやクイズ形式のコンテンツをイベントの来場者の前で実施する場合、来場者の反応や周囲の状況をリアルタイムに判断し、興味や関心を引き寄せるような演目をロボットに行わせることで、集客力を向上させたいといった要望がある。   However, the robot control method disclosed in Patent Document 1 determines the content of an utterance or action of a robot based on information obtained from a social media server, and is determined from the situation of many viewers in front of the robot. Not what you want. For example, when talking-style content or quiz-style content is held in front of an event attendee, the robot will perform a performance that draws the interest and interest by judging the reaction of the visitor and the surrounding situation in real time. Therefore, there is a demand to improve the ability to attract customers.

本発明は、視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムを提供することを目的とする。   An object of the present invention is to provide a robot, a content determination device, a content determination method, and a program that can select and screen a performance with a high degree of interest of the viewer according to the situation.

前述した課題を解決するため第1の発明は、視聴者に対しコンテンツを実行するコンテンツ実行手段と、実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、を備えることを特徴とするロボットである。   In order to solve the above-described problems, the first invention is a content execution unit that executes content for a viewer, a reaction acquisition unit that acquires the viewer's response to the content to be executed, and the acquired viewer's response An interest level calculating means for determining the degree of interest of the viewer based on the content; and a content determining means for determining content to be executed by the content executing means based on the interest level of the viewer. is there.

第1の発明によれば、視聴者に対しコンテンツを実行するロボットが、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定する。
これにより、ロボットが人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、実行することが可能となる。視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボットを提供できる。
According to the first invention, the robot that executes content for the viewer acquires the viewer's response to the content to be executed, obtains the viewer's interest based on the acquired viewer's response, and views Content to be executed is determined based on the interest level of the person.
As a result, the robot can determine and execute the content based on the reaction (degree of interest) of the viewer without human intervention. It is possible to provide a robot that can be selected and screened according to the situation in which the audience is highly interested.

また第1の発明において、前記視聴者の属性を取得する属性取得手段、を更に備え、前記コンテンツ決定手段は、前記視聴者の属性及び前記関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定することが望ましい。これにより、視聴者の属性を考慮して実行するコンテンツを決定することが可能となる。   In the first aspect of the invention, further comprising attribute acquisition means for acquiring the viewer attribute, wherein the content determination means determines content to be executed by the content execution means based on the viewer attribute and the degree of interest. It is desirable to do. This makes it possible to determine the content to be executed in consideration of the viewer's attributes.

また第1の発明において、前記視聴者の様子を撮影した画像を取得し解析する画像解析手段と、前記視聴者の発声状況を取得する発声状況取得手段と、を更に備え、前記反応取得手段は、前記画像の解析結果及び前記発声状況に基づいて前記視聴者の反応を取得することが望ましい。これにより、観客の画像や発声状況から観客の反応を判断できるようになる。   In the first aspect of the invention, the image processing device further includes an image analysis unit that acquires and analyzes an image obtained by capturing the state of the viewer, and an utterance state acquisition unit that acquires an utterance state of the viewer. Preferably, the viewer's reaction is acquired based on the analysis result of the image and the utterance situation. Thereby, it becomes possible to judge the reaction of the audience from the image of the audience and the utterance situation.

また第1の発明において、インターネットに公開された情報から前記コンテンツの上映に関する反応を収集するインターネット情報収集手段、を更に備え、前記反応取得手段は、更に前記インターネット情報収集手段により収集した反応を前記視聴者の反応に含めることが望ましい。また前記反応取得手段は、更に来場者数を前記視聴者の反応に含めることが望ましい。これにより、インターネットに公開されたコメントやレビュー等の情報や来場者数から上映に関する反応や話題性を判断し上映演目の決定に反映できるようになる。   In the first aspect of the invention, the information processing device further comprises an Internet information collecting unit that collects a reaction related to the screening of the content from information published on the Internet, and the reaction acquisition unit further includes the reaction collected by the Internet information collecting unit. It should be included in the viewer's response. Moreover, it is desirable that the response acquisition means further includes the number of visitors in the viewer's response. As a result, it is possible to judge the reaction and topicality related to the screening from information such as comments and reviews published on the Internet and the number of visitors, and reflect it in the determination of the screening performance.

また第1の発明において、各コンテンツに対する前記関心度を前記視聴者の属性と紐づけて記録する記録手段、を更に備え、前記コンテンツ決定手段は、視聴者の属性及び前記関心度に基づいて前記記録手段に記録されたコンテンツの中から最適なコンテンツを複数選択し、一連の上映リストを生成することが望ましい。これにより、事前に上映リストを作成しておき、来場者の属性(性別や年齢層等)に応じて関心度の高い上映リストを選択して実行できる。また例えば、盛り上がり重視や集中度重視等、求める関心度に応じた上映リストを予め生成して記憶しておけるようになる。   In the first invention, the recording apparatus may further include a recording unit that records the interest level of each content in association with the viewer attribute, and the content determination unit is configured to record the content based on the viewer attribute and the interest level. It is desirable to select a plurality of optimum contents from the contents recorded in the recording means and generate a series of screening lists. Thereby, a screening list can be created in advance, and a screening list with a high degree of interest can be selected and executed according to the attributes (gender, age group, etc.) of the visitors. In addition, for example, a screening list corresponding to a desired degree of interest such as emphasis on excitement and concentration can be generated and stored in advance.

また第1の発明において、前記コンテンツ決定手段は、しばらく上映されていないコンテンツを前記上映リストに優先的に含めるようにしてもよい。また、予め指定された推薦コンテンツを前記上映リストに優先的に含めるようにしてもよい。また、新たに作成されたコンテンツを前記上映リストに優先的に含めるようにしてもよい。
これにより、関心度が高い演目だけでなく、演出者側が優先して上映したい演目や上映頻度の低い演目を組み込んで実行できるようになるので、視聴者が飽きることなく、新たに関心度が高くなる演目を見出すことが可能となる。
In the first invention, the content determination means may preferentially include content that has not been shown for a while in the screening list. In addition, pre-designated recommended content may be preferentially included in the screening list. Also, newly created content may be preferentially included in the screening list.
As a result, not only shows with a high degree of interest but also performances that the director wants to preferentially show or shows with a low screening frequency can be executed, so viewers will not get bored and a new level of interest will be added. It becomes possible to find the performance that becomes.

第2の発明は、視聴者に対しコンテンツを実行するコンテンツ実行手段と、実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、を備えることを特徴とするコンテンツ決定装置である。   According to a second aspect of the present invention, content execution means for executing content for a viewer, reaction acquisition means for acquiring the viewer's response to the content to be executed, and the viewer's response based on the acquired viewer's response An interest level calculating means for obtaining an interest level, and a content determination means for determining content to be executed by the content execution means based on the interest level of the viewer.

第2の発明によれば、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定し、視聴者に対しコンテンツを実行する。
これにより、人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、実行することが可能な装置を提供できる。視聴者の関心度の高い演目を状況に応じて選択し上映可能となる。
According to the second invention, the viewer's response to the content to be executed is acquired, the viewer's interest level is obtained based on the acquired viewer's response, and the content to be executed is determined based on the viewer's interest level And execute the content to the viewer.
Accordingly, it is possible to provide an apparatus that can determine and execute content based on the reaction (degree of interest) of a viewer without human intervention. Performances with high viewer interest can be selected and screened according to the situation.

また第2の発明において、前記コンテンツ実行手段はロボットを用いて前記コンテンツを実行することが望ましい。これにより、第2の発明のコンテンツ決定装置により決定されたコンテンツをロボットが実行できる。ロボットを用いて、視聴者の関心度の高い演目を状況に応じて選択し上映可能となる。   In the second invention, it is desirable that the content execution means execute the content using a robot. Thereby, the robot can execute the content determined by the content determination device of the second invention. Using a robot, it is possible to select and screen performances with high viewer interest according to the situation.

第3の発明は、コンピュータがロボットを用いて視聴者に対しコンテンツを実行させるステップと、コンピュータが実行されるコンテンツに対する前記視聴者の反応を取得するステップと、コンピュータが取得した視聴者の反応に基づいて前記視聴者の関心度を求めるステップと、コンピュータが前記視聴者の関心度に基づき実行するコンテンツを決定するステップと、を含むことを特徴とするコンテンツ決定方法である。   According to a third aspect of the present invention, a computer causes a viewer to execute content by using a robot, a step of acquiring the viewer's response to the content executed by the computer, and a viewer's response acquired by the computer. A content determination method comprising: obtaining an interest level of the viewer based on the content; and determining content to be executed by a computer based on the interest level of the viewer.

第3の発明によれば、コンピュータの制御により、ロボットを用いて視聴者に対しコンテンツを実行させ、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の関心度に基づき実行するコンテンツを決定する。
これにより、人手を介さず視聴者の反応(関心度)に基づいてコンテンツを決定し、ロボットを用いて実行させることが可能となる。視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボットを提供できる。
According to the third invention, by controlling the computer, the viewer is caused to execute the content using a robot, the viewer's response to the executed content is acquired, and the viewer is based on the acquired viewer's response. The content to be executed is determined based on the interest level of the viewer.
This makes it possible to determine content based on the viewer's reaction (degree of interest) without human intervention and execute the content using a robot. It is possible to provide a robot that can be selected and screened according to the situation in which the audience is highly interested.

第4の発明は、コンピュータを、第2の発明のコンテンツ決定装置として機能させるプログラムである。第4の発明により、コンピュータを第2の発明のコンテンツ決定装置として機能させることが可能となる。   A fourth invention is a program for causing a computer to function as the content determination device of the second invention. According to the fourth invention, it is possible to cause a computer to function as the content determination apparatus of the second invention.

本発明により、視聴者の関心度の高い演目を状況に応じて選択し上映可能なロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラムを提供できる。   According to the present invention, it is possible to provide a robot, a content determination device, a content determination method, and a program capable of selecting and showing a performance with a high degree of interest of the viewer according to the situation.

コンテンツ決定システム1の全体構成図Overall configuration diagram of the content determination system 1 ロボット2の内部構成図Robot 2 internal configuration diagram コンピュータ3(コンテンツ決定装置)の内部構成図Internal configuration diagram of computer 3 (content determination device) ロボット2が有するコンテンツ決定機能に関する構成図Configuration diagram regarding content determination function of robot 2 上映リストデータ82のデータ構成図Data structure diagram of screening list data 82 関心度算出テーブル83のデータ構成図Data configuration diagram of interest level calculation table 83 上映履歴情報84のデータ構成図Data structure diagram of screening history information 84 推薦上映リスト85のデータ構成図Data structure of recommended screening list 85 コンテンツテーブル81のデータ構成図Data structure diagram of content table 81 ロボット2が実行するコンテンツ決定処理の流れを説明するフローチャートThe flowchart explaining the flow of the content determination process which the robot 2 performs

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。
図1は、コンテンツ決定システム1のシステム構成の一例を示す図である。コンテンツ決定システム1は、ロボット2、コンピュータ3、距離画像センサ4、及びマイク5を備えて構成され、ロボット2またはコンピュータ3は、ネットワークを介してインターネット6上のSNSサーバ7(Social Networking Service)等に通信接続可能となっている。ロボット2、距離画像センサ4、マイク5はコンピュータ3に通信接続され、コンピュータ3により各装置の動作が連携するよう制御される。ロボット2、距離画像センサ4、及びマイク5とコンピュータ3との通信接続の形態は、有線、無線を問わない。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a system configuration of the content determination system 1. The content determination system 1 includes a robot 2, a computer 3, a distance image sensor 4, and a microphone 5. The robot 2 or the computer 3 is connected to an SNS server 7 (Social Networking Service) on the Internet 6 via a network. Communication connection is possible. The robot 2, the distance image sensor 4, and the microphone 5 are communicatively connected to a computer 3 and controlled by the computer 3 so that the operations of the devices cooperate with each other. The form of communication connection between the robot 2, the distance image sensor 4, and the microphone 5 and the computer 3 may be wired or wireless.

距離画像センサ4は、画像を撮影するとともに距離情報(奥行情報)を測定する装置であり、ロボット2の周辺にいる視聴者の様子を撮影した画像や、視聴者との距離(奥行情報)をコンピュータ3に入力する。   The distance image sensor 4 is an apparatus that captures an image and measures distance information (depth information). The distance image sensor 4 captures an image of the viewer around the robot 2 and the distance (depth information) from the viewer. Input to the computer 3.

マイク5は、ロボット2の周辺にいる視聴者の発声状況を取得し、コンピュータ3に入力する。
なお、距離画像センサ4に替えてロボット2に内蔵されるカメラ210を用いて視聴者の様子を撮影し、視聴者とロボット2との距離情報を取得することもできる。その場合は距離画像センサ4を省略してよい。マイク5についても同様にロボット2に内蔵されるマイク211を用いて視聴者の発声状況を取得することもできる。その場合はマイク5を省略してよい。
The microphone 5 acquires the utterance status of the viewers around the robot 2 and inputs it to the computer 3.
Note that it is also possible to take a picture of the viewer using the camera 210 built in the robot 2 instead of the distance image sensor 4 and acquire distance information between the viewer and the robot 2. In that case, the distance image sensor 4 may be omitted. Similarly, for the microphone 5, the utterance status of the viewer can be acquired using the microphone 211 built in the robot 2. In that case, the microphone 5 may be omitted.

コンピュータ3は、ロボット2の動作を制御する他、距離画像センサ4による画像及び距離情報の取得やマイク5の音声取得の制御を行う。   In addition to controlling the operation of the robot 2, the computer 3 controls acquisition of images and distance information by the distance image sensor 4 and voice acquisition of the microphone 5.

ロボット2は、対話型のロボットである。図2に示すように、ロボット2は、制御部201、記憶部202、入力部203、表示部204、メディア入出力部205、通信I/F206、可動部駆動機構207、周辺機器I/F部208、音声処理部209、カメラ210、マイク211、センサ212、及びスピーカ213がバス220を介して接続されて構成される。   The robot 2 is an interactive robot. As shown in FIG. 2, the robot 2 includes a control unit 201, a storage unit 202, an input unit 203, a display unit 204, a media input / output unit 205, a communication I / F 206, a movable unit drive mechanism 207, and a peripheral device I / F unit. 208, a sound processing unit 209, a camera 210, a microphone 211, a sensor 212, and a speaker 213 are connected via a bus 220.

制御部201は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。CPUは、記憶部202、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス220を介して接続された各部を駆動制御する。   The control unit 201 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls and executes a program stored in the storage unit 202, ROM, recording medium, or the like to a work memory area on the RAM, and drives and controls each unit connected via the bus 220.

制御部201のCPUは、コンテンツ決定処理(図10参照)を実行する。この処理の詳細については後述する。   The CPU of the control unit 201 executes content determination processing (see FIG. 10). Details of this processing will be described later.

ROMは、ロボット2のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部201が各種処理を行うために使用するワークエリアを備える。   The ROM permanently stores programs such as a boot program for the robot 2 and a BIOS, data, and the like. The RAM temporarily stores the loaded program and data, and includes a work area used by the control unit 201 for performing various processes.

記憶部202は、制御部201が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部201により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 202 stores a program executed by the control unit 201, data necessary for program execution, an operating system, and the like. These program codes are read as necessary by the control unit 201, transferred to the RAM, and read and executed by the CPU.

また記憶部202は、コンテンツDB(データベース)31、発話DB(データベース)32、アクションDB(データベース)33等のデータベースを保持する。また記憶部202は、制御部201が実行するコンテンツ決定処理において参照されるデータとして、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85等を有する(図4参照)。コンテンツDB31、発話DB32、アクションDB33、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85の詳細については後述する。   The storage unit 202 holds databases such as a content DB (database) 31, an utterance DB (database) 32, and an action DB (database) 33. Further, the storage unit 202 includes a content table 81, a screening list data 82, an interest level calculation table 83, a screening history information 84, a recommended screening list 85, and the like as data referred to in the content determination process executed by the control unit 201 ( (See FIG. 4). Details of the content DB 31, utterance DB 32, action DB 33, content table 81, screening list data 82, interest level calculation table 83, screening history information 84, and recommended screening list 85 will be described later.

入力部203は、例えばタッチパネル等の入力装置や各種操作ボタン等を含み、入力されたデータを制御部201へ出力する。
表示部204は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部201の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部203のタッチパネルは表示部204のディスプレイと一体的に構成される。
The input unit 203 includes, for example, an input device such as a touch panel and various operation buttons, and outputs input data to the control unit 201.
The display unit 204 includes a display device such as a liquid crystal panel and a logic circuit for executing display processing in cooperation with the display device, and displays display information input by the control of the control unit 201 on the display device. Let Note that the touch panel of the input unit 203 is configured integrally with the display of the display unit 204.

メディア入出力部205は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。   The media input / output unit 205 is, for example, a drive device such as a recording medium (media) such as a magnetic disk, an optical disk, or a semiconductor memory, and inputs / outputs data.

通信I/F(インタフェース)206は、ネットワークとの通信を媒介するインタフェースである。ネットワークは、LAN(Local Area Network)や、より広域に通信接続されたWAN(Wide Area Network)、またはインターネット6等の公衆の通信回線、基地局等を含む。ネットワークとの通信接続は有線、無線を問わない。ロボット2はネットワークを介してインターネット6上のSNS(Social Networking Service)サーバ等にアクセスし、インターネット6に公開されている情報を取得したり、Webサーバから各種のプログラムやデータを送受信可能である。   A communication I / F (interface) 206 is an interface that mediates communication with a network. The network includes a LAN (Local Area Network), a WAN (Wide Area Network) connected to a wider area, a public communication line such as the Internet 6, a base station, and the like. The communication connection with the network may be wired or wireless. The robot 2 can access an SNS (Social Networking Service) server or the like on the Internet 6 via a network, acquire information published on the Internet 6, and transmit / receive various programs and data from the Web server.

可動部駆動機構207は、ロボット2の頭部、首、肩、腕、腰、脚等に設けられた可動部を駆動する機構及び駆動装置を含む。可動部駆動機構207の動作は制御部201により制御される。制御部201は記憶部202のアクションDB33から可動部制御シーケンスを読み出し、各可動部駆動機構207に対して制御信号を送り、各駆動部を動作させる。   The movable part drive mechanism 207 includes a mechanism and a drive device for driving a movable part provided on the head, neck, shoulders, arms, waist, legs, and the like of the robot 2. The operation of the movable unit driving mechanism 207 is controlled by the control unit 201. The control unit 201 reads the movable part control sequence from the action DB 33 of the storage unit 202, sends a control signal to each movable part drive mechanism 207, and operates each drive part.

周辺機器I/F(インタフェース)部208は、周辺機器を接続させるためのポートであり、周辺機器I/F部208を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。ロボット2は周辺機器I/F部208を介してコンピュータ3等と通信可能となる。   The peripheral device I / F (interface) unit 208 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device via the peripheral device I / F unit 208. The connection form with the peripheral device may be wired or wireless. The robot 2 can communicate with the computer 3 or the like via the peripheral device I / F unit 208.

音声処理部209は、音声合成部、音声認識部等を含む。音声合成部は、制御部201からの指令に基づき、文字情報(テキストデータ)に対応する合成音声データを生成し、スピーカ213に合成音声を出力する。合成音声は、予め記憶部202の発話DB32に格納されている文字情報と音声データとの対応関係に基づいて生成される。音声合成部により、ロボット2による発話や人との対話等が実現する。   The voice processing unit 209 includes a voice synthesis unit, a voice recognition unit, and the like. The voice synthesizer generates synthesized voice data corresponding to character information (text data) based on a command from the control unit 201, and outputs the synthesized voice to the speaker 213. The synthesized speech is generated based on the correspondence between the character information stored in advance in the utterance DB 32 of the storage unit 202 and the speech data. The speech synthesizer realizes speech by the robot 2, dialogue with people, and the like.

音声認識部は、マイク211から入力された音声データ(例えば、人の音声)について音声認識処理を実施し、音声データに対応する文字情報(テキストデータ)を生成し、制御部201に入力する。制御部201は音声認識部により入力された文字情報に基づいて人の話の内容を認識したり、周囲の状況を判断したりし、ロボット2の感情を変化させたり、アクションや発話の内容を決定する。   The voice recognition unit performs voice recognition processing on voice data (for example, human voice) input from the microphone 211, generates character information (text data) corresponding to the voice data, and inputs the character information to the control unit 201. The control unit 201 recognizes the content of a person's story based on the character information input by the speech recognition unit, determines the surrounding situation, changes the emotion of the robot 2, and determines the content of the action or utterance. decide.

カメラ210は、ロボット2に内蔵される例えばCCD(Charge-Coupled Device)カメラ等であり、周囲の様子を撮影する。カメラ210により撮影された画像は制御部201に入力される。制御部201はカメラ210から入力された画像を認識(画像解析処理)し、周囲の状況を取得したり、認識結果に応じて感情を変化させたり、発話やアクションを決定したりする。   The camera 210 is, for example, a CCD (Charge-Coupled Device) camera built in the robot 2 and shoots the surroundings. An image captured by the camera 210 is input to the control unit 201. The control unit 201 recognizes an image input from the camera 210 (image analysis processing), acquires a surrounding situation, changes an emotion according to the recognition result, and determines an utterance and an action.

マイク211は、外部の音声を入力し、制御部201に送る。
スピーカ213は、音声処理部209の音声合成部により生成された合成音声を出力したり、制御部201からの指令に基づきアラーム音等の所定の音声を出力したりする。
The microphone 211 inputs external sound and sends it to the control unit 201.
The speaker 213 outputs a synthesized voice generated by the voice synthesis unit of the voice processing unit 209 or outputs a predetermined voice such as an alarm sound based on a command from the control unit 201.

センサ212は、3Dセンサ、タッチセンサ、ジャイロセンサ、ソナーセンサ、レーザセンサ、バンパーセンサ、赤外線センサ等の各種のセンサを含む。各センサは検出した信号を制御部201に入力する。制御部201は各センサからの入力信号に応じて感情を変化させたり、ロボット2の発話の内容やアクションを決定したりする。
バス220は、制御信号、データ信号等の授受を媒介する経路である。
The sensor 212 includes various sensors such as a 3D sensor, a touch sensor, a gyro sensor, a sonar sensor, a laser sensor, a bumper sensor, and an infrared sensor. Each sensor inputs the detected signal to the control unit 201. The control unit 201 changes emotions according to input signals from each sensor, and determines the content and action of the utterance of the robot 2.
The bus 220 is a path that mediates transmission / reception of control signals, data signals, and the like.

コンピュータ3は、コンテンツ決定システム1全体の動作を制御する制御装置であり、ロボット2の動作を制御する他、距離画像センサ4による画像や距離情報の取得やマイク5による音声取得の制御を行う。   The computer 3 is a control device that controls the operation of the entire content determination system 1, and controls the operation of the robot 2 and also controls the acquisition of images and distance information by the distance image sensor 4 and the acquisition of sound by the microphone 5.

図3に示すように、コンピュータ3は、制御部301、記憶部302、メディア入出力部303、周辺機器I/F部304、入力部306、表示部307、通信I/F308がバス309を介して接続されて構成される。   As shown in FIG. 3, the computer 3 includes a control unit 301, a storage unit 302, a media input / output unit 303, a peripheral device I / F unit 304, an input unit 306, a display unit 307, and a communication I / F 308 via a bus 309. Connected and configured.

制御部301は、CPU、ROM、RAM等により構成される。CPUは、記憶部302、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス309を介して接続された各部を駆動制御する。   The control unit 301 includes a CPU, ROM, RAM, and the like. The CPU calls a program stored in the storage unit 302, ROM, recording medium, or the like to a work memory area on the RAM and executes it, and drives and controls each unit connected via the bus 309.

制御部301のCPUは、ロボット2が実行するコンテンツ決定処理(図10参照)と連携して距離画像センサ4による撮影制御やマイク5の音声取得制御を行う。   The CPU of the control unit 301 performs shooting control by the distance image sensor 4 and voice acquisition control of the microphone 5 in cooperation with content determination processing (see FIG. 10) executed by the robot 2.

ROMは、コンピュータ3のブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部301が各種処理を行うために使用するワークエリアを備える。   The ROM permanently stores a boot program for the computer 3, a program such as BIOS, data, and the like. The RAM temporarily holds the loaded program and data, and includes a work area used by the control unit 301 to perform various processes.

記憶部302は、制御部301が実行するプログラムや、プログラム実行に必要なデータ、オペレーティングシステム等が格納されている。これらのプログラムコードは、制御部301により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 302 stores a program executed by the control unit 301, data necessary for program execution, an operating system, and the like. These program codes are read as necessary by the control unit 301, transferred to the RAM, and read and executed by the CPU.

メディア入出力部303は、例えば、磁気ディスク、光ディスク、半導体メモリ等の記録媒体(メディア)等のドライブ装置であり、データの入出力を行う。   The media input / output unit 303 is a drive device such as a recording medium (media) such as a magnetic disk, an optical disk, or a semiconductor memory, and inputs / outputs data.

周辺機器I/F(インタフェース)部304は、周辺機器を接続させるためのポートであり、周辺機器I/F部304を介して周辺機器とのデータの送受信を行う。周辺機器との接続形態は有線、無線を問わない。周辺機器I/F部304を介してコンピュータ3に、ロボット2、距離画像センサ4、及びマイク5等を通信接続できる。   A peripheral device I / F (interface) unit 304 is a port for connecting a peripheral device, and transmits and receives data to and from the peripheral device via the peripheral device I / F unit 304. The connection form with the peripheral device may be wired or wireless. The robot 2, the distance image sensor 4, the microphone 5, and the like can be connected to the computer 3 via the peripheral device I / F unit 304.

入力部306は、例えばキーボード、マウス、タッチパネル等の入力装置であり、入力されたデータを制御部301へ出力する。   The input unit 306 is an input device such as a keyboard, a mouse, or a touch panel, and outputs input data to the control unit 301.

表示部307は、例えば液晶パネル等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、制御部301の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、入力部306のタッチパネルは表示部307のディスプレイと一体的に構成される。   The display unit 307 includes a display device such as a liquid crystal panel and a logic circuit for executing display processing in cooperation with the display device, and displays display information input by the control of the control unit 301 on the display device. Let The touch panel of the input unit 306 is configured integrally with the display of the display unit 307.

通信I/F(インタフェース)308は、インターネット6等のネットワークとの通信を媒介するインタフェースである。コンピュータ3はネットワークを介してインターネット6上のSNSサーバ7等にアクセスし、インターネット6に公開されている情報を取得したり、Webサーバから各種のプログラムやデータを送受信可能である。   A communication I / F (interface) 308 is an interface that mediates communication with a network such as the Internet 6. The computer 3 can access the SNS server 7 and the like on the Internet 6 via the network, obtain information disclosed on the Internet 6, and transmit / receive various programs and data from the Web server.

バス309は、制御信号、データ信号等の授受を媒介する経路である。   The bus 309 is a path that mediates transmission / reception of control signals, data signals, and the like.

次に、図4を参照してロボット2の機能構成について説明する。
図4に示すように、ロボット2は、コンテンツ実行部21、属性取得部22、反応取得部23、関心度算出部24、記録部25、コンテンツ決定部26、コンテンツDB31、発話DB32、アクションDB33、コンテンツテーブル81、上映リストデータ82、関心度算出テーブル83、上映履歴情報84、推薦上映リスト85を備える。
Next, the functional configuration of the robot 2 will be described with reference to FIG.
As shown in FIG. 4, the robot 2 includes a content execution unit 21, an attribute acquisition unit 22, a reaction acquisition unit 23, an interest level calculation unit 24, a recording unit 25, a content determination unit 26, a content DB 31, an utterance DB 32, an action DB 33, A content table 81, a screening list data 82, an interest level calculation table 83, a screening history information 84, and a recommended screening list 85 are provided.

コンテンツ実行部21は、ロボット2によるコンテンツの実行を制御する。コンテンツ実行部21は、記憶部202に記憶されている上映リストデータ82を参照し、指定された上映リスト、或いは所定の条件に合致する上映リストに含まれる複数のコンテンツのコンテンツデータをコンテンツDB31から順に読み出して実行する。上映するコンテンツは、例えば、ロボット2によるクイズの出題や進行、お話、その他の各種の演目が含まれる。   The content execution unit 21 controls the execution of content by the robot 2. The content execution unit 21 refers to the screening list data 82 stored in the storage unit 202, and receives content data of a plurality of contents included in a specified screening list or a screening list that meets a predetermined condition from the content DB 31. Read and execute in order. The content to be screened includes, for example, quiz questions, progress, stories, and other various performances by the robot 2.

図5は、記憶部202に格納されている上映リストデータ82の例を示す。上映リストデータ82は複数パターンの上映リストが格納されている。上映リストは公演単位にどのコンテンツをどの順に実行するが定められたものである。「上映No.」は上映リストの識別情報である。例えば、昼の公演では上映No.1の上映リスト(コンテンツB,A,D)を実行し、夜の公演では上映No.3の上映リスト(コンテンツE,A,F,D)を実行するというように、上映No.を指定すれば、上映する一連のコンテンツを指定できる。   FIG. 5 shows an example of the screening list data 82 stored in the storage unit 202. The screening list data 82 stores a plurality of screening lists. The screening list is a set of which content is executed in which order for each performance unit. “Screening No.” is screening list identification information. For example, in the daytime performance, screening No. No. 1 screening list (contents B, A, D) is executed. No. 3 screening list (contents E, A, F, D) is executed, and so on. You can specify a series of content to be shown.

コンテンツDB31は、コンテンツテーブル81と複数のコンテンツデータとが格納されている。コンテンツテーブル81は、コンテンツのタイトルや種別(クイズ、お話し等の種別)等を格納したテーブルである。コンテンツデータは、コンテンツ内でロボット2が実行する発話やアクションのシーケンスデータ、及び関連する映像や音楽等のデータを含む。   The content DB 31 stores a content table 81 and a plurality of content data. The content table 81 is a table that stores the title and type (type of quiz, story, etc.) of the content. The content data includes sequence data of utterances and actions executed by the robot 2 in the content, and related video and music data.

コンテンツを実行する際、コンテンツ実行部21はコンテンツデータに定義された発話内容に対応する合成音声をロボット2の音声処理部209により生成して、ロボット2に読み上げ(音声出力)させる。音声処理部209は発話DB32を参照してコンテンツデータに定義された発話内容(テキストデータ)に対応する音声データを取得し、合成音声を生成する。   When executing the content, the content execution unit 21 generates a synthesized voice corresponding to the utterance content defined in the content data by the voice processing unit 209 of the robot 2 and causes the robot 2 to read it out (voice output). The voice processing unit 209 acquires voice data corresponding to the utterance content (text data) defined in the content data with reference to the utterance DB 32, and generates synthesized voice.

発話DB32は、文字情報(テキストデータ)と音声データとが対応づけて格納される。音声処理部209は、発話DB32に格納された文字情報と音声データとの対応関係に基づいて合成音声を生成し、スピーカ213から出力することでロボット2による発話を実現する。発話DB32には、定型文の音声データや、ロボット2の感情状態に応じて発話の抑揚や語尾を変化させるための発話変換データ等が格納されるようにしてもよい。   The utterance DB 32 stores character information (text data) and voice data in association with each other. The speech processing unit 209 realizes speech by the robot 2 by generating synthesized speech based on the correspondence between the character information stored in the speech DB 32 and the speech data, and outputting it from the speaker 213. The utterance DB 32 may store standard sentence voice data, utterance conversion data for changing the utterance inflection or ending in accordance with the emotional state of the robot 2, and the like.

また、コンテンツ実行部21はロボット2の可動部駆動機構207を制御して、コンテンツデータに定義された動作(アクション)をロボット2に実行させる。   Further, the content execution unit 21 controls the movable unit driving mechanism 207 of the robot 2 to cause the robot 2 to execute an action (action) defined in the content data.

アクションDB33は、ロボット2の制御シーケンスを記載した制御シーケンステーブルが格納される。制御シーケンステーブルには、アクションの動作名とロボット2の可動部制御シーケンスとを紐づけたデータが格納される。動作名は、コンテンツデータのアクションの動作名と対応し、例えば、「うなずく」、「片手を上げる」、「両手を上げる」といった一連の可動部制御シーケンスをロボット2が実行した際のロボット動作の様子を示している。可動部制御シーケンスは、制御対象とする各可動部の駆動箇所と値等(例えば頭部チルト角0度、右腕チルト角0度等)のリストである。   The action DB 33 stores a control sequence table describing the control sequence of the robot 2. In the control sequence table, data in which the action name of the action is associated with the movable part control sequence of the robot 2 is stored. The action name corresponds to the action name of the action in the content data. For example, the robot action when the robot 2 executes a series of moving part control sequences such as “nodding”, “raising one hand”, and “raising both hands”. It shows a state. The movable part control sequence is a list of driving locations and values of each movable part to be controlled (for example, head tilt angle 0 degrees, right arm tilt angle 0 degrees, etc.).

属性取得部22は、ロボット2が実行するコンテンツを視聴している視聴者の属性を取得する。視聴者の属性とは、例えば年齢や性別等である。属性取得部22は、ロボット2のカメラ210により撮影した画像または距離画像センサ4から入力される画像を解析し、例えば顔認識処理により各視聴者の属性(年齢や性別)を判断する。顔画像から人物の属性を認識する方法は公知の手法(特開2012−053813等)を用いればよい。視聴者は複数であるため、各視聴者の属性のうちロボット2の近くにいる人の属性を視聴者全体の代表的な属性としてもよいし、年齢層や性別の比率を求め、比率の大きい年齢層や性別を視聴者全体の代表的な属性としてもよい。また、例えば視聴者へのアンケート調査等によって視聴者の属性がデータとして収集可能な場合は、入力部203またはコンピュータ3等を介してロボット2(コンピュータ3)に視聴者の属性の値を入力してもよい。   The attribute acquisition unit 22 acquires the attributes of the viewer who is viewing the content executed by the robot 2. The viewer attribute is, for example, age or sex. The attribute acquisition unit 22 analyzes an image captured by the camera 210 of the robot 2 or an image input from the distance image sensor 4 and determines the attributes (age and gender) of each viewer by, for example, face recognition processing. As a method for recognizing a person's attribute from a face image, a known method (Japanese Patent Application Laid-Open No. 2012-053813) may be used. Since there are a plurality of viewers, the attribute of the person near the robot 2 among the attributes of each viewer may be used as a representative attribute of the entire viewer, or the ratio of age group and gender is obtained and the ratio is large. Age group and gender may be representative attributes of the entire viewer. Further, when the viewer attributes can be collected as data by, for example, a questionnaire survey for the viewers, the viewer attribute value is input to the robot 2 (computer 3) via the input unit 203 or the computer 3 or the like. May be.

反応取得部23は、コンテンツ実行部21により実行されたコンテンツに対する視聴者の反応を取得する。視聴者の反応は、例えば(1)ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報、(2)ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報、(3)インターネット6に公開された情報等から取得できる。   The reaction acquisition unit 23 acquires a viewer's reaction to the content executed by the content execution unit 21. The viewer's reaction is input from, for example, (1) image information input from the camera 210 or the distance image sensor 4 built in the robot 2, and (2) input from the microphone 211 or the external microphone 5 built in the robot 2. Voice information, (3) information published on the Internet 6, and the like.

そのため反応取得部23は、画像解析部23a、発声状況取得部23b、及びインターネット情報収集部23cのうち少なくともいずれか一つを備える。   Therefore, the reaction acquisition unit 23 includes at least one of the image analysis unit 23a, the utterance situation acquisition unit 23b, and the Internet information collection unit 23c.

画像解析部23aは、ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報から視聴者の表情を読み取る。表情は、例えば喜び、驚き、怒り、悲しみ、無表情等のいくつかの感情パターンに分類される。各感情パターンは、口角の上り具合、頬、目、眉等の位置関係等から読み取り可能である。顔の表情から感情、状態を認識する方法は公知の手法(特開2014−206903等)を用いればよい。画像解析部23aは画像情報から読み取った視聴者の表情から、喜び度、驚き度、怒り度、悲しみ度、無関心度といったいくつかの感情の度合いを求め、関心度算出部24に通知する。   The image analysis unit 23 a reads the viewer's facial expression from image information input from the camera 210 or the distance image sensor 4 built in the robot 2. Facial expressions are classified into several emotion patterns such as joy, surprise, anger, sadness, and expressionlessness. Each emotion pattern can be read from the rising angle of the mouth corner, the positional relationship of the cheek, eyes, eyebrows, and the like. As a method for recognizing emotions and states from facial expressions, a known method (Japanese Patent Application Laid-Open No. 2014-206903) may be used. The image analysis unit 23a obtains several degrees of emotion such as joy level, surprise level, anger level, sadness level, and indifference level from the facial expression of the viewer read from the image information, and notifies the interest level calculation unit 24 of the level.

発声状況取得部23bは、ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報から視聴者の発声状況を読み取る。発声状況は、例えば発声の音量、発話密度等である。発話密度とは、発話がどれだけ密集しているか(話者が積極的に参加しているか)を示す数値であり、音量が大きくなるピークの頻度やタイミング等から求められる。発声状況取得部23bは求めた発声状況の各数値を関心度算出部24に通知する。   The utterance situation acquisition unit 23 b reads the utterance situation of the viewer from the voice information input from the microphone 211 built in the robot 2 or the external microphone 5. The utterance situation is, for example, the volume of utterance, the utterance density, and the like. The utterance density is a numerical value indicating how dense the utterances are (whether the speakers are actively participating), and is obtained from the frequency and timing of the peak at which the volume increases. The utterance status acquisition unit 23b notifies the interest level calculation unit 24 of each numerical value of the obtained utterance status.

インターネット情報収集部23cは、ソーシャルネットワーキングサービス(SNS)等によりインターネット6に公開された情報からコンテンツの上映に関する反応を収集する。インターネット情報収集部23cは、例えば、コンテンツのタイトルやコンテンツに含まれる語句等を検索キーワードとして、インターネット6に公開された情報を収集する。検索のヒット数や感想に相当する語句(「面白かった」、「つまらない」等)の種類や数等からコンテンツに対する反応の内容や大きさを数値化する。インターネット情報収集部23cは求めた数値を関心度算出部24に通知する。   The Internet information collection unit 23c collects reactions related to the content screening from information published on the Internet 6 by a social networking service (SNS) or the like. The Internet information collection unit 23c collects information published on the Internet 6 using, for example, a content title or a phrase included in the content as a search keyword. The content and magnitude of the response to the content are quantified based on the type and number of search hits and words (“interesting”, “not boring”, etc.) corresponding to the impression. The internet information collection unit 23 c notifies the interest level calculation unit 24 of the obtained numerical value.

関心度算出部24は、反応取得部23(画像解析部23a、発声状況取得部23b、インターネット情報収集部23c)から取得した視聴者の反応に基づいて視聴者の関心度を求める。関心度を求める際、関心度算出部24は図6に示すような関心度算出テーブル83を参照してもよい。関心度算出テーブル83とは、反応を示す複数の項目の値と関心度(「盛り上がり度」等)との関係を定義したテーブルである。   The interest level calculation unit 24 obtains the interest level of the viewer based on the reaction of the viewer acquired from the reaction acquisition unit 23 (the image analysis unit 23a, the utterance situation acquisition unit 23b, and the Internet information collection unit 23c). When calculating the interest level, the interest level calculation unit 24 may refer to an interest level calculation table 83 as shown in FIG. The interest level calculation table 83 is a table that defines the relationship between the values of a plurality of items indicating reactions and the level of interest (such as “rising degree”).

図6は関心度算出テーブル83の一例を示す図である。
関心度として例えば「盛り上がり度」を求める場合、音量、発話密度、表情、よそ見(をしている視聴者の数または密度)、画面との距離、SNS(インターネット情報)、来場者数等の各項目について、度数の和やどの項目の値が顕著に高いか等から、盛り上がりの程度を数種類に分類する。
FIG. 6 is a diagram illustrating an example of the interest level calculation table 83.
For example, when “degree of excitement” is calculated as the degree of interest, each of volume, utterance density, facial expression, looking away (number of viewers or density), distance from the screen, SNS (Internet information), number of visitors, etc. For items, the degree of excitement is classified into several types based on the sum of frequencies and the value of which item is remarkably high.

例えば盛り上がり度「9」の「じっと見入る」の判定基準は、音量が「3」以下、発話密度が「5」以下、よそ見が「3」以下、画面との距離が「3」以下、SNSが「7」以上、来場者数が「7」以上とする。視聴者が集中してじっと見入る状態である場合、話やよそ見をする視聴者が少なく、画面(ステージ)に近づいていることが多い。表情は問わないものとしている。   For example, the criterion of “satisfying” for the degree of excitement “9” is that the volume is “3” or less, the speech density is “5” or less, the looking away is “3” or less, the distance from the screen is “3” or less, and the SNS is “7” or more and the number of visitors is “7” or more. When viewers are focused and staring, there are few viewers who talk and look away, and they are often approaching the screen (stage). The expression is not questioned.

一方、盛り上がり度「10」の「大盛り上がり」の判定基準は、音量が「8」以上、発話密度が「9」以上、「喜び」を示す表情が「8」以上、よそ見が「3」以下、画面との距離が「3」以下、SNSが「8」以上、来場者数が「8」以上とする。   On the other hand, the criteria for “big excitement” with the degree of excitement “10” are: volume level “8” or higher, speech density “9” or higher, “joy” facial expression “8” or higher, looking away “3” or lower The distance from the screen is “3” or less, the SNS is “8” or more, and the number of visitors is “8” or more.

また、盛り上がり度「1」の「飽きてぼんやりしている」の判定基準は、音量が「3」以下、発話密度が「2」以下、「無表情」を示す表情が「8」以上、よそ見が「5」以上、画面との距離が「5」以上、SNSが「5」以下または「8」以上(話題性がない、或いはつまらないといった感想が多い等)、来場者数が「4」以下とする。   In addition, the criteria for determining the level of excitement as “1” is “being bored and blurred” is that the volume is “3” or less, the speech density is “2” or less, and the expression indicating “no expression” is “8” or more. Is “5” or more, the distance to the screen is “5” or more, the SNS is “5” or less or “8” or more (there are many topics that are not topical or boring), and the number of visitors is “4” or less. And

また、盛り上がり度「1」の「つまらなくて騒いでいる」の判定基準は、音量が「8」以上、発話密度が「9」以上、「無表情」を示す表情が「7」以上、よそ見が「5」以上、画面との距離が「5」以上、SNSが「5」以下または「8」以上(話題性がない、或いはつまらないといった感想が多い等)、来場者数が「5」以下とする。
関心度算出部24は、以上のように複数の指標に基づいて求めた関心度をコンテンツ決定部26に通知する。
In addition, the criteria of “noisy and noisy” with a degree of excitement of “1” is that the volume is “8” or higher, the speech density is “9” or higher, the expression indicating “no expression” is “7” or higher, “5” or more, the distance to the screen is “5” or more, SNS is “5” or less or “8” or more (there are many topics that are not topical or boring), and the number of visitors is “5” or less To do.
The interest level calculation unit 24 notifies the content determination unit 26 of the interest level obtained based on the plurality of indexes as described above.

なお、関心度は「盛り上がり度」に限定されず、例えば観客が集中しているかを示す「集中度」や感動の度合いを示す「感動度」等とし、異なる判定基準を設けてもよい。   Note that the degree of interest is not limited to “the degree of excitement”, and for example, “concentration” indicating whether the audience is concentrated, “impression” indicating the degree of impression, and the like, different determination criteria may be provided.

記録部25は、コンテンツ上映(実行)の履歴として、関心度算出部24により算出した関心度と属性取得部22により取得した視聴者の属性とを各コンテンツに紐づけて記録する。   The recording unit 25 records the interest level calculated by the interest level calculation unit 24 and the viewer attribute acquired by the attribute acquisition unit 22 in association with each content as a history of content screening (execution).

図7は記録部25により記録される上映履歴情報84の一例である。
図7に示すように、上映履歴情報84には、コンテンツの上映日時と実行したコンテンツのコンテンツNo.が順次記録される。各コンテンツNo.には視聴者の性別や年齢層といった属性情報と、関心度算出部24により算出された関心度とが紐づけて記録される。属性情報の性別や年齢層は、視聴者全体の比率の大きい性別や年齢層を記録する。或いは、男女の比率や、各年齢層の比率を記録してもよい。
FIG. 7 is an example of the screening history information 84 recorded by the recording unit 25.
As shown in FIG. 7, the screening history information 84 includes a content screening date and a content number of the executed content. Are sequentially recorded. Each content No. The attribute information such as the gender and age group of the viewer and the interest level calculated by the interest level calculation unit 24 are recorded in association with each other. The gender and age group of the attribute information records the gender and age group with a large proportion of the entire viewer. Alternatively, the ratio of men and women and the ratio of each age group may be recorded.

コンテンツ決定部26は、属性取得部22により取得した視聴者の属性、及び関心度算出部24により算出された関心度に基づき、ロボット2(コンテンツ実行部21)が実行するコンテンツを決定する。具体的にはコンテンツ決定部26は、視聴者の属性及び関心度に基づいてコンテンツテーブル81に記録されたコンテンツの中から最適なコンテンツを複数選択し、視聴者の属性及び関心度に適した推薦上映リスト85を生成する。生成された推薦上映リスト85は、記憶部202の上映リストデータ82に含めてもよいし、記憶部202の別の記憶領域に記憶されてもよい。   The content determination unit 26 determines the content to be executed by the robot 2 (content execution unit 21) based on the viewer attributes acquired by the attribute acquisition unit 22 and the interest level calculated by the interest level calculation unit 24. Specifically, the content determination unit 26 selects a plurality of optimal contents from the contents recorded in the content table 81 based on the attributes and interests of the viewers, and recommends suitable for the attributes and interests of the viewers. A screening list 85 is generated. The generated recommended screening list 85 may be included in the screening list data 82 of the storage unit 202 or may be stored in another storage area of the storage unit 202.

図8は、コンテンツ決定部26により生成された推薦上映リスト85の一例である。
図8に示すように、性別、年齢層、及び関心度に基づいていくつかのコンテンツを選択したリスト(上映リスト)が生成される。例えば、コンテンツ決定部26は該当する性別及び年齢層で関心度の高いコンテンツを優先的に上映リストに含めるようにすればよい。
FIG. 8 is an example of the recommended screening list 85 generated by the content determination unit 26.
As shown in FIG. 8, a list (screening list) in which some contents are selected based on gender, age group, and degree of interest is generated. For example, the content determination unit 26 may preferentially include content having a high interest level in the corresponding gender and age group in the screening list.

具体的には、0〜5歳の男子向けにはコンテンツA,C,D,・・・、0〜5歳の女子向けにはコンテンツB,A,C,・・・、6〜12歳の男子向けにはコンテンツB,C,E,・・・、6〜12歳の女子向けにはコンテンツA,D,E,・・・のように上映リストが生成される。   Specifically, content A, C, D, ... for boys 0-5 years old, content B, A, C, ..., 6-12 years old for girls 0-5 years old A screening list is generated for contents B, C, E,... For boys, and contents A, D, E,.

また、コンテンツ決定部26は、上映履歴情報84を参照して所定期間上映されていないコンテンツを上述の推薦上映リスト85に優先的に含めるようにしてもよい。また、予め指定された優先コンテンツを推薦上映リスト85に優先的に含めるようにしてもよい。また、新たに作成された新作コンテンツを推薦上映リスト85に優先的に含めるようにしてもよい。そのため、コンテンツDB31に格納された各コンテンツに、図9に示すように「優先」フラグや「新作」フラグをユーザが設定しておくことが望ましい。コンテンツ決定部26はこれらのフラグが「1」に設定されたコンテンツを優先的に推薦上映リスト85に組み込むものとする。また、コンテンツ決定部26は上映頻度が偏らないように上映するコンテンツを選択、決定するようにしてもよい。   In addition, the content determination unit 26 may refer to the screening history information 84 to preferentially include content that has not been screened for a predetermined period in the recommended screening list 85 described above. Moreover, priority content designated in advance may be preferentially included in the recommended screening list 85. Further, the newly created new content may be preferentially included in the recommended screening list 85. Therefore, it is desirable for the user to set a “priority” flag and a “new work” flag for each content stored in the content DB 31 as shown in FIG. It is assumed that the content determination unit 26 preferentially incorporates content having these flags set to “1” into the recommended screening list 85. Further, the content determination unit 26 may select and determine the content to be screened so that the screening frequency is not biased.

図9に示すコンテンツテーブル81は、コンテンツDB31に格納された各コンテンツのタイトル、種別、優先度等を設定したテーブルである。コンテンツテーブル81はコンテンツデータとともにコンテンツDB31に格納される。コンテンツテーブル81の「コンテンツNo.」はコンテンツの識別情報であり、「タイトル」は各コンテンツの題名であり、「種別」はクイズ、お話等のコンテンツの内容の種別であり、「優先」は上映リストに優先的に含めるか否かを指定するフラグであり、「新作」は新作であるか否かを示すフラグである。   The content table 81 shown in FIG. 9 is a table in which the title, type, priority, etc. of each content stored in the content DB 31 are set. The content table 81 is stored in the content DB 31 together with the content data. “Content No.” in the content table 81 is content identification information, “Title” is the title of each content, “Type” is the content type of quiz, story, etc., and “Priority” is the screening It is a flag that specifies whether or not to be preferentially included in the list, and “new work” is a flag that indicates whether or not it is a new work.

コンテンツ決定部26は、コンテンツテーブル81の優先フラグや新作フラグ、或いは上映履歴情報84を参照して、推薦上映リスト85に含めるコンテンツをコンテンツテーブル81から選択する。またコンテンツの順序は、例えば同じ種別のコンテンツが連続しないように並べたり、或いはあえて同じ種別のコンテンツを連続させたりするなど、演出者が予め指定した条件で決定すればよい。   The content determination unit 26 refers to the priority flag, new work flag, or screening history information 84 in the content table 81 and selects content to be included in the recommended screening list 85 from the content table 81. Further, the order of the contents may be determined under conditions specified in advance by the director, such as arranging the contents of the same type so as not to be continuous, or intentionally continuing the same type of content.

次に、図10を参照してロボット2が実行するコンテンツ決定処理の流れを説明する。   Next, the flow of content determination processing executed by the robot 2 will be described with reference to FIG.

図10のフローチャートに示すように、ロボット2の制御部201はまず周囲にいる視聴者の視聴者属性を取得する(ステップS101)。上述したように、視聴者属性は、例えば年齢や性別等であり、ロボット2のカメラ210または外付けの距離画像センサ4により撮影した画像を解析し、各視聴者の属性(年齢や性別)を判断する。また、アンケート調査等によって得た属性データをロボット2に入力してもよい。   As shown in the flowchart of FIG. 10, the control unit 201 of the robot 2 first acquires the viewer attributes of the viewers around (step S101). As described above, the viewer attributes are, for example, age, sex, etc., and an image taken by the camera 210 of the robot 2 or the external distance image sensor 4 is analyzed, and the attributes (age, sex) of each viewer are determined. to decide. Further, attribute data obtained by a questionnaire survey or the like may be input to the robot 2.

公演が始まると、ロボット2はコンテンツを実行する(ステップS102)。制御部201は、ロボット2によるコンテンツの実行を制御する。すなわち制御部201は、記憶部202に記憶されている上映リストデータ82を参照し、事前に設定されるか、或いは指定された上映リストに設定されているコンテンツのコンテンツデータをコンテンツDB31から順に読み出して実行する。上映するコンテンツは、例えば、ロボット2によるクイズの出題や進行、お話、その他の各種の演目が含まれる。制御部201は、コンテンツデータに従ってロボット2の発話やアクションを制御する。   When the performance starts, the robot 2 executes the content (step S102). The control unit 201 controls content execution by the robot 2. That is, the control unit 201 refers to the screening list data 82 stored in the storage unit 202, and sequentially reads content data of content set in advance or set in the specified screening list from the content DB 31. And execute. The content to be screened includes, for example, quiz questions, progress, stories, and other various performances by the robot 2. The control unit 201 controls the utterance and action of the robot 2 according to the content data.

コンテンツ実行中、ロボット2の制御部201は視聴者の反応を取得する(ステップS103)。視聴者の反応は、上述したように、例えば(1)ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報、(2)ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報、(3)インターネット6に公開された情報等から取得できる。(1)の画像情報及び(2)の音声情報は、ロボット2がコンテンツを実行している間にリアルタイムに取得する。(3)のインターネット6に公開された情報は、視聴者がコンテンツの視聴終了後にSNS等を利用し、感想等を書き込むため、通常、上映終了後に取得できる。   During the execution of the content, the control unit 201 of the robot 2 acquires the viewer's reaction (step S103). As described above, the viewer's reaction is, for example, (1) image information input from the camera 210 or the distance image sensor 4 built in the robot 2, and (2) the microphone 211 built in the robot 2 or an externally attached device. It can be acquired from voice information input from the microphone 5, (3) information published on the Internet 6, and the like. The image information (1) and the audio information (2) are acquired in real time while the robot 2 is executing the content. The information disclosed on the Internet 6 in (3) can usually be acquired after the end of the screening because the viewer uses SNS and the like to write impressions after the end of viewing the content.

制御部201は、ロボット2に内蔵されるカメラ210または距離画像センサ4から入力される画像情報に基づいて視聴者の表情(喜び、驚き、怒り、悲しみ、無表情等)を取得する。また制御部201は、ロボット2に内蔵されるマイク211または外付けのマイク5から入力される音声情報に基づいて会場(視聴者)音量や発話密度等を取得する。   The control unit 201 acquires the viewer's facial expression (joy, surprise, anger, sadness, no expression, etc.) based on image information input from the camera 210 or the distance image sensor 4 built in the robot 2. Further, the control unit 201 acquires the venue (viewer) volume, speech density, and the like based on audio information input from the microphone 211 built in the robot 2 or the external microphone 5.

制御部201は、ステップS103で取得した視聴者の反応に基づきコンテンツに対する関心度を算出する(ステップS104)。制御部201は記憶部202に記憶されている関心度算出テーブル83(図6参照)を参照し、音量、発話密度、表情、よそ見、画面との距離等のいくつかの指標を考慮して、上映中の各コンテンツの関心度を算出する。制御部201は更に、来場者数等の入力されたデータを考慮して関心度を算出してもよい。例えば、来場者数が多い場合は関心度が高く、来場者が少ない場合は関心度が低いとすればよい。   The control unit 201 calculates the degree of interest in the content based on the viewer's response acquired in step S103 (step S104). The control unit 201 refers to the interest level calculation table 83 (see FIG. 6) stored in the storage unit 202, and considers several indexes such as volume, speech density, facial expression, looking away, distance to the screen, etc. Calculate the interest level of each content being shown. The control unit 201 may further calculate the interest level in consideration of input data such as the number of visitors. For example, the degree of interest may be high when the number of visitors is large, and the degree of interest may be low when the number of visitors is small.

制御部201は、ステップS104で算出した視聴者の関心度とステップS101で取得した視聴者属性とをコンテンツに紐づけて上映履歴情報84(図7参照)に記録する(ステップS105)。   The control unit 201 records the interest level of the viewer calculated in step S104 and the viewer attribute acquired in step S101 in the screening history information 84 (see FIG. 7) in association with the content (step S105).

コンテンツの実行中、ステップS103〜ステップS105の処理を行い、実行した各コンテンツについて属性(視聴者の性別や年齢層)を上映履歴情報84に記録するとともに、視聴者の反応(関心度)を上映履歴情報84に記録しておく。   During the execution of the content, the processing from step S103 to step S105 is performed, and the attribute (viewer's gender and age group) is recorded in the screening history information 84 for each executed content, and the viewer's reaction (degree of interest) is shown. Recorded in the history information 84.

上映終了後に制御部201はインターネット6に公開された情報から上映したコンテンツについて検索し、検索ヒット数や感想等を取得し、これらのインターネット情報を考慮して関心度を再算出し、再記録してもよい。   After the screening, the control unit 201 searches for the content shown from the information published on the Internet 6, acquires the number of search hits, impressions, etc., recalculates the interest level in consideration of the Internet information, and re-records it. May be.

上映が終了すると、制御部201は、上映履歴情報84を参照して、視聴者の性別、年齢毎に推薦上映リスト85を生成する(ステップS106)。推薦上映リスト85を生成する際、制御部201は各コンテンツの関心度を考慮する他、来場者数や、コンテンツに設定された優先度(優先フラグ、新作フラグ)を考慮して推薦上映リスト85を作成する。   When the screening is completed, the control unit 201 refers to the screening history information 84 and generates a recommended screening list 85 for each gender and age of the viewer (step S106). When generating the recommended screening list 85, the control unit 201 considers the interest level of each content, and also considers the number of visitors and the priority (priority flag, new work flag) set for the content. Create

制御部201は作成した推薦上映リスト85を記憶部202の上映リストデータ82に追加し、一連のコンテンツ決定処理を終了する。
ロボット2の制御部201が上映するコンテンツを決定する際は、上映リストデータ82(推薦上映リスト85を含む)の中から、視聴者の属性や年齢に応じて最適な上映リストを選択すればよい。例えば、盛り上がり重視や集中度重視等、求める関心度に応じた上映リストを、視聴者の属性や年齢層に応じて選択できる。
The control unit 201 adds the created recommended screening list 85 to the screening list data 82 of the storage unit 202, and ends a series of content determination processing.
When the control unit 201 of the robot 2 determines content to be screened, an optimal screening list may be selected from the screening list data 82 (including the recommended screening list 85) according to the viewer's attributes and age. . For example, it is possible to select a screening list corresponding to the desired degree of interest, such as emphasis on excitement and importance on the degree of concentration, according to the viewer's attributes and age group.

以上説明したように、ロボット2は視聴者に対しコンテンツを実行する際に、視聴者の属性を取得し、実行されるコンテンツに対する視聴者の反応を取得し、取得した視聴者の反応に基づいて視聴者の関心度を求め、視聴者の属性及び関心度に基づきロボット2が実行するコンテンツを決定する。視聴者の関心度は、視聴者がコンテンツを視聴している様子を撮影した画像や会場(視聴者)の音声情報、SNS等のインターネット情報、来場者数等から求められる。これにより視聴者の関心度の高いコンテンツを人手を介さずに決定してロボット2に実行させることが可能となる。   As described above, when the robot 2 executes the content for the viewer, the robot 2 acquires the viewer attribute, acquires the viewer's response to the content to be executed, and based on the acquired viewer's response. The interest level of the viewer is obtained, and the content to be executed by the robot 2 is determined based on the attribute and the interest level of the viewer. The degree of interest of the viewer is obtained from an image of the viewer watching the content, audio information of the venue (viewer), Internet information such as SNS, the number of visitors, and the like. As a result, it is possible to determine content with a high degree of interest of the viewer without causing human intervention to be executed by the robot 2.

なお、図4ではロボット2内の制御部201及び記憶部202に、コンテンツ決定システム1が備える各機能部(コンテンツ実行部21、属性取得部22、反応取得部23、画像解析部23a、発声状況取得部23b、インターネット情報収集部23c、関心度算出部24、記録部25、コンテンツ決定部26、及び各種データ等)が設けられるものとしているが、ロボット2とは別に設けられるコンピュータ3にこれらの各機能部を設け、コンピュータ3が図10に示すコンテンツ決定処理を実行したり、ロボット2を制御したりしてもよい。また、各機能部の処理はプログラムによって実行されるものとしてもよい。これらの処理に関するプログラムはロボット2の記憶部202またはコンピュータ3の記憶部302に記憶されものとしてもよいし、インターネット6等のネットワークを介してロボット2またはコンピュータ3にインストールすることも可能である。   In FIG. 4, the control unit 201 and the storage unit 202 in the robot 2 include the function units included in the content determination system 1 (content execution unit 21, attribute acquisition unit 22, reaction acquisition unit 23, image analysis unit 23 a, utterance status). An acquisition unit 23b, an Internet information collection unit 23c, an interest level calculation unit 24, a recording unit 25, a content determination unit 26, and various data, etc.), but these are provided in a computer 3 provided separately from the robot 2. Each function unit may be provided, and the computer 3 may execute the content determination process illustrated in FIG. 10 or control the robot 2. The processing of each functional unit may be executed by a program. Programs related to these processes may be stored in the storage unit 202 of the robot 2 or the storage unit 302 of the computer 3, or may be installed in the robot 2 or the computer 3 via a network such as the Internet 6.

以上、添付図面を参照して、本発明に係るロボット、コンテンツ決定装置、コンテンツ決定方法等の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the robot, the content determination device, the content determination method, and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.

1……………………コンテンツ決定システム
2……………………ロボット
201………………制御部
21…………………コンテンツ実行部
22…………………属性取得部
23…………………反応取得部
23a………………画像解析部
23b………………発声状況取得部
23c………………インターネット情報収集部
24…………………関心度算出部
25…………………記録部
26…………………コンテンツ決定部
202………………記憶部
31…………………コンテンツDB
32…………………発話DB
33…………………アクションDB
81…………………コンテンツテーブル
82…………………上映リストデータ
83…………………関心度算出テーブル
84…………………上映履歴情報
85…………………推薦上映リスト
3……………………コンピュータ
301………………制御部
302………………記憶部
4……………………距離画像センサ
5……………………マイク
6……………………インターネット
7……………………SNSサーバ
1 …………………… Content Determination System 2 …………………… Robot 201 ……………… Control Unit 21 …………………… Content Execution Unit 22 ………………… Attribute acquisition unit 23 …………………… Reaction acquisition unit 23a ……………… Image analysis unit 23b ……………… Speech status acquisition unit 23c ……………… Internet information collection unit 24 ………… ………… Interest Calculation Unit 25 ………………… Recording Unit 26 …………………… Content Determination Unit 202 ……………… Storage Unit 31 …………………… Content DB
32 ………………… Speech DB
33 …………………… Action DB
81 …………………… Contents table 82 ………………… Show list data 83 ………………… Interest calculation table 84 ………………… Show history information 85 …………… …… Recommended screening list 3 …………………… Computer 301 ……………… Control unit 302 ……………… Storage unit 4 …………………… Distance image sensor 5 ………… ………… Microphone 6 …………………… Internet 7 …………………… SNS Server

Claims (13)

視聴者に対しコンテンツを実行するコンテンツ実行手段と、
実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、
取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、
前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、
を備えることを特徴とするロボット。
Content execution means for executing content for viewers;
Reaction acquisition means for acquiring a response of the viewer to the content to be executed;
An interest level calculating means for calculating the viewer's interest level based on the acquired viewer's reaction;
Content determination means for determining content to be executed by the content execution means based on the degree of interest of the viewer;
A robot characterized by comprising:
前記視聴者の属性を取得する属性取得手段、を更に備え、
前記コンテンツ決定手段は、前記視聴者の属性及び前記関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定することを特徴とする請求項1に記載のロボット。
Attribute acquisition means for acquiring attributes of the viewer,
The robot according to claim 1, wherein the content determination unit determines the content to be executed by the content execution unit based on the attribute of the viewer and the degree of interest.
前記視聴者の様子を撮影した画像を取得し解析する画像解析手段と、
前記視聴者の発声状況を取得する発声状況取得手段と、を更に備え、
前記反応取得手段は、前記画像の解析結果及び前記発声状況に基づいて前記視聴者の反応を取得することを特徴とする請求項1または請求項2に記載のロボット。
Image analysis means for acquiring and analyzing an image of the viewer's appearance;
Utterance status acquisition means for acquiring the utterance status of the viewer,
The robot according to claim 1, wherein the response acquisition unit acquires the viewer's response based on the analysis result of the image and the utterance state.
インターネットに公開された情報から前記コンテンツの上映に関する反応を収集するインターネット情報収集手段、を更に備え、
前記反応取得手段は、更に前記インターネット情報収集手段により収集した反応を前記視聴者の反応に含めることを特徴とする請求項1から請求項3のいずれかに記載のロボット。
Internet information collecting means for collecting a reaction related to the screening of the content from information published on the Internet,
The robot according to any one of claims 1 to 3, wherein the response acquisition unit further includes the response collected by the Internet information collection unit in the viewer's response.
前記反応取得手段は、更に来場者数を前記視聴者の反応に含めることを特徴とする請求項1から請求項4のいずれかに記載のロボット。   The robot according to claim 1, wherein the response acquisition unit further includes the number of visitors in the viewer's response. 各コンテンツに対する前記関心度を前記視聴者の属性と紐づけて記録する記録手段、を更に備え、
前記コンテンツ決定手段は、視聴者の属性及び前記関心度に基づいて前記記録手段に記録されたコンテンツの中から最適なコンテンツを複数選択し、一連の上映リストを生成することを特徴とする請求項2に記載のロボット。
Recording means for recording the degree of interest for each content in association with the attribute of the viewer;
The content determination means selects a plurality of optimum contents from contents recorded in the recording means based on viewer attributes and the degree of interest, and generates a series of screening lists. 2. The robot according to 2.
前記コンテンツ決定手段は、しばらく上映されていないコンテンツを前記上映リストに優先的に含めることを特徴とする請求項6に記載のロボット。   The robot according to claim 6, wherein the content determination unit preferentially includes content that has not been screened for a while in the screening list. 前記コンテンツ決定手段は、予め指定された推薦コンテンツを前記上映リストに優先的に含めることを特徴とする請求項6または請求項7に記載のロボット。   The robot according to claim 6 or 7, wherein the content determination means preferentially includes recommended content designated in advance in the screening list. 前記コンテンツ決定手段は、新たに作成されたコンテンツを前記上映リストに優先的に含めることを特徴とする請求項6から請求項8のいずれかに記載のロボット。   The robot according to claim 6, wherein the content determination unit preferentially includes newly created content in the screening list. 視聴者に対しコンテンツを実行するコンテンツ実行手段と、
実行されるコンテンツに対する前記視聴者の反応を取得する反応取得手段と、
取得した視聴者の反応に基づいて前記視聴者の関心度を求める関心度算出手段と、
前記視聴者の関心度に基づき前記コンテンツ実行手段が実行するコンテンツを決定するコンテンツ決定手段と、
を備えることを特徴とするコンテンツ決定装置。
Content execution means for executing content for viewers;
Reaction acquisition means for acquiring a response of the viewer to the content to be executed;
An interest level calculating means for calculating the viewer's interest level based on the acquired viewer's reaction;
Content determination means for determining content to be executed by the content execution means based on the degree of interest of the viewer;
A content determination apparatus comprising:
前記コンテンツ実行手段はロボットを用いて前記コンテンツを実行することを特徴とする請求項10に記載のコンテンツ決定装置。   The content determination apparatus according to claim 10, wherein the content execution unit executes the content using a robot. コンピュータがロボットを用いて視聴者に対しコンテンツを実行させるステップと、
コンピュータが実行されるコンテンツに対する前記視聴者の反応を取得するステップと、
コンピュータが取得した視聴者の反応に基づいて前記視聴者の関心度を求めるステップと、
コンピュータが前記視聴者の関心度に基づき実行するコンテンツを決定するステップと、
を含むことを特徴とするコンテンツ決定方法。
A computer causing a viewer to execute content using a robot;
Obtaining a response of the viewer to computer-executed content;
Determining the viewer's interest based on a viewer response obtained by a computer;
Determining content to be executed by a computer based on the viewer's interest;
The content determination method characterized by including.
コンピュータを、請求項10に記載のコンテンツ決定装置として機能させるプログラム。   The program which functions a computer as a content determination apparatus of Claim 10.
JP2015193511A 2015-09-30 2015-09-30 Robot, content deciding device, content deciding method, and program Pending JP2017064853A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015193511A JP2017064853A (en) 2015-09-30 2015-09-30 Robot, content deciding device, content deciding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015193511A JP2017064853A (en) 2015-09-30 2015-09-30 Robot, content deciding device, content deciding method, and program

Publications (1)

Publication Number Publication Date
JP2017064853A true JP2017064853A (en) 2017-04-06

Family

ID=58491121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193511A Pending JP2017064853A (en) 2015-09-30 2015-09-30 Robot, content deciding device, content deciding method, and program

Country Status (1)

Country Link
JP (1) JP2017064853A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018001710T5 (en) 2017-03-29 2019-12-24 Honda Motor Co., Ltd. Walking aid system, walking aid procedure and walking aid program
JP2019217558A (en) * 2018-06-15 2019-12-26 株式会社日立製作所 Interactive system and control method for the same
JP2022070003A (en) * 2020-10-26 2022-05-12 トヨタ自動車株式会社 Display system
US11823553B2 (en) 2019-04-08 2023-11-21 Sony Group Corporation Information processing device, information processing method, and information processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124656A (en) * 2009-12-08 2011-06-23 Nomura Research Institute Ltd Video content recommendation management device, method of instructing reproduction of scene in video content, and program thereof
JP2012155616A (en) * 2011-01-27 2012-08-16 Panasonic Corp Content provision system, content provision method, and content provision program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124656A (en) * 2009-12-08 2011-06-23 Nomura Research Institute Ltd Video content recommendation management device, method of instructing reproduction of scene in video content, and program thereof
JP2012155616A (en) * 2011-01-27 2012-08-16 Panasonic Corp Content provision system, content provision method, and content provision program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018001710T5 (en) 2017-03-29 2019-12-24 Honda Motor Co., Ltd. Walking aid system, walking aid procedure and walking aid program
JP2019217558A (en) * 2018-06-15 2019-12-26 株式会社日立製作所 Interactive system and control method for the same
JP7045938B2 (en) 2018-06-15 2022-04-01 株式会社日立製作所 Dialogue system and control method of dialogue system
US11823553B2 (en) 2019-04-08 2023-11-21 Sony Group Corporation Information processing device, information processing method, and information processing system
JP2022070003A (en) * 2020-10-26 2022-05-12 トヨタ自動車株式会社 Display system
US11687308B2 (en) 2020-10-26 2023-06-27 Toyota Jidosha Kabushiki Kaisha Display system
JP7310779B2 (en) 2020-10-26 2023-07-19 トヨタ自動車株式会社 display system

Similar Documents

Publication Publication Date Title
US20220284896A1 (en) Electronic personal interactive device
JP6902683B2 (en) Virtual robot interaction methods, devices, storage media and electronic devices
Sadoughi et al. Speech-driven animation with meaningful behaviors
US10347250B2 (en) Utterance presentation device, utterance presentation method, and computer program product
US20140278403A1 (en) Systems and methods for interactive synthetic character dialogue
JP6122792B2 (en) Robot control apparatus, robot control method, and robot control program
TW201117114A (en) System, apparatus and method for message simulation
US9525841B2 (en) Imaging device for associating image data with shooting condition information
WO2018043112A1 (en) Information presentation apparatus and information presentation method
JP2023552854A (en) Human-computer interaction methods, devices, systems, electronic devices, computer-readable media and programs
JP2017064853A (en) Robot, content deciding device, content deciding method, and program
JP2016177483A (en) Communication support device, communication support method, and program
JP2010224715A (en) Image display system, digital photo-frame, information processing system, program, and information storage medium
JP6886651B2 (en) Action command generation system, response system and action command generation method
JP2019133451A (en) Evaluation method, evaluation device, evaluation program, and evaluation system
Origlia et al. FANTASIA: a framework for advanced natural tools and applications in social, interactive approaches
JP2017182261A (en) Information processing apparatus, information processing method, and program
JP6972526B2 (en) Content providing device, content providing method, and program
WO2019146199A1 (en) Information processing device and information processing method
WO2020087534A1 (en) Generating response in conversation
JP2017068592A (en) Robot, robot control device, robot control method and program
KR102616058B1 (en) Method, computer device, and computer program to replay audio recording through visualization
JP7327161B2 (en) Information processing device, information processing method, and program
Yuan An approach to integrating emotion in dialogue management
JP6759907B2 (en) Information presentation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200218