JP2020017844A - Content distribution system, content distribution method, and content distribution program - Google Patents

Content distribution system, content distribution method, and content distribution program Download PDF

Info

Publication number
JP2020017844A
JP2020017844A JP2018139205A JP2018139205A JP2020017844A JP 2020017844 A JP2020017844 A JP 2020017844A JP 2018139205 A JP2018139205 A JP 2018139205A JP 2018139205 A JP2018139205 A JP 2018139205A JP 2020017844 A JP2020017844 A JP 2020017844A
Authority
JP
Japan
Prior art keywords
utterance
comment
image
time
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018139205A
Other languages
Japanese (ja)
Inventor
勇気 益井
Yuki Masui
勇気 益井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018139205A priority Critical patent/JP2020017844A/en
Publication of JP2020017844A publication Critical patent/JP2020017844A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a content distribution system, a content distribution method, and a content distribution program that can cause a robot device to speak in synchronization with reproduction of video content with a simple configuration.SOLUTION: A content distribution system 1 includes a timing detection processing unit 103 that detects a switching timing of switching from an image D1 to an image D2 in a video content C1, an utterance time calculation processing unit 104 that calculates a comment time required for reproducing an utterance comment M1 corresponding to the image D1 to be uttered by a robot device 30A, a silent time calculation processing unit 105 that calculates a silent time corresponding to the image D1 on the basis of the switching timing and the comment time, and a control unit 100 that causes a robot device 30B to speak an utterance comment M2 corresponding to the image D2 on the basis of the silence period.SELECTED DRAWING: Figure 2

Description

本発明は、コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラムに関する。   The present invention relates to a content distribution system, a content distribution method, and a content distribution program.

近年、表示装置に表示されるサイネージコンテンツに連動させてロボット装置が動作したり、音声を発したりして、サイネージコンテンツに注目させるようにしたものが知られている。   2. Description of the Related Art In recent years, there has been known an apparatus in which a robot apparatus operates or emits a sound in conjunction with a signage content displayed on a display device to draw attention to the signage content.

表示装置に表示されたサイネージコンテンツに連動させてロボット装置を喋らせたり踊らせたりするためには、例えば、サイネージコンテンツとロボット動作パターンスクリプトとを表示装置及びロボット装置それぞれに別々に予め転送しておく必要があり、手間がかかっていた。   In order to make the robot device speak or dance in conjunction with the signage content displayed on the display device, for example, the signage content and the robot operation pattern script are separately transferred in advance to the display device and the robot device, respectively. It had to be kept and was troublesome.

さらに、サイネージコンテンツとロボット装置の動作とを同期させるには、サイネージコンテンツ再生開始タイミングに合わせてロボット装置の動作開始指示操作を慎重に行なったり、サイネージコンテンツの再生時刻に同期してロボット装置が動作を開始するように予め設定しておく必要がある等、非常に手間がかかっていた。   Furthermore, in order to synchronize the signage content with the operation of the robot device, carefully perform an operation start instruction operation of the robot device in synchronization with the start timing of the signage content reproduction, or operate the robot device in synchronization with the reproduction time of the signage content. It is very troublesome, for example, that it is necessary to set in advance to start.

そこで、従来技術として、例えば、人検出処理により人が検出されると、撮像部により取得された撮影画像から認識された顔画像に基づいて、検出された人の反応によって画像形成部から出力される表示コンテンツの内容とは異なる内容の音声コンテンツを出力するデジタルサイネージ装置が提案されている(特許文献1を参照)。   Therefore, as a conventional technique, for example, when a person is detected by a person detection process, based on a face image recognized from a captured image obtained by an imaging unit, the image is output from the image forming unit by a reaction of the detected person. There has been proposed a digital signage device that outputs audio contents having contents different from the contents of display contents to be displayed (see Patent Document 1).

この構成により、表示コンテンツと音声コンテンツとを出力するタイミングが合うように予め設定することなく、人検出処理の結果に基づいて表示コンテンツの内容とは異なる内容の音声コンテンツを出力させることができるため、人の興味を引くことができるコンテンツ出力を可能としている。   With this configuration, it is possible to output audio content having a content different from the content of the display content based on the result of the human detection processing without previously setting the output timing of the display content and the audio content to match. This enables content output that can attract people's interest.

特開2017−59916号公報JP 2017-59916 A

しかしながら、特許文献1に開示されている技術によれば、表示コンテンツ(映像コンテンツ)を出力する動作制御が煩雑になるという問題がある。   However, according to the technology disclosed in Patent Document 1, there is a problem that operation control for outputting display content (video content) becomes complicated.

本発明の目的は、簡易な構成により映像コンテンツの再生に同期させてロボット装置に発話させることが可能なコンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラムを提供することにある。   An object of the present invention is to provide a content distribution system, a content distribution method, and a content distribution program that allow a robot apparatus to utter in synchronization with reproduction of video content with a simple configuration.

本発明の一の態様に係るコンテンツ配信システムは、複数の画像を含む映像コンテンツを再生する表示装置と、前記映像コンテンツに対応する発話コメントを発話する発話装置とを含むコンテンツ配信システムであって、前記映像コンテンツにおいて第1画像から第2画像に切り替わる切り替わりタイミングを検出するタイミング検出部と、前記発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出する発話時間決定部と、前記タイミング検出部により検出される前記切り替わりタイミングと、前記発話時間決定部により算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出する無音時間決定部と、前記無音時間決定部により算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させる発話部と、を備える。   A content distribution system according to one aspect of the present invention is a content distribution system including a display device that reproduces video content including a plurality of images, and an utterance device that utters an utterance comment corresponding to the video content, A timing detection unit for detecting a switching timing of switching from a first image to a second image in the video content, and an utterance for calculating an utterance time required for reproducing the first utterance comment corresponding to the first image to be uttered by the utterance device; A silence period determining unit that calculates a silence period corresponding to the first image based on a time determination unit, the switching timing detected by the timing detection unit, and the speech time calculated by the speech time determination unit. And the second based on the silent time calculated by the silent time determining unit. The second utterance comment corresponding to the image and a speech unit for utterance to the speech unit.

本発明の他の態様に係るコンテンツ配信方法は、表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、を含む。   In a content distribution method according to another aspect of the present invention, in a video content including a plurality of images reproduced by a display device, a step of detecting a timing of switching from a first image to a second image, and causing the utterance device to utter. Calculating an utterance time required to reproduce the first utterance comment corresponding to the first image; a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time And causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period.

本発明の他の態様に係るコンテンツ配信プログラムは、表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、をコンピュータに実行させるためのコンテンツ配信プログラムである。   A content distribution program according to another aspect of the present invention includes a step of detecting a timing of switching from a first image to a second image in video content including a plurality of images reproduced by a display device, and causing the speech device to speak. Calculating an utterance time required to reproduce the first utterance comment corresponding to the first image; a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time And a step of causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period.

本発明によれば、簡易な構成により映像コンテンツの再生に同期させてロボット装置に発話させることが可能である。   According to the present invention, it is possible to cause the robot apparatus to speak in synchronization with the reproduction of the video content with a simple configuration.

図1は、本発明の第1実施形態に係るコンテンツ配信システムの概略構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of a content distribution system according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係るコンテンツ配信装置の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a configuration of the content distribution device according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る表示装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a configuration of the display device according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係るロボット装置の構成を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating a configuration of the robot device according to the first embodiment of the present invention. 図5は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 5 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図6は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 6 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図7は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 7 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図8は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 8 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図9は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 9 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図10は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 10 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図11は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 11 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図12は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 12 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図13は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 13 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図14は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 14 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図15は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 15 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図16は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 16 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図17は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 17 is an explanatory diagram illustrating a registration screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of this invention. 図18は、本発明の第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 18 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the first embodiment of the present invention. 図19は、本発明の第1実施形態に係る表示装置がロボット動作データをロボット装置に送信する処理の手順の一例を説明するためのフローチャートである。FIG. 19 is a flowchart illustrating an example of a procedure of a process in which the display device according to the first embodiment of the present invention transmits robot operation data to the robot device. 図20は、比較例に係る、映像コンテンツの画像の切り替わりタイミングと、発話コメントの発話タイミングとを示す説明図である。FIG. 20 is an explanatory diagram showing the switching timing of the image of the video content and the utterance timing of the utterance comment according to the comparative example. 図21は、本発明の第1実施形態に係る、映像コンテンツの画像の切り替わりタイミングと、発話コメントの発話タイミングとを示す説明図である。FIG. 21 is an explanatory diagram showing the switching timing of the image of the video content and the utterance timing of the utterance comment according to the first embodiment of the present invention. 図22は、本発明の第2実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 22 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the second embodiment of the present invention. 図23は、本発明の第2実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 23 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the second embodiment of the present invention. 図24は、本発明の第2実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 24 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to the second embodiment of the present invention. 図25は、本発明の第2実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 25 is an explanatory diagram showing a registration screen in the robot operation / utterance editing software of the content distribution system according to the second embodiment of the present invention. 図26は、本発明の他の実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける登録画面を示す説明図である。FIG. 26 is an explanatory diagram showing a registration screen in the robot operation / speech editing software of the content distribution system according to another embodiment of the present invention. 図27は、本発明の他の実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェアにおける設定画面を示す説明図である。FIG. 27 is an explanatory diagram showing a setting screen in the robot operation / utterance editing software of the content distribution system according to another embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Note that the following embodiments are examples embodying the present invention, and do not have characteristics that limit the technical scope of the present invention.

[第1実施形態]
以下、本発明の第1実施形態について図面を参照して説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1実施形態に係るコンテンツ配信システムの構成を示す説明図である。図2は、前記コンテンツ配信システムを構成するコンテンツ配信装置の構成を示すブロック図である。図3は、前記コンテンツ配信システムを構成する表示装置の構成を示すブロック図である。図4は、前記コンテンツ配信システムを構成するロボット装置の構成を示すブロック図である。   FIG. 1 is an explanatory diagram showing the configuration of the content distribution system according to the first embodiment of the present invention. FIG. 2 is a block diagram showing a configuration of a content distribution device constituting the content distribution system. FIG. 3 is a block diagram showing a configuration of a display device constituting the content distribution system. FIG. 4 is a block diagram showing a configuration of a robot device constituting the content distribution system.

[コンテンツ配信システムの構成]
第1実施形態に係るコンテンツ配信システム1は、図1に示すように、ロボット装置30に通信可能に接続される表示装置20と、表示装置20に通信可能に接続されて、表示装置20に映像コンテンツを配信するコンテンツ配信装置10と、を備える。コンテンツ配信システム1において、コンテンツ配信装置10は、表示装置20に対して映像コンテンツデータとロボット動作データとを配信(送信)する。表示装置20は、映像コンテンツデータとロボット動作データとを受信し、映像コンテンツを再生するときに、ロボット動作データをロボット装置30に送信する。ロボット装置30は、ロボット動作データを受信して動作する。
[Content distribution system configuration]
As shown in FIG. 1, a content distribution system 1 according to the first embodiment includes a display device 20 communicably connected to a robot device 30, and a display device 20 communicably connected to the display device 20. And a content distribution device 10 that distributes content. In the content distribution system 1, the content distribution device 10 distributes (transmits) video content data and robot operation data to the display device 20. The display device 20 receives the video content data and the robot operation data, and transmits the robot operation data to the robot device 30 when reproducing the video content. The robot device 30 operates by receiving the robot operation data.

コンテンツ配信システム1に含まれる表示装置20は、1台であってもよいし、複数台であってもよい。またコンテンツ配信システム1に含まれるロボット装置30は、1台であってもよいし、複数台であってもよい。図1では、一例として、1台の表示装置20と2台のロボット装置30A,30Bとを表している。尚、以下の説明では、ロボット装置30A,30Bを区別しない場合は、「ロボット装置30」と称す。ロボット装置30は、本発明の発話装置の一例である。本発明の発話装置は、ロボット装置に限定されず、音声を出力することが可能な各種の情報処理装置が含まれる。   The display device 20 included in the content distribution system 1 may be a single display device or a plurality of display devices. Further, the number of robot devices 30 included in the content distribution system 1 may be one or a plurality of robot devices. FIG. 1 shows one display device 20 and two robot devices 30A and 30B as an example. In the following description, when the robot devices 30A and 30B are not distinguished, they are referred to as “robot device 30”. The robot device 30 is an example of the speech device of the present invention. The speech device of the present invention is not limited to a robot device, but includes various information processing devices capable of outputting voice.

コンテンツ配信装置10及び表示装置20は、それぞれ、1台のコンピュータに限らず、複数台のコンピュータが協働して動作するコンピュータシステムであってもよい。また、コンテンツ配信装置10及び表示装置20で実行される各種の処理は、一又は複数のプロセッサによって分散して実行されてもよい。   The content distribution device 10 and the display device 20 are not limited to one computer, and may be a computer system in which a plurality of computers operate in cooperation. In addition, various processes executed by the content distribution device 10 and the display device 20 may be executed in a distributed manner by one or a plurality of processors.

以下に、第1実施形態に係るコンテンツ配信システム1を構成する各装置の特徴的な構成について図面を参照して説明する。   Hereinafter, a characteristic configuration of each device configuring the content distribution system 1 according to the first embodiment will be described with reference to the drawings.

図2に示すように、コンテンツ配信装置10は、各部における動作処理を制御する制御部100と、表示装置20との通信接続を行なう通信部110と、編集作業者が編集作業を行うための操作画面及び設定画面(何れも後述)を表示する表示部115と、映像コンテンツデータ登録部120と、ロボット動作データ登録部130と、データ送信部140と、記憶部150とを備えている。   As shown in FIG. 2, the content distribution device 10 includes a control unit 100 that controls operation processing in each unit, a communication unit 110 that performs communication connection with the display device 20, and an operation for an editing operator to perform an editing operation. A display unit 115 for displaying a screen and a setting screen (all described later), a video content data registration unit 120, a robot operation data registration unit 130, a data transmission unit 140, and a storage unit 150 are provided.

映像コンテンツデータ登録部120は、表示装置20に出力する映像コンテンツに対応するコンテンツデータ(以下、映像コンテンツデータd1という。)を登録する。映像コンテンツには、シーン(コンセプト)の異なる複数の画像が含まれる。例えば、ハワイ旅行広告に関する映像コンテンツには、「ハワイの景色を表す画像」、「イルカを紹介する画像」、「海水浴場を紹介する画像」等が含まれる。編集作業者が所望の映像コンテンツを選択すると、映像コンテンツデータ登録部120は、当該映像コンテンツに対応する映像コンテンツデータd1を登録する。映像コンテンツデータd1を表示装置20において再生した場合、これら複数の画像が順次表示される。   The video content data registration unit 120 registers content data (hereinafter, video content data d1) corresponding to video content to be output to the display device 20. The video content includes a plurality of images having different scenes (concepts). For example, the video content related to the Hawaii travel advertisement includes an "image representing the scenery of Hawaii", an "image introducing a dolphin", an "image introducing a beach", and the like. When the editor selects a desired video content, the video content data registration unit 120 registers the video content data d1 corresponding to the video content. When the video content data d1 is reproduced on the display device 20, these images are sequentially displayed.

ロボット動作データ登録部130は、ロボット装置30を動作させる動作データ(以下、ロボット動作データd2という。)を登録する。編集作業者がロボット装置30の操作設定(後述)を行うと、ロボット動作データ登録部130は、当該操作設定に対応するロボット動作データd2を登録する。   The robot operation data registration unit 130 registers operation data for operating the robot device 30 (hereinafter, referred to as robot operation data d2). When the editing operator performs an operation setting (described later) of the robot device 30, the robot operation data registration unit 130 registers the robot operation data d2 corresponding to the operation setting.

データ送信部140は、コンテンツ配信装置10から表示装置20に前記データを送信する。具体的には、データ送信部140は、映像コンテンツデータd1とロボット動作データd2とを指定された表示装置20に送信する。   The data transmission unit 140 transmits the data from the content distribution device 10 to the display device 20. Specifically, the data transmission unit 140 transmits the video content data d1 and the robot operation data d2 to the designated display device 20.

ここで、映像コンテンツデータd1は、静止画ファイル又は動画ファイルを含むものとする。またロボット動作データd2は、動作ファイル又は音声(発話コメント)ファイルを含むものとする。ロボット動作データd2をロボット装置30において再生した場合、例えば、映像コンテンツの画像に応じた発話コメントが音声として出力される。   Here, the video content data d1 includes a still image file or a moving image file. The robot operation data d2 includes an operation file or a voice (utterance comment) file. When the robot operation data d2 is reproduced in the robot device 30, for example, an utterance comment corresponding to the image of the video content is output as a voice.

記憶部150は、コンテンツ配信装置10の各部処理を制御する制御プログラム151と、サイネージ番組編集ソフトウェア152と、ロボット動作・発話編集ソフトウェア153とを記憶する。また記憶部150は、表示装置20で再生される映像コンテンツデータd1を記憶する映像コンテンツデータ記憶領域154と、ロボット装置30を動作させるロボット動作データd2を記憶するロボット動作データ記憶領域155とを含む。   The storage unit 150 stores a control program 151 for controlling processing of each unit of the content distribution device 10, a signage program editing software 152, and a robot operation / utterance editing software 153. The storage unit 150 includes a video content data storage area 154 for storing video content data d1 reproduced on the display device 20, and a robot operation data storage area 155 for storing robot operation data d2 for operating the robot device 30. .

制御部100は、CPU、ROM、及びRAMなどの制御機器を備える。前記CPUは、各種の演算処理を実行するプロセッサである。制御部100は、記憶部150に予め記憶される制御プログラム151、サイネージ番組編集ソフトウェア152、ロボット動作・発話編集ソフトウェア153を前記CPUで実行することによりコンテンツ配信装置10を制御する。   The control unit 100 includes control devices such as a CPU, a ROM, and a RAM. The CPU is a processor that executes various arithmetic processes. The control unit 100 controls the content distribution device 10 by executing the control program 151, the signage program editing software 152, and the robot operation / utterance editing software 153 stored in the storage unit 150 in advance by the CPU.

具体的に、制御部100は、図2に示すように、受付処理部101、表示処理部102(本発明の表示制御部の一例)、タイミング検出処理部103(本発明のタイミング検出部の一例)、発話時間算出処理部104(本発明の発話時間決定部の一例)、及び無音時間算出処理部105(本発明の無音時間決定部の一例)などの各処理部を含む。なお、制御部100は、制御プログラム151、サイネージ番組編集ソフトウェア152、ロボット動作・発話編集ソフトウェア153に従って各種の処理を実行することによりこれらの各処理部として機能する。また、制御部100は、これらの各処理部の一部又は複数の処理機能を実現する電子回路を備えるものであってもよい。   Specifically, as shown in FIG. 2, the control unit 100 includes a reception processing unit 101, a display processing unit 102 (an example of a display control unit of the present invention), a timing detection processing unit 103 (an example of a timing detection unit of the present invention). ), A speech time calculation processing unit 104 (an example of the speech time determination unit of the present invention), and a silence time calculation processing unit 105 (an example of the silence time determination unit of the invention). The control unit 100 functions as each processing unit by executing various processes according to the control program 151, the signage program editing software 152, and the robot operation / utterance editing software 153. Further, the control unit 100 may include an electronic circuit that realizes a part or a plurality of processing functions of each of these processing units.

受付処理部101は、編集作業者による各種操作、例えば映像コンテンツの編集操作、ロボット装置30の操作設定などを受け付ける。表示処理部102は、各種操作を行うための操作画面及び設定画面を表示部115に表示させる。   The reception processing unit 101 receives various operations by the editing operator, for example, an editing operation of video content, an operation setting of the robot device 30, and the like. The display processing unit 102 causes the display unit 115 to display an operation screen and a setting screen for performing various operations.

タイミング検出処理部103、発話時間算出処理部104、及び無音時間算出処理部105は、ロボット装置30の操作設定を行う際に各種処理を実行する。具体的な処理については後述する。   The timing detection processing unit 103, the utterance time calculation processing unit 104, and the silence time calculation processing unit 105 execute various processes when setting the operation of the robot device 30. Specific processing will be described later.

図3に示すように、表示装置20は、各部における動作処理を制御する制御部200と、コンテンツ配信装置10及びロボット装置30と通信接続を行なう通信部210と、表示部220と、記憶部230とを備えている。   As shown in FIG. 3, the display device 20 includes a control unit 200 that controls operation processing in each unit, a communication unit 210 that performs communication connection with the content distribution device 10 and the robot device 30, a display unit 220, and a storage unit 230. And

制御部200は、コンテンツ配信装置10から配信された映像コンテンツデータd1に応じた映像コンテンツの再生(表示)時に、コンテンツ配信装置10から配信されたロボット動作データd2を所定のロボット装置30に送信する。   The control unit 200 transmits the robot operation data d2 distributed from the content distribution device 10 to a predetermined robot device 30 when the video content corresponding to the video content data d1 distributed from the content distribution device 10 is reproduced (displayed). .

記憶部230は、表示装置20の各部処理を制御する制御プログラム231と、サイネージ再生ソフトウェア232とを記憶する。また記憶部230は、表示装置20において再生する映像コンテンツデータd1を記憶する映像コンテンツデータ記憶領域233と、ロボット装置30を動作させるロボット動作データd2を記憶するロボット動作データ記憶領域234とを含む。   The storage unit 230 stores a control program 231 for controlling processing of each unit of the display device 20 and signage reproduction software 232. The storage unit 230 includes a video content data storage area 233 for storing video content data d1 to be reproduced on the display device 20, and a robot operation data storage area 234 for storing robot operation data d2 for operating the robot device 30.

図4に示すように、ロボット装置30は、各部における動作処理を制御する制御部300と、表示装置20との通信接続を行なう通信部310と、音声出力部320と、記憶部330とを備えている。   As illustrated in FIG. 4, the robot device 30 includes a control unit 300 that controls operation processing in each unit, a communication unit 310 that performs communication connection with the display device 20, a voice output unit 320, and a storage unit 330. ing.

制御部300は、表示装置20における映像コンテンツの再生時に、表示装置20から送信されるロボット動作データd2に基づいて動作を行うように制御する。   The control unit 300 controls the operation based on the robot operation data d2 transmitted from the display device 20 when the video content is reproduced on the display device 20.

記憶部330は、ロボット装置30の動作処理を制御する制御プログラム331などが記憶される。また記憶部330は、ロボット装置30を動作させるロボット動作データd2を記憶するロボット動作データ記憶領域332を含む。   The storage unit 330 stores a control program 331 for controlling operation processing of the robot device 30 and the like. The storage unit 330 also includes a robot operation data storage area 332 that stores robot operation data d2 for operating the robot device 30.

ロボット装置30は、外形を人形型のロボットとして構成したものであってもよい。具体的には、ロボット装置30は、例えば、頭部、胴部、腕部、脚部を備え、頭部は上下方向及び左右方向に回動動作が可能に構成され、腕部は上下方向に昇降動作が可能に構成されてもよい。また、頭部には、顔を構成する眼、口などに相当する部位が設けられてもよい。   The robot device 30 may be configured such that the outer shape is a doll-shaped robot. Specifically, the robot device 30 includes, for example, a head, a torso, an arm, and a leg, and the head is configured to be able to rotate in a vertical direction and a horizontal direction, and the arm is configured to move in a vertical direction. A lifting operation may be configured. Further, the head may be provided with a portion corresponding to the eyes, mouth, and the like constituting the face.

[コンテンツ配信装置の構成]
コンテンツ配信装置10において、表示装置20に配信する映像コンテンツ(サイネージコンテンツ)の編集が行われる。映像コンテンツの編集は、サイネージ番組編集ソフトウェア152により行われる。尚、映像コンテンツの編集は、周知の技術により実現することが可能である。ここでは、周知のサイネージ番組編集ソフトウェア152により映像コンテンツデータd1が生成されるものとする。
[Configuration of content distribution device]
In the content distribution device 10, video content (signage content) to be distributed to the display device 20 is edited. Editing of the video content is performed by the signage program editing software 152. The editing of the video content can be realized by a known technique. Here, it is assumed that the well-known signage program editing software 152 generates the video content data d1.

またコンテンツ配信装置10において、ロボット装置30を動作させるためのロボット装置30の操作設定の編集が行われる。図5は、第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェア153における登録画面11を示す説明図である。表示処理部102は、登録画面11を表示部115に表示させる。   In the content distribution device 10, the operation settings of the robot device 30 for operating the robot device 30 are edited. FIG. 5 is an explanatory diagram showing the registration screen 11 in the robot operation / utterance editing software 153 of the content distribution system according to the first embodiment. The display processing unit 102 displays the registration screen 11 on the display unit 115.

ロボット動作・発話編集ソフトウェア153は、ロボット装置30の操作設定を行うためのソフトウェアである。編集作業者は、ロボット動作・発話編集ソフトウェア153を利用して、ロボット装置30の動作及び発話の内容を編集及び登録する。ロボット動作・発話編集ソフトウェア153により、ロボット動作データd2が生成される。   The robot operation / speech editing software 153 is software for performing operation settings of the robot device 30. The editing operator edits and registers the operation of the robot device 30 and the contents of the utterance using the robot operation / utterance editing software 153. Robot operation / utterance editing software 153 generates robot operation data d2.

図5に示す登録画面11には、映像コンテンツを再生する表示装置20を登録するための表示装置登録欄12aと、登録された表示装置20に再生させる映像コンテンツを登録するためのコンテンツ登録欄12dと、登録された映像コンテンツに含まれる複数の画像をサムネイル形式で表示する画像表示欄12cとが含まれる。例えば、編集作業者は、表示装置登録欄12aの登録ボタン12bを押下して、複数の表示装置20の中から所望の表示装置20を選択し、表示装置登録欄12aに登録する。また、編集作業者は、コンテンツ登録欄12dの登録ボタン12eを押下して、複数の映像コンテンツの中から所望の映像コンテンツを選択し、コンテンツ登録欄12dに登録する。   The registration screen 11 shown in FIG. 5 includes a display device registration column 12a for registering the display device 20 for reproducing the video content, and a content registration column 12d for registering the video content to be reproduced on the registered display device 20. And an image display column 12c for displaying a plurality of images included in the registered video content in a thumbnail format. For example, the editing operator presses a registration button 12b in the display device registration column 12a, selects a desired display device 20 from the plurality of display devices 20, and registers the desired display device 20 in the display device registration column 12a. Further, the editing operator presses a registration button 12e of the content registration field 12d, selects a desired video content from a plurality of video contents, and registers it in the content registration field 12d.

また図5に示す登録画面11には、1台目のロボット装置30に関して、ロボット動作データd2に基づいて動作させるロボット装置30を登録するためのロボット装置登録欄13aと、登録されたロボット装置30(例えばロボット装置30A)の動作及び発話の内容を設定する設定欄13c(本発明の設定欄の一例)とを含む。尚、設定欄13cには、ロボット装置30Aが発話(再生)する発話コメントM1が表示される。また登録画面11には、2台目のロボット装置30に関して、ロボット動作データd2に基づいて動作させるロボット装置30を登録するためのロボット装置登録欄14aと、登録されたロボット装置30(例えばロボット装置30B)の動作及び発話の内容を設定する設定欄14cとを含む。尚、設定欄14cには、ロボット装置30Bが発話(再生)する発話コメントM2が表示される。   Further, the registration screen 11 shown in FIG. 5 includes a robot device registration column 13a for registering the robot device 30 to be operated based on the robot operation data d2 with respect to the first robot device 30, and a registered robot device 30. (For example, the robot device 30A) and a setting column 13c (an example of a setting column of the present invention) for setting the content of the utterance. Note that an utterance comment M1 uttered (reproduced) by the robot device 30A is displayed in the setting column 13c. The registration screen 11 also includes a robot device registration column 14a for registering the robot device 30 to be operated based on the robot operation data d2 for the second robot device 30, and a registered robot device 30 (for example, the robot device 30). 30B) and a setting column 14c for setting the contents of the utterance. Note that an utterance comment M2 uttered (reproduced) by the robot device 30B is displayed in the setting field 14c.

例えば、編集作業者は、ロボット装置登録欄13aの登録ボタン13bを押下して、複数のロボット装置30の中から所望のロボット装置30Aを選択して、ロボット装置登録欄13aに登録する。また、編集作業者は、ロボット装置登録欄14aの登録ボタン14bを押下して、複数のロボット装置30の中から所望のロボット装置30Bを選択して、ロボット装置登録欄14aに登録する。また、編集作業者は、追加ボタン15を押下して3台目以降のロボット装置30を登録することが可能である。   For example, the editing operator presses a registration button 13b of the robot device registration field 13a, selects a desired robot device 30A from the plurality of robot devices 30, and registers the desired robot device 30A in the robot device registration field 13a. Further, the editing operator presses a registration button 14b in the robot device registration field 14a, selects a desired robot device 30B from the plurality of robot devices 30, and registers the desired robot device 30B in the robot device registration field 14a. Further, the editing operator can press the add button 15 to register the third and subsequent robot apparatuses 30.

編集作業者は、設定欄13cの枠内領域を押下(例えば、ダブルクリック操作)して設定画面21(後述)を呼び出し、設定画面21においてロボット装置30Aの操作設定を行う。また編集作業者は、設定欄14cの枠内領域を押下(例えば、ダブルクリック操作)して設定画面21(後述)を呼び出し、設定画面21においてロボット装置30Bの操作設定を行う。   The editing operator calls a setting screen 21 (described later) by pressing (for example, double-clicking) an area within the frame of the setting field 13c, and performs operation setting of the robot device 30A on the setting screen 21. Further, the editor presses (eg, double-clicks) the area within the frame of the setting field 14c to call a setting screen 21 (described later), and performs operation setting of the robot device 30B on the setting screen 21.

映像コンテンツの登録及びロボット装置30の操作設定が完了した場合、編集作業者は、登録画面11の送信ボタン16を押下する。これにより、コンテンツ配信装置10のデータ送信部140は、映像コンテンツデータd1とロボット動作データd2とを表示装置20に送信する。編集作業者が登録画面11の終了ボタン17を押下した場合、ロボット動作・発話編集ソフトウェア153による処理が終了する。   When the registration of the video content and the operation setting of the robot device 30 are completed, the editing operator presses the transmission button 16 on the registration screen 11. Thereby, the data transmission unit 140 of the content distribution device 10 transmits the video content data d1 and the robot operation data d2 to the display device 20. When the editing operator presses the end button 17 on the registration screen 11, the processing by the robot operation / utterance editing software 153 ends.

[ロボット装置の操作設定]
設定画面21においてロボット装置30の操作設定を行う手順について、具体例を挙げて説明する。
[Robot device operation settings]
A procedure for performing the operation setting of the robot device 30 on the setting screen 21 will be described with a specific example.

図6は、第1実施形態のコンテンツ配信システムのロボット動作・発話編集ソフトウェア153における設定画面21を示す説明図である。ロボット装置30は、設定される操作ごとに動作及び発話を行う。設定画面21では、前記操作ごとに動作及び発話の内容が設定される。   FIG. 6 is an explanatory diagram showing the setting screen 21 in the robot operation / utterance editing software 153 of the content distribution system according to the first embodiment. The robot device 30 performs an operation and an utterance for each set operation. On the setting screen 21, the operation and the contents of the utterance are set for each operation.

設定画面21には、ロボット装置30に対して作成される操作設定の名称(操作名)を設定する操作名設定欄22と、ロボット装置30の操作タイミング(動作タイミング及び発話タイミング)を設定する操作位置設定欄23と、操作するロボット装置30を設定するロボット設定欄24と、設定されたロボット装置30に発話(再生)させる発話コメントを入力するコメント設定欄25と、前記発話コメントを発話する速度を設定する速度設定欄26と、操作が開始してから前記発話コメントの発話が開始するまでの時間(前無音時間)を設定する前無音時間設定欄27と、前記発話コメントの発話が終了してから当該操作が終了するまでの時間(後無音時間)を設定する後無音時間設定欄28と、前記発話コメントの発話が終了してから映像コンテンツの画像(シーン)が切り替わるまでの時間を算出し、算出した時間を前記後無音時間に設定する無音時間自動算出ボタン29と、ロボット装置30に動作させる内容を設定する動作設定欄31と、を含む。   On the setting screen 21, an operation name setting column 22 for setting a name (operation name) of an operation setting created for the robot device 30, and an operation for setting operation timing (operation timing and utterance timing) of the robot device 30 are set. A position setting field 23, a robot setting field 24 for setting the robot device 30 to be operated, a comment setting field 25 for inputting an utterance comment to be uttered (reproduced) by the set robot device 30, and a speed at which the utterance comment is uttered , A pre-silence time setting column 27 for setting a time (pre-silence time) from the start of the operation to the start of the utterance of the utterance comment, and the end of the utterance of the utterance comment. From the end of the utterance of the utterance comment, and a post-utterance silence time setting column 28 for setting a time from the end of the operation to the end of the operation (rear silence time). A silent time automatic calculation button 29 for calculating the time until the image (scene) of the image content is switched and setting the calculated time as the post-silence time; an operation setting field 31 for setting the content to be operated by the robot device 30; ,including.

各設定欄22〜31は、編集作業者により設定及び入力される。例えば、編集作業者は、操作位置設定欄23において、「最初」又は「(作成済みの操作名)の後」を選択する。また編集作業者は、ロボット設定欄24において、登録された複数のロボットから所望のロボット(「ロボット1」、「ロボット2」等)を選択する。尚、登録された各ロボットには、ロボット装置30の機種及びIPアドレスが対応付けられている。また編集作業者は、速度設定欄26において、「速い」、「普通」又は「遅い」を選択する。また編集作業者は、動作設定欄31において、「おじぎをする」、「手を振る」、「キョロキョロする」、「万歳する」、又は「無し」を選択する。   Each of the setting columns 22 to 31 is set and input by the editing operator. For example, the editing operator selects “first” or “after (created operation name)” in the operation position setting column 23. In addition, the editing operator selects a desired robot (“Robot 1”, “Robot 2”, etc.) from the plurality of registered robots in the robot setting field 24. Each registered robot is associated with a model and an IP address of the robot device 30. Further, the editing operator selects “fast”, “normal” or “slow” in the speed setting field 26. In addition, the editing operator selects “bow”, “wave”, “kick”, “ever live”, or “none” in the operation setting column 31.

また設定画面21には、ロボット装置30が前記発話コメントの発話を開始する時間(コメント開始時間)と、ロボット装置30が前記発話コメントの発話を終了する時間(コメント終了時間)と、ロボット装置30が前記発話コメントを発話(再生)するために要する時間(コメント時間)と、前記操作を行うために要する全体の時間(操作時間)とが表示される。各時間は、各設定欄22〜31に設定された情報に基づいて、表示処理部102により表示される。コメント開始時間及びコメント終了時間は、映像コンテンツの再生が開始してからの経過時間を表す。   The setting screen 21 also includes a time at which the robot device 30 starts to utter the utterance comment (comment start time), a time at which the robot device 30 ends the utterance of the utterance comment (comment end time), Displays the time (comment time) required to utter (reproduce) the utterance comment and the total time (operation time) required to perform the operation. Each time is displayed by the display processing unit 102 based on the information set in each of the setting columns 22 to 31. The comment start time and the comment end time indicate the elapsed time from the start of the reproduction of the video content.

また設定画面21には、映像コンテンツのうち所定のタイミングでキャプチャされる画像(キャプチャ画像)を表示する開始画像表示欄32と終了画像表示欄33とを含む。表示処理部102は、前記操作が開始する時点において表示装置20に表示される映像コンテンツのキャプチャ画像を開始画像表示欄32に表示する。また表示処理部102は、前記コメント終了時間に前記無音時間を付加した時間が経過した時点において表示装置20に表示される映像コンテンツのキャプチャ画像を終了画像表示欄33に表示する。   Further, the setting screen 21 includes a start image display column 32 and an end image display column 33 for displaying an image (captured image) captured at a predetermined timing in the video content. The display processing unit 102 displays the captured image of the video content displayed on the display device 20 at the time when the operation starts, in the start image display column 32. In addition, the display processing unit 102 displays a captured image of the video content displayed on the display device 20 in the end image display column 33 when a time obtained by adding the silence time to the comment end time has elapsed.

初めに、編集作業者は、図5に示す登録画面11において、表示装置20、ロボット装置30、及び映像コンテンツを登録する。ここでは、図7に示すように、「表示装置1」(符号P1参照)、「ロボット1」(符号R1参照)、「ロボット2」(符号R2参照)、及び「ハワイ旅行広告」(符号C1参照)が選択及び登録されたものとする。尚、「表示装置1」は表示装置20に対応し、「ロボット1」はロボット装置30Aに対応し、「ロボット2」はロボット装置30Bに対応するものとする。表示処理部102は、登録画面11の画像表示欄12cに、映像コンテンツC1の最初のシーンの画像D1のサムネイル画像を表示する。画像D1は、本発明の第1画像の一例である。またロボット装置30Aは本発明の第1発話装置の一例であり、ロボット装置30Bは本発明の第2発話装置の一例である。   First, the editing operator registers the display device 20, the robot device 30, and the video content on the registration screen 11 shown in FIG. Here, as shown in FIG. 7, "display device 1" (see reference numeral P1), "robot 1" (see reference numeral R1), "robot 2" (see reference numeral R2), and "Hawaii travel advertisement" (reference numeral C1) Reference) has been selected and registered. Note that “display device 1” corresponds to the display device 20, “robot 1” corresponds to the robot device 30A, and “robot 2” corresponds to the robot device 30B. The display processing unit 102 displays a thumbnail image of the image D1 of the first scene of the video content C1 in the image display field 12c of the registration screen 11. Image D1 is an example of a first image of the present invention. The robot device 30A is an example of a first utterance device of the present invention, and the robot device 30B is an example of a second utterance device of the present invention.

次に、編集作業者は、ロボット装置30Aの操作設定を行うために図7に示す設定欄13cの枠内領域を押下する。すると、図6に示す設定画面21が表示される。尚、設定画面21は、登録画面11に隣接して同一画面上に表示されてもよいし、登録画面11が非表示状態になって設定画面21だけが表示されてもよい。   Next, the editing operator presses an area within the frame of the setting column 13c shown in FIG. 7 in order to perform operation setting of the robot device 30A. Then, a setting screen 21 shown in FIG. 6 is displayed. The setting screen 21 may be displayed on the same screen adjacent to the registration screen 11, or the registration screen 11 may be in a non-display state and only the setting screen 21 may be displayed.

編集作業者は、図6に示す設定画面21において、例えば、操作名設定欄22に「操作001」を入力し、操作位置設定欄23で「最初」を選択し、ロボット設定欄24で「ロボット1」を選択し、速度設定欄26で「普通」を選択し、前無音時間設定欄27及び後無音時間設定欄28に「0秒」を入力する。受付処理部101が、編集作業者により入力された前記情報を取得すると、表示処理部102が、前記情報に基づく表示を行う(図8参照)。また図8に示すように、開始画像表示欄32に画像D1のキャプチャ画像が表示される。尚、速度設定欄26、前無音時間設定欄27及び後無音時間設定欄28には、予め設定された値(初期設定値)が自動的に入力されてもよい。   On the setting screen 21 shown in FIG. 6, for example, the editing operator inputs “operation 001” in the operation name setting field 22, selects “first” in the operation position setting field 23, and selects “robot” in the robot setting field 24. "1" is selected, "normal" is selected in the speed setting field 26, and "0 second" is input in the front silence time setting field 27 and the rear silence time setting field 28. When the reception processing unit 101 acquires the information input by the editing operator, the display processing unit 102 performs display based on the information (see FIG. 8). As shown in FIG. 8, a captured image of the image D1 is displayed in the start image display column 32. A preset value (initial setting value) may be automatically input to the speed setting field 26, the preceding silent time setting field 27, and the rear silent time setting field 28.

タイミング検出処理部103は、登録された映像コンテンツC1に基づいて、画像D1が次の画像(画像D2)に切り替わる切り替わりタイミングを検出する。画像D2は、本発明の第2画像の一例である。制御部100は、前記切り替わりタイミングに基づいて、画像D1が表示されてから画像D2が表示されるまでの時間を算出し、算出した時間を「操作001」の操作時間(例えば「1分0秒」)に設定する。これにより、図8に示すように、操作時間に「1分0秒」が表示される。また、「操作001」は最初の操作であるためコメント開始時間には「0秒」が表示される。   The timing detection processing unit 103 detects a switching timing at which the image D1 switches to the next image (image D2) based on the registered video content C1. Image D2 is an example of the second image of the present invention. The control unit 100 calculates the time from when the image D1 is displayed to when the image D2 is displayed based on the switching timing, and uses the calculated time as the operation time of the “operation 001” (for example, “1 minute 0 second”). )). Thereby, as shown in FIG. 8, "1 minute 0 second" is displayed as the operation time. Since “operation 001” is the first operation, “0 second” is displayed as the comment start time.

次に、編集作業者は、図8に示す設定画面21において、例えば、コメント設定欄25に発話コメントM1として「こんにちは、今日はハワイツアーについて紹介します。」を入力し、動作設定欄31に「おじぎをする」を入力する(図9参照)。発話コメントM1は、本発明の第1発話コメントの一例である。表示処理部102は、コメント開始時間、コメント終了時間、コメント時間、及び操作時間を設定画面21に表示する。   Next, edit the worker, in the setting screen 21 shown in FIG. 8, for example, "Hello, today will introduce the Hawaii tour." In the comment setting column 25 as the utterance comment M1 to enter the, the operation setting column 31 Enter "bow" (see FIG. 9). The utterance comment M1 is an example of the first utterance comment of the present invention. The display processing unit 102 displays the comment start time, the comment end time, the comment time, and the operation time on the setting screen 21.

ここで、発話時間算出処理部104は、発話コメントM1の再生に要するコメント時間(本発明の発話時間の一例)を算出する。例えば、発話時間算出処理部104は、発話コメントM1の文字数と、速度設定欄26のコメント速度(本発明の発話速度の一例)とに基づいてコメント時間を算出する。ここでは、算出された前記コメント時間を「55秒」とする。最初の操作「操作001」では、コメント終了時間は、コメント時間と同様に「55秒」となる。表示処理部102は、図9に示すように、前記各時間を設定画面21に表示する。   Here, the speech time calculation processing unit 104 calculates a comment time (an example of the speech time of the present invention) required for reproducing the speech comment M1. For example, the utterance time calculation processing unit 104 calculates the comment time based on the number of characters of the utterance comment M1 and the comment speed in the speed setting column 26 (an example of the utterance speed of the present invention). Here, the calculated comment time is set to “55 seconds”. In the first operation “operation 001”, the comment end time is “55 seconds”, like the comment time. The display processing unit 102 displays the respective times on the setting screen 21 as shown in FIG.

また、表示処理部102は、前記コメント終了時間に前記無音時間を付加した時間が経過した時点における画像のキャプチャ画像を終了画像表示欄33に表示する(図10参照)。ここでは、未だ無音時間が設定されておらず、発話コメントM1の発話(再生)が終了するタイミング(コメント終了時間)が、「操作001」の操作時間(「1分0秒」)が終了するタイミングより前であるため、表示処理部102は、画像D2に切り替わる前の画像(画像D1)のキャプチャ画像を終了画像表示欄33に表示する。ここでは、終了画像表示欄33に表示される画像D1は、開始画像表示欄32に表示される画像D1と同じシーン(コンセプト)の内容となる。すなわち、ハワイの景色の画像D1のキャプチャ画像が表示される。   Further, the display processing unit 102 displays the captured image of the image at the time when the time obtained by adding the silence time to the comment end time has elapsed in the end image display column 33 (see FIG. 10). Here, the silence time has not yet been set, and the timing (comment end time) at which the utterance (playback) of the utterance comment M1 ends is the operation time (“1 minute 0 second”) of “operation 001”. Since it is before the timing, the display processing unit 102 displays the captured image of the image (image D1) before switching to the image D2 in the end image display column 33. Here, the image D1 displayed in the end image display column 33 has the same scene (concept) content as the image D1 displayed in the start image display column 32. That is, a captured image of the image D1 of the scenery of Hawaii is displayed.

次に、編集作業者は、図10に示す設定画面21において、無音時間自動算出ボタン29を押下する。すると、無音時間算出処理部105は、タイミング検出処理部103により検出される切り替わりタイミングと、発話時間算出処理部104により算出される前記コメント時間とに基づいて、画像D1に対応する無音時間を算出する。例えば、無音時間算出処理部105は、前記操作時間(「1分0秒」)と前記コメント時間(「55秒」)との差(「5秒」)を、画像D1に対応する無音時間に設定する。   Next, the editing operator presses the silent time automatic calculation button 29 on the setting screen 21 shown in FIG. Then, the silence time calculation processing unit 105 calculates a silence time corresponding to the image D1 based on the switching timing detected by the timing detection processing unit 103 and the comment time calculated by the utterance time calculation processing unit 104. I do. For example, the silence time calculation processing unit 105 determines the difference (“5 seconds”) between the operation time (“1 minute 0 seconds”) and the comment time (“55 seconds”) as the silence time corresponding to the image D1. Set.

無音時間が算出されると、表示処理部102は、図11に示すように、当該無音時間(「5秒」)を、後無音時間設定欄28に設定する。また、表示処理部102は、映像コンテンツにおいて、前記コメント終了時間(「55秒」)に前記無音時間(「5秒」)を付加した時間(「1分0秒」)が経過した時点における画像(画像D2)のキャプチャ画像を終了画像表示欄33に表示する(図11参照)。   When the silence time is calculated, the display processing unit 102 sets the silence time (“5 seconds”) in the post-silence time setting column 28 as shown in FIG. In addition, the display processing unit 102 determines the image at the time when the time (“1 minute 0 seconds”) obtained by adding the silence time (“5 seconds”) to the comment end time (“55 seconds”) in the video content has elapsed. The captured image of (image D2) is displayed in the end image display column 33 (see FIG. 11).

以上の処理により、ロボット装置30Aの「操作001」の操作設定が完了する。編集作業者は、続けてロボット装置30の操作設定を行う場合、「追加/編集」ボタンを押下する。   Through the above processing, the operation setting of “operation 001” of the robot device 30A is completed. The editing operator presses the “add / edit” button when performing the operation setting of the robot device 30 subsequently.

編集作業者が「追加/編集」ボタンを押下すると、表示処理部102は、登録画面11を更新して表示部115に表示する。例えば図12に示すように、表示処理部102は、登録画面11において、設定欄13cに「操作001」の発話コメントM1を表示する。また表示処理部102は、登録画面11において、画像D1のサムネイル画像と発話コメントM1を含む設定欄13cとを並べて表示する。また、表示処理部102は、登録画面11の画像表示欄12cに、次の画像D2のサムネイル画像を表示する。   When the editing operator presses the “add / edit” button, the display processing unit 102 updates the registration screen 11 and displays it on the display unit 115. For example, as shown in FIG. 12, the display processing unit 102 displays the utterance comment M1 of “operation 001” in the setting field 13c on the registration screen 11. Further, the display processing unit 102 displays the thumbnail image of the image D1 and the setting column 13c including the utterance comment M1 side by side on the registration screen 11. Further, the display processing unit 102 displays a thumbnail image of the next image D2 in the image display field 12c of the registration screen 11.

図12に示す登録画面11において、編集作業者は、例えばロボット装置30Bの操作設定を行うために設定欄14cの枠内領域を押下する。すると、図6に示す設定画面21が表示される。   On the registration screen 11 shown in FIG. 12, the editing operator presses an area in the frame of the setting column 14c to perform, for example, operation setting of the robot device 30B. Then, a setting screen 21 shown in FIG. 6 is displayed.

編集作業者は、図6に示す設定画面21において、例えば、操作名設定欄22に「操作002」を入力し、操作位置設定欄23に「操作001の次」を入力し、ロボット設定欄24に「ロボット2」を入力し、速度設定欄26に「普通」を入力し、前無音時間設定欄27及び後無音時間設定欄28に「0秒」を入力する。受付処理部101が、入力された前記情報を取得すると、表示処理部102が、前記情報に基づく表示を行う(図13参照)。また図13に示すように、開始画像表示欄32に画像D2のキャプチャ画像が表示される。   On the setting screen 21 shown in FIG. 6, for example, the editing operator inputs “operation 002” in the operation name setting field 22, inputs “next to operation 001” in the operation position setting field 23, and enters the robot setting field 24. , "Normal" is input in the speed setting field 26, and "0 second" is input in the front silent time setting field 27 and the rear silent time setting field 28. When the reception processing unit 101 acquires the input information, the display processing unit 102 performs a display based on the information (see FIG. 13). In addition, as shown in FIG. 13, a captured image of the image D2 is displayed in the start image display column 32.

タイミング検出処理部103は、登録された映像コンテンツC1に基づいて、画像D2が次の画像(画像D3)に切り替わる切り替わりタイミングを検出する。制御部100は、前記切り替わりタイミングに基づいて、画像D2が表示されてから画像D3が表示されるまでの時間を算出し、算出した時間を「操作002」の操作時間(例えば「40秒」)に設定する。これにより、図13に示すように、操作時間に「40秒」が表示される。また、「操作002」は「操作001」の次の操作であるためコメント開始時間には「1分0秒」が表示される。   The timing detection processing unit 103 detects a switching timing at which the image D2 switches to the next image (image D3) based on the registered video content C1. The control unit 100 calculates the time from when the image D2 is displayed to when the image D3 is displayed based on the switching timing, and uses the calculated time as the operation time of “operation 002” (for example, “40 seconds”). Set to. Accordingly, “40 seconds” is displayed as the operation time as shown in FIG. Also, since “operation 002” is the next operation after “operation 001”, “1 minute 0 second” is displayed as the comment start time.

次に、編集作業者は、図13に示す設定画面21において、例えば、コメント設定欄25に発話コメントM2として「このツアーではイルカを見ることができます。」を入力し、動作設定欄31に「手を振る」を入力する(図14参照)。発話コメントM2は、本発明の第2発話コメントの一例である。表示処理部102は、コメント開始時間、コメント終了時間、コメント時間、及び操作時間を設定画面21に表示する。   Next, on the setting screen 21 shown in FIG. 13, the editing operator inputs, for example, “You can see dolphins in this tour.” "Wave your hand" is input (see FIG. 14). The utterance comment M2 is an example of the second utterance comment of the present invention. The display processing unit 102 displays the comment start time, the comment end time, the comment time, and the operation time on the setting screen 21.

発話時間算出処理部104は、発話コメントM2の文字数と、速度設定欄26のコメント速度とに基づいてコメント時間を算出する。ここでは、算出された前記コメント時間を「30秒」とする。この場合、コメント終了時間は「1分30秒」となる。表示処理部102は、図14に示すように、前記各時間を設定画面21に表示する。   The utterance time calculation processing unit 104 calculates the comment time based on the number of characters of the utterance comment M2 and the comment speed in the speed setting column 26. Here, the calculated comment time is “30 seconds”. In this case, the comment end time is “1 minute 30 seconds”. The display processing unit 102 displays the respective times on the setting screen 21 as shown in FIG.

また、表示処理部102は、前記コメント終了時間に前記無音時間を付加した時間が経過した時点における画像のキャプチャ画像を終了画像表示欄33に表示する(図15参照)。ここでは、未だ無音時間が設定されておらず、発話コメントM2の発話(再生)が終了するタイミング(コメント終了時間)が、「操作002」の操作時間(「40秒」)が終了するタイミングより前であるため、表示処理部102は、画像D3に切り替わる前の画像(画像D2)のキャプチャ画像を終了画像表示欄33に表示する。ここでは、終了画像表示欄33に表示される画像D2は、開始画像表示欄32に表示される画像D2と同じシーン(コンセプト)の内容となる。すなわち、イルカを紹介する画像D2のキャプチャ画像が表示される。   Further, the display processing unit 102 displays the captured image of the image at the time when the time obtained by adding the silence time to the comment end time has elapsed in the end image display column 33 (see FIG. 15). Here, the silence time has not yet been set, and the timing (comment end time) at which the utterance (playback) of the utterance comment M2 ends is greater than the timing at which the operation time (“40 seconds”) of “operation 002” ends. Since it is before, the display processing unit 102 displays the captured image of the image (image D2) before switching to the image D3 in the end image display column 33. Here, the image D2 displayed in the end image display column 33 has the same scene (concept) content as the image D2 displayed in the start image display column 32. That is, a captured image of the image D2 introducing the dolphin is displayed.

次に、編集作業者は、図15に示す設定画面21において、無音時間自動算出ボタン29を押下する。すると、無音時間算出処理部105は、タイミング検出処理部103により検出される切り替わりタイミングと、発話時間算出処理部104により算出される前記コメント時間とに基づいて、画像D2に対応する無音時間を算出する。例えば、無音時間算出処理部105は、前記操作時間(「40秒」)と前記コメント時間(「30秒」)との差(「10秒」)を、画像D2に対応する無音時間に設定する。   Next, the editing operator presses a silent time automatic calculation button 29 on the setting screen 21 shown in FIG. Then, the silence time calculation processing unit 105 calculates a silence time corresponding to the image D2 based on the switching timing detected by the timing detection processing unit 103 and the comment time calculated by the speech time calculation processing unit 104. I do. For example, the silence time calculation processing unit 105 sets a difference (“10 seconds”) between the operation time (“40 seconds”) and the comment time (“30 seconds”) as a silence time corresponding to the image D2. .

無音時間が算出されると、表示処理部102は、図16に示すように、当該無音時間(「10秒」)を、後無音時間設定欄28に設定する。また、表示処理部102は、映像コンテンツにおいて、前記コメント終了時間(「1分30秒」)に前記無音時間(「10秒」)を付加した時間(「1分40秒」)が経過した時点における画像(画像D3)のキャプチャ画像を終了画像表示欄33に表示する(図16参照)。   When the silence time is calculated, the display processing unit 102 sets the silence time (“10 seconds”) in the post-silence time setting column 28 as shown in FIG. Also, the display processing unit 102 determines whether or not the time (“1 minute and 40 seconds”) obtained by adding the silence time (“10 seconds”) to the comment end time (“1 minute and 30 seconds”) in the video content has elapsed. Is displayed in the end image display column 33 (see FIG. 16).

以上の処理により、ロボット装置30Bの「操作002」の操作設定が完了する。編集作業者は、続けてロボット装置30の操作設定を行う場合、「追加/編集」ボタンを押下する。   Through the above processing, the operation setting of “operation 002” of the robot device 30B is completed. The editing operator presses the “add / edit” button when performing the operation setting of the robot device 30 subsequently.

編集作業者が「追加/編集」ボタンを押下すると、表示処理部102は、登録画面11を更新して表示部115に表示する。例えば図17に示すように、表示処理部102は、登録画面11において、設定欄14cに「操作002」の発話コメントM2を表示する。また表示処理部102は、登録画面11において、画像D2のサムネイル画像と発話コメントM2を含む設定欄14cとを並べて表示する。また、表示処理部102は、登録画面11の画像表示欄12cに、次の画像D3のサムネイル画像を表示する。以降、上記処理が繰り返されて、映像コンテンツC1に対するロボット装置30A,30Bの操作設定が行われる。これにより、映像コンテンツデータd1に対応するロボット動作データd2が作成される。   When the editing operator presses the “add / edit” button, the display processing unit 102 updates the registration screen 11 and displays it on the display unit 115. For example, as shown in FIG. 17, the display processing unit 102 displays the utterance comment M2 of “operation 002” in the setting field 14c on the registration screen 11. Further, the display processing unit 102 displays the thumbnail image of the image D2 and the setting column 14c including the utterance comment M2 side by side on the registration screen 11. Further, the display processing unit 102 displays a thumbnail image of the next image D3 in the image display field 12c of the registration screen 11. Thereafter, the above processing is repeated, and the operation setting of the robot devices 30A and 30B for the video content C1 is performed. Thereby, the robot operation data d2 corresponding to the video content data d1 is created.

図18は、映像コンテンツC1に対応するロボット装置30A,30Bの操作設定が完了した場合の登録画面11の一例を示す説明図である。尚、図18において、設定欄13cの各画像D1,D2,D3に対応する発話コメントM1,M2,M3それぞれの表示枠の幅は、各操作「操作001」、「操作002」、「操作003」の操作時間に応じた長さに設定される。   FIG. 18 is an explanatory diagram illustrating an example of the registration screen 11 when the operation settings of the robot devices 30A and 30B corresponding to the video content C1 have been completed. In FIG. 18, the width of the display frame of each of the utterance comments M1, M2, and M3 corresponding to each of the images D1, D2, and D3 in the setting column 13c corresponds to each of the operations “operation 001”, “operation 002”, and “operation 003”. Is set to a length corresponding to the operation time.

図18に示す登録画面11において、編集作業者が送信ボタン16を押下した場合、コンテンツ配信装置10のデータ送信部140は、前記操作設定に対応する映像コンテンツデータd1とロボット動作データd2とを表示装置20に送信する。ロボット動作データd2には、上述の処理により設定された「操作001」、「操作002」、「操作003」の操作設定に対応するロボット動作・発話ファイルf1,f2,f3が含まれる。   When the editing operator presses the send button 16 on the registration screen 11 shown in FIG. 18, the data transmission unit 140 of the content distribution device 10 displays the video content data d1 and the robot operation data d2 corresponding to the operation setting. Transmit to the device 20. The robot operation data d2 includes robot operation / speech files f1, f2, and f3 corresponding to the operation settings of “operation 001”, “operation 002”, and “operation 003” set by the above-described processing.

図18に示す登録画面11によれば、編集作業者は、映像コンテンツC1に含まれる複数の画像D1,D2,D3の切り替わりタイミングと、それぞれの画像D1,D2,D3に対応する発話コメントM1,M2、M3の内容とを容易に把握することができる。   According to the registration screen 11 shown in FIG. 18, the editing operator determines the switching timing of the plurality of images D1, D2, and D3 included in the video content C1, and the utterance comment M1 corresponding to each of the images D1, D2, and D3. The contents of M2 and M3 can be easily grasped.

[表示装置による映像コンテンツの表示処理]
表示装置20では、登録された映像コンテンツC1の映像コンテンツデータd1が実行される。
[Display processing of video content by display device]
In the display device 20, the video content data d1 of the registered video content C1 is executed.

表示装置20は、サイネージ再生ソフトウェア232によって、映像コンテンツデータ記憶領域に記憶された映像コンテンツC1の映像コンテンツデータd1を実行し、ロボット動作データ記憶領域234に記憶されたロボット動作データd2をロボット装置30A,30Bに送信する。具体的には、表示装置20は、映像コンテンツデータd1の再生処理を実行し、「操作001」及び「操作003」に対応するロボット動作・発話ファイルf1,f3をロボット装置30Aに送信し、「操作002」に対応するロボット動作・発話ファイルf2をロボット装置30Bに送信する。   The display device 20 executes the video content data d1 of the video content C1 stored in the video content data storage area by the signage reproduction software 232, and transfers the robot motion data d2 stored in the robot motion data storage area 234 to the robot device 30A. , 30B. Specifically, the display device 20 executes the reproduction process of the video content data d1, transmits the robot operation / speech files f1 and f3 corresponding to “operation 001” and “operation 003” to the robot device 30A, The robot operation / speech file f2 corresponding to “operation 002” is transmitted to the robot device 30B.

表示装置20では、映像コンテンツデータd1が実行されることにより、映像コンテンツC1が表示部220に表示(再生)される。尚、表示装置20における映像コンテンツの具体的な表示処理は、周知の技術を適用することができる。   In the display device 20, the video content C1 is displayed (reproduced) on the display unit 220 by executing the video content data d1. In addition, for the specific display processing of the video content on the display device 20, a known technique can be applied.

[表示装置によるロボット動作データの送信処理]
ここで、表示装置20がロボット動作データd2をロボット装置30に送信する処理の手順の一例について、図19のフローチャートを用いて説明する。ロボット動作データd2には、ロボット動作・発話ファイルf1,f2,f3が含まれるものとする。
[Transmission processing of robot operation data by display device]
Here, an example of a procedure of a process in which the display device 20 transmits the robot operation data d2 to the robot device 30 will be described with reference to a flowchart of FIG. It is assumed that the robot operation data d2 includes the robot operation / utterance files f1, f2, and f3.

先ず、表示装置20が、例えばロボット装置30A(「ロボット1」)に対して通信処理を実行すると、表示装置20は、ロボット動作・発話ファイルf1の読み込みを行う(ステップS101)。次に、表示装置20は、読み込んだロボット動作・発話ファイルf1にロボットID(IPアドレス)が登録されているか否かを判断する(ステップS102)。   First, when the display device 20 executes a communication process with, for example, the robot device 30A (“Robot 1”), the display device 20 reads the robot operation / speech file f1 (step S101). Next, the display device 20 determines whether or not the robot ID (IP address) is registered in the read robot operation / speech file f1 (step S102).

読み込んだロボット動作・発話ファイルf1にロボットIDが登録されている場合(S102:YES)、表示装置20は、読み込んだロボット動作・発話ファイルf1からロボット1(ロボット装置30A)の動作データ(動作ファイル)を抽出する(ステップS103)。   When the robot ID is registered in the read robot operation / speech file f1 (S102: YES), the display device 20 displays the operation data (operation file) of the robot 1 (robot device 30A) from the read robot operation / speech file f1. ) Is extracted (step S103).

一方、読み込んだロボット動作・発話ファイルf1にロボットIDが登録されていない場合(S102:NO)、ロボット1の動作処理は終了する。   On the other hand, when the robot ID is not registered in the read robot operation / speech file f1 (S102: NO), the operation processing of the robot 1 ends.

ステップS104において、表示装置20は、読み込んだロボット動作・発話ファイルf1からロボット1(ロボット装置30A)の発話データ(発話ファイル)を抽出する。次に、表示装置20は、接続先のロボット1と接続を確立して(ステップS105)、動作データ及び発話データを送信する(ステップS106)。最後に、表示装置20は、ロボット1との接続を終了する(ステップS107)。表示装置20は、ロボット2に対しても上述の処理を実行する。   In step S104, the display device 20 extracts utterance data (an utterance file) of the robot 1 (the robot device 30A) from the read robot operation / utterance file f1. Next, the display device 20 establishes a connection with the connection destination robot 1 (step S105), and transmits the motion data and the utterance data (step S106). Finally, the display device 20 ends the connection with the robot 1 (step S107). The display device 20 performs the above-described processing on the robot 2 as well.

以上のようにして、表示装置20からロボット装置30へのロボット動作データd2の通信処理が実行される。   As described above, the communication processing of the robot operation data d2 from the display device 20 to the robot device 30 is executed.

[ロボット装置の動作処理]
ロボット装置30は、サイネージ再生ソフトウェア232によって、表示装置20から送信されるロボット動作データd2に基づいて動作及び発話を出力するように制御されている。
[Robot device operation processing]
The robot device 30 is controlled by the signage reproduction software 232 to output an operation and an utterance based on the robot operation data d2 transmitted from the display device 20.

具体的には、表示装置20において、映像コンテンツデータd1が実行(再生)されると、表示装置20からロボット装置30Aに対してロボット動作データd2(ロボット動作・発話ファイルf1,f3)が送信され、表示装置20からロボット装置30Bに対してロボット動作データd2(ロボット動作・発話ファイルf2)が送信される。   Specifically, when the video content data d1 is executed (reproduced) on the display device 20, the robot motion data d2 (robot motion / speech files f1 and f3) is transmitted from the display device 20 to the robot device 30A. Then, the robot operation data d2 (robot operation / speech file f2) is transmitted from the display device 20 to the robot device 30B.

ロボット装置30A,30Bは、表示装置20から送信されるロボット動作データd2のロボット動作・発話ファイルを実行するように制御されている。ロボット装置30Aはロボット動作・発話ファイルf1を実行し、続いてロボット装置30Bはロボット動作・発話ファイルf2を実行し、続いてロボット装置30Aはロボット動作・発話ファイルf3を実行する。各ロボット装置30は、ロボット動作・発話ファイルの動作データに応じて動作し、発話データに応じて音声を出力(発話)する。   The robot devices 30A and 30B are controlled to execute the robot operation / speech file of the robot operation data d2 transmitted from the display device 20. The robot device 30A executes the robot operation / speech file f1, the robot device 30B executes the robot operation / speech file f2, and then the robot device 30A executes the robot operation / speech file f3. Each robot device 30 operates according to the operation data of the robot operation / speech file, and outputs (utters) a voice according to the utterance data.

このように、コンテンツ配信システム1において、コンテンツ配信装置10は映像コンテンツデータd1及びロボット動作データd2を表示装置20に配信し、表示装置20は、映像コンテンツC1を再生するときに、ロボット装置30A,30Bにロボット動作データd2を送信する。これにより、表示装置20が再生する映像コンテンツC1に同期してロボット装置30A,30Bの動作及び発話を実行することができる。尚、ロボット装置30における具体的な動作処理及び発話処理は、周知の技術を適用することができる。   As described above, in the content distribution system 1, the content distribution device 10 distributes the video content data d1 and the robot operation data d2 to the display device 20, and the display device 20 reproduces the video content C1 when the robot device 30A, The robot operation data d2 is transmitted to 30B. Thus, the operations and utterances of the robot devices 30A and 30B can be executed in synchronization with the video content C1 reproduced by the display device 20. In addition, well-known technology can be applied to specific operation processing and speech processing in the robot device 30.

尚、本発明の発話処理部(本発明の発話部の一例)は、ロボット装置30に発話コメントを発話させる処理を実行するものであり、表示装置20の制御部200により実現されてもよいし、ロボット装置30の制御部300により実現されてもよい。例えば表示装置20の制御部200は、画像D1に対応する発話コメントM1をロボット装置30Aに発話させ、その後、無音時間算出処理部105により算出された無音時間が経過した後に、画像D2に対応する発話コメントM2をロボット装置30Bに発話させる。   The utterance processing unit of the present invention (an example of the utterance unit of the present invention) executes a process of causing the robot device 30 to utter an utterance comment, and may be realized by the control unit 200 of the display device 20. May be realized by the control unit 300 of the robot device 30. For example, the control unit 200 of the display device 20 causes the robot device 30A to utter an utterance comment M1 corresponding to the image D1, and thereafter, after the silence time calculated by the silence time calculation processing unit 105 has elapsed, the control unit 200 corresponds to the image D2. The utterance comment M2 is uttered by the robot device 30B.

第1実施形態に係るコンテンツ配信システム1によれば、ロボット装置30において、映像コンテンツC1に含まれる画像D1,D2,D3の切り替わりタイミングに適切に同期して発話コメントM1,M2,M3を発話させることができる。またコンテンツ配信装置10は、表示装置20に映像コンテンツデータd1及びロボット動作データd2を送信し、コンテンツ配信装置10はロボット装置30の動作タイミングの制御を行わないため、コンテンツ配信システム1の構成を簡略化することができる。   According to the content distribution system 1 according to the first embodiment, the robot device 30 causes the utterance comments M1, M2, and M3 to be uttered appropriately in synchronization with the switching timing of the images D1, D2, and D3 included in the video content C1. be able to. In addition, the content distribution device 10 transmits the video content data d1 and the robot operation data d2 to the display device 20. Since the content distribution device 10 does not control the operation timing of the robot device 30, the configuration of the content distribution system 1 is simplified. Can be

図20は、比較例に係る、映像コンテンツC1の画像D1,D2,D3の切り替わりタイミングと、発話コメントM1,M2,M3の発話タイミングとを示す説明図である。図20に示すように、無音時間が適切に設定されていない場合、発話コメントM1が発話(再生)された後、画像が画像D1から画像D2に切り替わる前に、画像D2に対応する発話コメントM2の発話(再生)が開始されてしまう。これにより、表示装置20の表示内容と、ロボット装置30の発話内容とが異なってしまう問題が生じる。   FIG. 20 is an explanatory diagram showing the switching timing of the images D1, D2, and D3 of the video content C1 and the utterance timing of the utterance comments M1, M2, and M3 according to the comparative example. As shown in FIG. 20, when the silence time is not properly set, after the utterance comment M1 is uttered (reproduced), before the image is switched from the image D1 to the image D2, the utterance comment M2 corresponding to the image D2. Is started (reproduced). This causes a problem that the display content of the display device 20 differs from the utterance content of the robot device 30.

これに対して、第1実施形態に係るコンテンツ配信システム1によれば、無音時間算出処理部105が、例えば画像D1に対応する発話コメントM1のコメント時間と、画像D1から画像D2に切り替わる切り替わりタイミングとに基づいて、所定の無音時間を算出する。そして、ロボット装置30は、算出された無音時間に基づく発話タイミングで発話コメントM2を発話する。例えば図21に示すように、画像D1から画像D2に切り替わり、画像D2の表示が開始するタイミングで、発話コメントM2の発話が開始される。これにより、簡易な構成により、表示装置20が画像を表示する表示タイミングと、ロボット装置30が当該画像に対応する発話コメントを発話するタイミングとを合わせることができる。すなわち、簡易な構成により映像コンテンツの再生に同期させてロボット装置に発話させることが可能となる。   On the other hand, according to the content distribution system 1 according to the first embodiment, the silent time calculation processing unit 105 determines, for example, the comment time of the utterance comment M1 corresponding to the image D1 and the switching timing at which the image D1 is switched to the image D2. , A predetermined silence period is calculated. Then, the robot device 30 utters the utterance comment M2 at the utterance timing based on the calculated silence period. For example, as shown in FIG. 21, at the timing when the image D1 is switched to the image D2 and the display of the image D2 starts, the utterance of the utterance comment M2 is started. Thus, with a simple configuration, the display timing at which the display device 20 displays an image and the timing at which the robot device 30 utters an utterance comment corresponding to the image can be matched. That is, with a simple configuration, it is possible to cause the robot apparatus to speak in synchronization with the reproduction of the video content.

[第2実施形態]
第2実施形態に係るコンテンツ配信システム1について説明する。尚、第1実施形態と同一の構成については説明を省略する。
[Second embodiment]
A content distribution system 1 according to the second embodiment will be described. The description of the same configuration as that of the first embodiment is omitted.

第2実施形態に係るコンテンツ配信システム1では、編集作業者が、図5に示す登録画面11において、映像コンテンツC1を登録した場合に、図22に示すように、表示処理部102が、登録画面11の画像表示欄12cに、映像コンテンツC1に含まれる全ての画像D1,D2,D3のサムネイル画像を表示する。また、表示処理部102は、各画像D1,D2,D3に対応するロボット装置30A(「ロボット1」)の操作設定の設定欄13cに含まれる「セル1−1」、「セル1−2」、「セル1−3」と、各画像D1,D2,D3に対応するロボット装置30B(「ロボット2」)の操作設定の設定欄14cに含まれる「セル2−1」、「セル2−2」、「セル2−3」とを表示する。表示処理部102は、全ての画像D1,D2,D3のサムネイル画像と、設定欄13cに含まれる「セル1−1」、「セル1−2」、「セル1−3」と、設定欄14cに含まれる「セル2−1」、「セル2−2」、「セル2−3」とを並べて表示する。各セルには、ロボット装置30A,30Bの操作設定を登録することが可能となっている。   In the content distribution system 1 according to the second embodiment, when the editing operator registers the video content C1 on the registration screen 11 shown in FIG. 5, as shown in FIG. The thumbnail images of all the images D1, D2, and D3 included in the video content C1 are displayed in the eleventh image display column 12c. In addition, the display processing unit 102 performs “cell 1-1” and “cell 1-2” included in the setting column 13c of the operation setting of the robot device 30A (“robot 1”) corresponding to each of the images D1, D2, and D3. , “Cell 1-3”, and “Cell 2-1”, “Cell 2-2” included in the setting column 14c of the operation setting of the robot device 30B (“Robot 2”) corresponding to each of the images D1, D2, and D3. "And" Cell 2-3 "are displayed. The display processing unit 102 generates thumbnail images of all the images D1, D2, and D3, “cell 1-1”, “cell 1-2”, “cell 1-3” included in the setting column 13c, and the setting column 14c. , "Cell 2-1", "cell 2-2", and "cell 2-3" are displayed side by side. The operation settings of the robot devices 30A and 30B can be registered in each cell.

図22において、各セルの幅は、画像D1,D2,D3に対応する操作設定の操作時間に応じた長さに設定される。   In FIG. 22, the width of each cell is set to a length corresponding to the operation time of the operation setting corresponding to the images D1, D2, and D3.

編集作業者が、ロボット装置30Aの操作設定を行うために図22に示す「セル1−1」を押下する。すると、図23に示す設定画面41が表示される。設定画面41のセル名欄42には「セル1−1」が自動入力され、ロボット設定欄44には「ロボット1」が自動入力される。また表示処理部102は、開始画像表示欄52に画像D1のキャプチャ画像を表示し、終了画像表示欄53に画像D2のキャプチャ画像を表示する。   The editing operator presses “Cell 1-1” shown in FIG. 22 to perform the operation setting of the robot device 30A. Then, a setting screen 41 shown in FIG. 23 is displayed. “Cell 1-1” is automatically input to the cell name column 42 of the setting screen 41, and “Robot 1” is automatically input to the robot setting column 44. Further, the display processing unit 102 displays the captured image of the image D1 in the start image display column 52, and displays the captured image of the image D2 in the end image display column 53.

またタイミング検出処理部103は、登録された映像コンテンツC1に基づいて、切り替わりタイミングを検出し、制御部100は、前記切り替わりタイミングに基づいて、「セル1−1」の操作時間(例えば「1分0秒」)に設定する。   Further, the timing detection processing unit 103 detects the switching timing based on the registered video content C1, and the control unit 100 determines the operation time of the “cell 1-1” (for example, “1 minute”) based on the switching timing. 0 seconds ").

また無音時間算出処理部105は、前記切り替わりタイミングと、発話時間算出処理部104により算出されるコメント時間とに基づいて、画像D1に対応する無音時間を算出する。ここでは、未だ発話コメントが入力されていないため、コメント時間は「0秒」となり、無音時間として「1分0秒」が設定画面41に表示される。   The silence time calculation processing unit 105 calculates a silence time corresponding to the image D1 based on the switching timing and the comment time calculated by the speech time calculation processing unit 104. Here, since the utterance comment has not been input yet, the comment time is “0 second”, and “1 minute 0 second” is displayed on the setting screen 41 as the silence time.

次に、編集作業者は、図23に示す設定画面41において、例えば、コメント設定欄45に発話コメントM1として「こんにちは、今日はハワイツアーについて紹介します。」を入力し、動作設定欄51に「おじぎをする」を入力する(図24参照)。表示処理部102は、コメント開始時間、コメント終了時間、コメント時間、及び操作時間を設定画面41に表示する。また、無音時間算出処理部105は、前記切り替わりタイミング(前記操作時間(「1分0秒」))と、前記コメント時間(「55秒」)とに基づいて、画像D1に対応する無音時間(「5秒」)を算出する。表示処理部102は、図24に示すように、前記各時間を設定画面41に表示する。   Next, edit the worker, in the setting screen 41 shown in FIG. 23, for example, "Hello, today will introduce the Hawaii tour." In the comment setting column 45 as the utterance comment M1 to enter the, the operation setting field 51 "Do bow" is input (see FIG. 24). The display processing unit 102 displays the comment start time, the comment end time, the comment time, and the operation time on the setting screen 41. In addition, the silence time calculation processing unit 105 determines the silence time (“55 minutes”) corresponding to the image D1 based on the switching timing (the operation time (“1 minute 0 seconds”)) and the comment time (“55 seconds”). "5 seconds") is calculated. The display processing unit 102 displays the respective times on the setting screen 41 as shown in FIG.

以上の処理により、ロボット装置30Aの「セル1−1」の操作設定が完了する。編集作業者は、続けて操作設定を行う場合、「追加/編集」ボタンを押下する。   By the above processing, the operation setting of “cell 1-1” of the robot device 30A is completed. The editing operator presses the “add / edit” button when performing the operation setting subsequently.

編集作業者が「追加/編集」ボタンを押下すると、表示処理部102は、登録画面11を更新して表示部115に表示する。例えば図25に示すように、表示処理部102は、登録画面11の設定欄13cの「セル1−1」に発話コメントM1を表示する。   When the editing operator presses the “add / edit” button, the display processing unit 102 updates the registration screen 11 and displays it on the display unit 115. For example, as shown in FIG. 25, the display processing unit 102 displays the utterance comment M1 in “cell 1-1” in the setting field 13c of the registration screen 11.

図25に示す登録画面11において、編集作業者は、例えばロボット装置30Bの操作設定を行うために設定欄14cの「セル2−2」を押下する。以降は、「セル1−1」と同様の操作によりロボット装置30A,30Bの操作設定が行われる。これにより、映像コンテンツデータd1に対応するロボット動作データd2が作成される。ロボット動作データd2には、上述の処理により設定された各セルの操作設定に対応するロボット動作・発話ファイルが含まれる。   In the registration screen 11 shown in FIG. 25, the editing operator presses “cell 2-2” in the setting column 14c to perform operation setting of the robot device 30B, for example. Thereafter, the operation setting of the robot devices 30A and 30B is performed by the same operation as in the “cell 1-1”. Thereby, the robot operation data d2 corresponding to the video content data d1 is created. The robot operation data d2 includes a robot operation / utterance file corresponding to the operation setting of each cell set by the above processing.

尚、第2実施形態に係るコンテンツ配信システム1では、画像D1に対して、ロボット装置30A,30Bそれぞれの操作設定を行うことができる。これにより、画像D1が表示装置20に表示(再生)されている間に、ロボット装置30A,30Bそれぞれに、同一又は異なる発話コメントを、同一又は異なるタイミングで発話させることができる。例えば、画像D1の操作時間の前半ではロボット装置30Aに発話コメントM1を発話させ、画像D1の操作時間の後半ではロボット装置30Bに発話コメントM1とは異なる内容の発話コメントを発話させてもよい。   In the content distribution system 1 according to the second embodiment, the operation settings of the robot devices 30A and 30B can be performed on the image D1. Thus, while the image D1 is being displayed (reproduced) on the display device 20, the robot devices 30A and 30B can make the same or different utterance comments utter at the same or different timing. For example, the first half of the operation time of the image D1 may cause the robot device 30A to utter the utterance comment M1, and the second half of the operation time of the image D1 may cause the robot device 30B to utter an utterance comment having a content different from the utterance comment M1.

第2実施形態に係るコンテンツ配信システム1によれば、第1実施形態に係るコンテンツ配信システム1と同様に、簡易な構成により、表示装置20が画像を表示する表示タイミングと、ロボット装置30が当該画像に対応する発話コメントを発話するタイミングとを合わせることができる。また、第2実施形態に係るコンテンツ配信システム1では、連続する発話コメント同士の間に自動的に無音時間が設定されるため、より簡単に表示タイミングと発話タイミングとを合わせることができる。   According to the content distribution system 1 according to the second embodiment, similarly to the content distribution system 1 according to the first embodiment, the display timing at which the display device 20 displays an image and the robot device 30 The timing at which the utterance comment corresponding to the image is uttered can be matched. Further, in the content distribution system 1 according to the second embodiment, the silent time is automatically set between consecutive utterance comments, so that the display timing and the utterance timing can be more easily matched.

本発明に係るコンテンツ配信システムは、上述の各実施形態に限定されない。   The content distribution system according to the present invention is not limited to the above embodiments.

他の実施形態として、表示処理部102は、図26に示すように、映像コンテンツC1に対応するロボット装置30A,30Bの操作設定が完了した場合の登録画面11において、発話コメントM1,M2,M3を含むそれぞれの設定欄13c(表示枠)の幅をそれぞれのコメント時間に応じた長さで表示させてもよい。また、表示処理部102は、図26に示すように、各設定欄13cに隣接して無音時間を表す領域N1,N2,N3を、無音時間の長さに応じた幅t1,t2,t3で表示させてもよい。これにより、編集作業者は、登録画面11により、直感的に発話コメント及び無音時間の割合(バランス)を把握することができる。   As another embodiment, as shown in FIG. 26, the display processing unit 102 displays the utterance comments M1, M2, and M3 on the registration screen 11 when the operation setting of the robot devices 30A and 30B corresponding to the video content C1 is completed. May be displayed in a length corresponding to each comment time. Further, as shown in FIG. 26, the display processing unit 102 sets the regions N1, N2, and N3 representing silence periods adjacent to the setting columns 13c with widths t1, t2, and t3 corresponding to the length of silence periods. It may be displayed. Thus, the editing operator can intuitively grasp the ratio (balance) of the uttered comment and the silence time on the registration screen 11.

また表示処理部102は、図26に示す登録画面11において、画像D1,D2,D3の開始又は終了時間T0〜T3を表示してもよい。   The display processing unit 102 may display the start or end times T0 to T3 of the images D1, D2, and D3 on the registration screen 11 shown in FIG.

また他の実施形態として、図26に示す登録画面11において、編集作業者が発話コメントM1,M2,M3を含む設定欄(表示枠)の幅を変化させた場合に、発話時間算出処理部104が、コメント時間を変化後の幅に応じた時間に変更し、無音時間算出処理部105が、無音時間を変化後の幅に応じた時間に変更する。例えば、編集作業者は、マウスにより前記設定欄の右辺をドラッグアンドドロップ操作して、前記設定欄の横幅を変化させる。この構成によれば、登録画面11において、容易に発話コメント及び無音時間の割合を変更することができる。尚、この構成では、コメント時間の変更に伴って、コメント速度が自動的に変更される。   As another embodiment, in the registration screen 11 shown in FIG. 26, when the editor changes the width of a setting column (display frame) including the utterance comments M1, M2, and M3, the utterance time calculation processing unit 104 However, the comment time is changed to a time corresponding to the changed width, and the silent time calculation processing unit 105 changes the silent time to a time corresponding to the changed width. For example, the editing operator changes the width of the setting field by dragging and dropping the right side of the setting field with a mouse. According to this configuration, the ratio of the utterance comment and the silence time can be easily changed on the registration screen 11. In this configuration, the comment speed is automatically changed according to the change of the comment time.

また他の実施形態として、画像の表示が開始してから発話コメントの発話が開始するまでの間の前無音時間は、編集作業者により前無音時間設定欄27に入力されてもよいし、予め設定されてもよい。前無音時間が設定される場合、無音時間算出処理部105は、タイミング検出処理部103により検出される切り替わりタイミングと、発話時間算出処理部104により算出されるコメント時間と、前無音時間とに基づいて、画像に対応する無音時間を算出する。例えば、図27に示す設定画面21において、前無音時間が「2秒」に設定された場合、無音時間算出処理部105は、前記操作時間(「1分0秒」)から、前記コメント時間(「55秒」)と前記無音時間(「2秒」)とを減算した残りの時間(「3秒」)を、画像D1に対応する無音時間に設定する。これにより、画像の表示が開始されてから数秒後(前無音時間の経過後)に当該画像に対応する発話コメントが発話されるため、映像コンテンツに注目させることができる。   Further, as another embodiment, the previous silence time from the start of the image display to the start of the utterance of the utterance comment may be input to the previous silence time setting column 27 by the editing operator, or may be input in advance. It may be set. When the previous silence time is set, the silence time calculation processing unit 105 is based on the switching timing detected by the timing detection processing unit 103, the comment time calculated by the speech time calculation processing unit 104, and the previous silence time. Then, a silent time corresponding to the image is calculated. For example, when the previous silence time is set to “2 seconds” on the setting screen 21 shown in FIG. 27, the silence time calculation processing unit 105 calculates the comment time (“1 minute 0 second”) from the operation time (“1 minute 0 second”). The remaining time (“3 seconds”) obtained by subtracting “55 seconds”) and the silence time (“2 seconds”) is set to the silence time corresponding to the image D1. Thus, the utterance comment corresponding to the image is uttered a few seconds after the display of the image is started (after the previous silence period has elapsed), so that the video content can be noticed.

尚、本発明の無音時間は、映像コンテンツに対応して設定される発話コメントを発話しない時間である。よって、前記無音時間には、例えば、ロボット装置30が前記発話コメントに関連しないコメント又は音楽などを出力する時間、及び、ロボット装置30が動作する動作時間などは含まれない。   Note that the silence period according to the present invention is a period during which no utterance comment set corresponding to video content is uttered. Therefore, the silence time does not include, for example, a time during which the robot device 30 outputs a comment or music that is not related to the utterance comment, an operation time during which the robot device 30 operates, and the like.

以上のように、本発明に係るコンテンツ配信方法は、以下のステップを含む。例えば、コンテンツ配信方法は、表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、を含む。   As described above, the content distribution method according to the present invention includes the following steps. For example, the content distribution method corresponds to a step of detecting a switching timing of switching from a first image to a second image in video content including a plurality of images reproduced by a display device, and corresponding to the first image to be uttered by a speech device. Calculating an utterance time required for reproducing the first utterance comment; calculating a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time; Causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period.

また、本発明に係るコンテンツ配信プログラムは、以下のステップをコンピュータに実行させる。例えば、コンテンツ配信プログラムは、表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、をコンピュータに実行させる。   Further, a content distribution program according to the present invention causes a computer to execute the following steps. For example, the content distribution program corresponds to a step of detecting a timing of switching from a first image to a second image in video content including a plurality of images reproduced by a display device, and corresponding to the first image to be uttered by a speech device. Calculating an utterance time required for reproducing the first utterance comment; calculating a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time; Causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period.

以上のように、本発明は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   As described above, the present invention is not limited to the above-described embodiment, and various changes can be made within the scope shown in the claims. It is clear that those skilled in the art can conceive various changes or modifications within the scope of the claims, that is, appropriately changed without departing from the scope of the present invention. Embodiments obtained by combining technical means are also included in the technical scope of the present invention.

1 :コンテンツ配信システム
10 :コンテンツ配信装置
11 :登録画面
13c :設定欄
14c :設定欄
20 :表示装置
21 :設定画面
30 :ロボット装置
30A :ロボット装置
30B :ロボット装置
100 :制御部
101 :受付処理部
102 :表示処理部
103 :タイミング検出処理部
104 :発話時間算出処理部
105 :無音時間算出処理部
110 :通信部
115 :表示部
120 :映像コンテンツデータ登録部
130 :ロボット動作データ登録部
140 :データ送信部
150 :記憶部
151 :制御プログラム
152 :サイネージ番組編集ソフトウェア
153 :発話編集ソフトウェア
154 :映像コンテンツデータ記憶領域
155 :ロボット動作データ記憶領域
200 :制御部
210 :通信部
220 :表示部
230 :記憶部
231 :制御プログラム
232 :サイネージ再生ソフトウェア
233 :映像コンテンツデータ記憶領域
234 :ロボット動作データ記憶領域
300 :制御部
310 :通信部
320 :音声出力部
330 :記憶部
331 :制御プログラム
332 :ロボット動作データ記憶領域
1: content distribution system 10: content distribution device 11: registration screen 13c: setting field 14c: setting field 20: display device 21: setting screen 30: robot device 30A: robot device 30B: robot device 100: control unit 101: reception processing Unit 102: Display processing unit 103: Timing detection processing unit 104: Utterance time calculation processing unit 105: Silence time calculation processing unit 110: Communication unit 115: Display unit 120: Video content data registration unit 130: Robot operation data registration unit 140: Data transmission unit 150: Storage unit 151: Control program 152: Signage program editing software 153: Utterance editing software 154: Video content data storage area 155: Robot operation data storage area 200: Control unit 210: Communication unit 220: Display unit 230: Record Storage unit 231: Control program 232: Signage reproduction software 233: Video content data storage area 234: Robot operation data storage area 300: Control unit 310: Communication unit 320: Audio output unit 330: Storage unit 331: Control program 332: Robot operation Data storage area

Claims (11)

複数の画像を含む映像コンテンツを再生する表示装置と、前記映像コンテンツに対応する発話コメントを発話する発話装置とを含むコンテンツ配信システムであって、
前記映像コンテンツにおいて第1画像から第2画像に切り替わる切り替わりタイミングを検出するタイミング検出部と、
前記発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を決定する発話時間決定部と、
前記タイミング検出部により検出される前記切り替わりタイミングと、前記発話時間決定部により算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出する無音時間決定部と、
前記無音時間決定部により算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させる発話部と、
を備えるコンテンツ配信システム。
A content distribution system including a display device that reproduces video content including a plurality of images, and an utterance device that utters an utterance comment corresponding to the video content,
A timing detection unit that detects a timing of switching from a first image to a second image in the video content;
An utterance time determining unit that determines an utterance time required to reproduce a first utterance comment corresponding to the first image to be uttered by the utterance device;
A silent time determining unit that calculates a silent time corresponding to the first image based on the switching timing detected by the timing detecting unit and the utterance time calculated by the utterance time determining unit;
An utterance unit that causes the utterance device to utter a second utterance comment corresponding to the second image based on the silence time calculated by the silence time determination unit;
Content distribution system comprising:
前記発話部は、前記第1発話コメントの発話が終了してから前記無音時間が経過した後に、前記第2発話コメントを発話させる、
請求項1に記載のコンテンツ配信システム。
The utterance unit causes the second utterance comment to be uttered after the silence period has elapsed since the utterance of the first utterance comment ended,
The content distribution system according to claim 1.
前記発話時間決定部は、前記第1発話コメントの文字数と前記第1発話コメントの発話速度とに基づいて前記発話時間を算出する、
請求項1又は請求項2に記載のコンテンツ配信システム。
The utterance time determination unit calculates the utterance time based on the number of characters of the first utterance comment and the utterance speed of the first utterance comment,
The content distribution system according to claim 1 or 2.
前記表示装置に再生させる前記映像コンテンツと、前記発話装置に発話させる前記発話コメントとを登録する登録画面を表示させる表示制御部をさらに備え、
前記表示制御部は、前記登録画面において、前記第1画像のサムネイル画像と前記第1発話コメントを設定するための設定欄とを並べて表示する、
請求項1から請求項3の何れか1項に記載のコンテンツ配信システム。
A display control unit that displays a registration screen for registering the video content to be reproduced on the display device and the utterance comment to be uttered by the utterance device,
The display control unit displays, on the registration screen, a thumbnail image of the first image and a setting column for setting the first utterance comment, side by side,
The content distribution system according to any one of claims 1 to 3.
前記表示制御部は、前記登録画面の前記設定欄に、登録された前記第1発話コメントを表示する、
請求項4に記載のコンテンツ配信システム。
The display control unit displays the registered first utterance comment in the setting field of the registration screen.
The content distribution system according to claim 4.
前記表示制御部は、前記設定欄の幅を前記発話時間に応じた長さで表示するとともに、前記設定欄に隣接して前記無音時間の長さに応じた幅の領域を表示する、
請求項5に記載のコンテンツ配信システム。
The display control unit displays the width of the setting column with a length corresponding to the utterance time, and displays an area having a width corresponding to the length of the silence period adjacent to the setting column.
The content distribution system according to claim 5.
前記表示制御部は、前記映像コンテンツに含まれる全ての前記画像のサムネイル画像と、全ての前記画像のそれぞれに対応する前記発話コメントを設定するための前記設定欄とを並べて表示する、
請求項4に記載のコンテンツ配信システム。
The display control unit displays the thumbnail images of all the images included in the video content and the setting column for setting the utterance comment corresponding to each of the images, side by side.
The content distribution system according to claim 4.
前記映像コンテンツと前記発話コメントとが登録されるコンテンツ配信装置をさらに含み、
前記コンテンツ配信装置は、前記映像コンテンツに対応する映像コンテンツデータと前記発話コメントに対応する発話データとを前記表示装置に送信し、
前記表示装置は、前記コンテンツ配信装置から受信する前記映像コンテンツデータに基づいて前記映像コンテンツを再生し、前記コンテンツ配信装置から受信する前記発話データを前記発話装置に送信する、
請求項1から請求項7の何れか1項に記載のコンテンツ配信システム。
The video content and the utterance comment further includes a content distribution device is registered,
The content distribution device transmits video content data corresponding to the video content and speech data corresponding to the speech comment to the display device,
The display device reproduces the video content based on the video content data received from the content distribution device, and transmits the speech data received from the content distribution device to the speech device,
The content distribution system according to any one of claims 1 to 7.
前記発話装置は、第1発話装置と第2発話装置とを含み、
前記発話部は、前記第1発話コメントを前記発話装置に発話させ、前記第2発話コメントを前記第2発話装置に発話させる、
請求項1から請求項8の何れか1項に記載のコンテンツ配信システム。
The speech device includes a first speech device and a second speech device,
The utterance unit causes the utterance device to utter the first utterance comment, and causes the second utterance device to utter the second utterance comment.
The content distribution system according to any one of claims 1 to 8.
表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、
発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、
検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、
算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、
を含むコンテンツ配信方法。
Detecting a switching timing of switching from the first image to the second image in the video content including a plurality of images reproduced by the display device;
Calculating an utterance time required to reproduce a first utterance comment corresponding to the first image to be uttered by the utterance device;
Calculating a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time;
Causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period;
Content distribution method including.
表示装置が再生する複数の画像を含む映像コンテンツにおいて、第1画像から第2画像に切り替わる切り替わりタイミングを検出するステップと、
発話装置に発話させる前記第1画像に対応する第1発話コメントの再生に要する発話時間を算出するステップと、
検出される前記切り替わりタイミングと、算出される前記発話時間とに基づいて、前記第1画像に対応する無音時間を算出するステップと、
算出される前記無音時間に基づいて、前記第2画像に対応する第2発話コメントを前記発話装置に発話させるステップと、
をコンピュータに実行させるためのコンテンツ配信プログラム。
Detecting a switching timing of switching from the first image to the second image in the video content including a plurality of images reproduced by the display device;
Calculating an utterance time required to reproduce a first utterance comment corresponding to the first image to be uttered by the utterance device;
Calculating a silence time corresponding to the first image based on the detected switching timing and the calculated utterance time;
Causing the speech device to utter a second speech comment corresponding to the second image based on the calculated silence period;
Content distribution program for causing a computer to execute.
JP2018139205A 2018-07-25 2018-07-25 Content distribution system, content distribution method, and content distribution program Pending JP2020017844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018139205A JP2020017844A (en) 2018-07-25 2018-07-25 Content distribution system, content distribution method, and content distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139205A JP2020017844A (en) 2018-07-25 2018-07-25 Content distribution system, content distribution method, and content distribution program

Publications (1)

Publication Number Publication Date
JP2020017844A true JP2020017844A (en) 2020-01-30

Family

ID=69580991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139205A Pending JP2020017844A (en) 2018-07-25 2018-07-25 Content distribution system, content distribution method, and content distribution program

Country Status (1)

Country Link
JP (1) JP2020017844A (en)

Similar Documents

Publication Publication Date Title
JP6242773B2 (en) Conference information storage device, method and program
JP6076418B2 (en) Electronic device and comic production method
JP2008500573A (en) Method and system for changing messages
CN106790940B (en) Recording method, recording playing method, device and terminal
US20170092253A1 (en) Karaoke system
JP2018078402A (en) Content production device, and content production system with sound
CN110943908A (en) Voice message sending method, electronic device and medium
JP6641045B1 (en) Content generation system and content generation method
JP2007028242A (en) Terminal apparatus and computer program applied to the same
JP2020017844A (en) Content distribution system, content distribution method, and content distribution program
JP6196569B2 (en) DATA GENERATION / EDITION DEVICE, PROGRAM, AND DATA GENERATION / EDITION METHOD
JP5310682B2 (en) Karaoke equipment
JP2013097240A (en) Hearing-impaired person support device and operation method thereof
CN113948054A (en) Audio track processing method, device, electronic equipment and storage medium
JP6986992B2 (en) Display device, content distribution device, content distribution system, content distribution method and content distribution program
JP5533503B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM
JP5777233B1 (en) Movie generation apparatus and movie generation method
JP2019160186A (en) Photo book creation system and server device
JP4944371B2 (en) Video editing apparatus and method
WO2017183127A1 (en) Display device, output device, and information display method
JP5860575B1 (en) Voice recording program, voice recording terminal device, and voice recording system
JP2024523812A (en) Audio sharing method, device, equipment and medium
JP6773349B1 (en) Information processing equipment and programs
US20130215013A1 (en) Mobile communication terminal and method of generating content thereof
JP2006092079A (en) Presentation system, reproduction switching method, and program