JP5156666B2 - Content presentation system and content presentation program - Google Patents

Content presentation system and content presentation program Download PDF

Info

Publication number
JP5156666B2
JP5156666B2 JP2009036832A JP2009036832A JP5156666B2 JP 5156666 B2 JP5156666 B2 JP 5156666B2 JP 2009036832 A JP2009036832 A JP 2009036832A JP 2009036832 A JP2009036832 A JP 2009036832A JP 5156666 B2 JP5156666 B2 JP 5156666B2
Authority
JP
Japan
Prior art keywords
content
program
script
surrounding environment
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009036832A
Other languages
Japanese (ja)
Other versions
JP2010193295A (en
Inventor
守 道家
斉周 浜口
浩之 金子
誠喜 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009036832A priority Critical patent/JP5156666B2/en
Publication of JP2010193295A publication Critical patent/JP2010193295A/en
Application granted granted Critical
Publication of JP5156666B2 publication Critical patent/JP5156666B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、コンテンツ提示システム及びコンテンツ提示プログラムに係り、特に、視聴側の周辺環境に対応させたコンテンツを視聴者に提示するためのコンテンツ提示システム及びコンテンツ提示プログラムに関する。   The present invention relates to a content presentation system and a content presentation program, and more particularly to a content presentation system and a content presentation program for presenting content corresponding to a viewing-side peripheral environment to a viewer.

従来、テレビ番組等のコンテンツは、放送局等で予め制作されVTR等の記録媒体に記録されたものが規定の時間に再生されて放送されるか、或いはリアルタイムの生番組のように番組を制作しながら放送される。なお、番組は、どちらの場合であっても放送局側で制作され、各視聴者の受信機に送信されているため、番組の内容を変更する手段は、放送局側にのみ存在していた。   Conventionally, contents such as TV programs are produced in advance at broadcast stations and recorded on a recording medium such as a VTR and are played back at a specified time or broadcast, or a program is produced like a real-time live program. While being broadcast. In either case, since the program is produced on the broadcast station side and transmitted to each viewer's receiver, means for changing the contents of the program existed only on the broadcast station side. .

しかしながら、近年では、視聴者側で番組をその場で生成する技術として自動番組制作システムが存在する(例えば、特許文献1参照。)。なお、自動番組制作システムの例としては、TV4Uがある。TV4Uは、TVML(TV program Marking Language)とAPE(Automatic Production Engine)をベースとしてCG(Computer Graphics)を用いたテレビ番組等を簡単に制作、配信、視聴することができる新しいテレビシステムである。   However, in recent years, an automatic program production system exists as a technique for generating a program on the spot on the viewer side (see, for example, Patent Document 1). An example of an automatic program production system is TV4U. The TV4U is a new television system that can easily produce, distribute, and watch TV programs and the like using CG (Computer Graphics) based on TVML (TV program Marking Language) and APE (Automatic Production Engine).

ここで、TVMLとは、テレビ番組を制作するためのオブジェクトベース記述言語であり、テレビ番組の映像や音声等を、素材データと台本(演出内容等)とにより記述することができ、制作側で番組台本を記述することで、パソコン等で動作するソフトウェア等がこれを読み取り、即座にテレビ番組として再生・視聴することができる。更にTVMLの知識がなくても、簡単な台本を記述するだけで番組制作ができる仕組みとして考案されたのが番組制作エンジンAPEである。   Here, TVML is an object-based description language for producing a TV program, and can describe video and audio of a TV program using material data and a script (production contents, etc.). By writing a program script, software or the like that operates on a personal computer or the like can read it and immediately reproduce and view it as a television program. Furthermore, the program production engine APE was devised as a mechanism that enables program production by simply writing a simple script without knowledge of TVML.

番組制作者は、TVMLより簡単な記述様式で台本を記述するだけで、APEがこの簡単な台本を解釈し、適切な演出を付加したTVMLによる台本を生成する。これをパソコン等で動作するソフトウエア等が読み取り、テレビ番組として再生する。   The program producer simply describes the script in a simpler description format than TVML, and APE interprets this simple script and generates a script by TVML with an appropriate presentation. This is read by software running on a personal computer or the like and reproduced as a television program.

なお、番組制作エンジンとは、番組に登場するCGキャラクタや番組における1つの動作の単位でタイトル表示やカメラワーク、CGキャラクタの動作等のイベントが予め定義されたものである。例えば、番組の内容を表す番組台本からのテキストデータ等を入力すると、それを元に番組の自動生成に必要なTVMLスクリプトを出力する。このように、番組制作エンジンを用いることで効率的に番組制作を実現することができる。   Note that the program production engine is a CG character appearing in a program or an event such as title display, camera work, or CG character operation defined in advance for each operation in the program. For example, when text data or the like from a program script representing the contents of a program is input, a TVML script necessary for automatic program generation is output based on the text data. Thus, program production can be efficiently realized by using the program production engine.

また、番組コンテンツの提供については、主にインターネット等の通信ネットワーク等を介して、HTML(HyperText Markup Language)やXML(eXtensible Markup Language)等のマークアップ言語や、画像、映像、音声、テキスト情報等の素材データ等がWeb上のサーバ等に公開されている。そのため、ユーザは、所望する情報(番組台本(テキスト)、素材データ、APE(逐次処理型)、対話DB等)を選択してダウンロードすることで取得することができる。   In addition, program contents are provided mainly through a communication network such as the Internet, such as markup languages such as HTML (HyperText Markup Language) and XML (Extensible Markup Language), images, video, audio, text information, etc. Material data and the like are disclosed on a server on the Web. Therefore, the user can obtain the information by selecting and downloading desired information (program script (text), material data, APE (sequential processing type), dialogue DB, etc.).

また、TV4Uでは、放送局側から、視聴者側に番組として、番組台本、演出、素材データを送信し、これを視聴者側で視聴時に番組として生成する。また、TV4Uでは、視聴者がテレビ番組を視聴中に任意のタイミングで番組に割り込み、番組出演者との直接対話を可能としている。   Also, in the TV 4U, a program script, production, and material data are transmitted as a program from the broadcast station side to the viewer side, and this is generated as a program at the time of viewing on the viewer side. Further, in the TV 4U, the viewer interrupts the program at an arbitrary timing while watching the television program, and enables direct dialogue with the program performer.

特開2001−24610号公報JP 2001-24610 A

ところで、TV4Uによるテレビ番組視聴においては、制作側から提供されたAPEや番組台本を視聴者側で予め設定された範囲内で設定し、視聴するテレビ番組の演出を変更することは可能であるが、視聴者がテレビ番組を視聴している時点における視聴環境周辺の状態に応じて、視聴しているテレビ番組の内容や演出をリアルタイムに変化させることはできなかった。これは、TV4UにおけるCGキャラクタ等との対話形式による番組についても同様である。   By the way, when viewing a TV program by the TV 4U, it is possible to set the APE and the program script provided from the production side within a preset range on the viewer side and change the presentation of the TV program to be viewed. The contents and effects of the TV program being viewed cannot be changed in real time according to the state around the viewing environment when the viewer is watching the TV program. The same applies to a program in an interactive format with a CG character or the like on the TV 4U.

本発明は、上述した問題点に鑑みなされたものであり、視聴側の周辺環境に対応させたコンテンツを視聴者に提示するためのコンテンツ提示システム及びコンテンツ提示プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a content presentation system and a content presentation program for presenting content corresponding to the viewing-side peripheral environment to the viewer.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、コンテンツ管理サーバから提供されるコンテンツを視聴者毎の視聴環境に応じて提示するコンテンツ提示装置において、前記コンテンツ管理サーバから取得した予め設定される演出内容が記述された番組台本と、前記番組台本に記述された素材データとを用いて所定の演出を含むコンテンツを制作する制作エンジンによりコンテンツを生成するコンテンツ生成手段と、前記コンテンツ生成手段により生成されたコンテンツを再生する再生手段と、前記コンテンツを視聴する視聴側の周辺環境を検知する周辺環境検知手段と、前記周辺環境検知手段により得られる検知結果に対応する提示情報を生成する環境対応提示情報生成手段と、前記再生手段により再生中のコンテンツに前記環境対応提示情報生成手段により得られる提示情報を挿入する割込制御手段とを有し、前記環境対応提示情報生成手段は、前記コンテンツが対話中である場合に、前記周辺環境検知手段により得られる検知結果に対応した対話データを用いて割り込み用コンテンツを生成することを特徴とする。
According to the first aspect of the present invention, in the content presentation device that presents the content provided from the content management server according to the viewing environment of each viewer, the pre-set effect content acquired from the content management server is described. Content generating means for generating content by a production engine that generates content including a predetermined effect using the program script that has been generated and the material data described in the program script, and the content generated by the content generating means Reproducing means for reproducing, surrounding environment detecting means for detecting the surrounding environment on the viewing side for viewing the content, and environment corresponding presentation information generating means for generating presentation information corresponding to the detection result obtained by the surrounding environment detecting means, The content corresponding to the content being reproduced by the reproduction means is Possess an interrupt control means for inserting the presentation information obtained, the environmental presentation information generating unit, when the content is being interaction, interaction data corresponding to be detected results obtained by the surrounding environment detection means The content for interruption is generated using .

請求項1記載の発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。また、対話中であっても、その演出内容をそのまま利用して検知した周囲環境に対応した情報をリアルタイムに提示することができる。

According to the first aspect of the present invention, it is possible to present the viewer with content corresponding to the peripheral environment on the viewer side. Further, even during the conversation, information corresponding to the surrounding environment detected using the contents of the effect can be presented in real time.

請求項2に記載された発明は、前記環境対応提示情報生成手段は、前記コンテンツが再生中である場合に、前記番組台本の演出内容に前記周辺環境検知手段により得られる検知結果に対応した割り込み用の演出内容を含めて割り込み用コンテンツを生成することを特徴とする。
According to a second aspect of the present invention, when the content is being played back, the environment-related presentation information generating unit interrupts the presentation content of the program script corresponding to the detection result obtained by the surrounding environment detection unit. It is characterized in that interrupting content is generated including production contents for use.

請求項2記載の発明によれば、番組再生中であっても、その演出内容をそのまま利用して検知した周囲環境に対応した情報をリアルタイムに提示することができる。   According to the second aspect of the present invention, even when a program is being reproduced, it is possible to present information corresponding to the surrounding environment detected using the contents of the effect as it is in real time.

請求項に記載された発明は、前記周辺環境検知手段は、視聴側の周辺環境における照度、温度、湿度、音声、雨量、及び映像のうち、少なくとも1つを検知することを特徴とする。
The invention described in claim 3 is characterized in that the surrounding environment detection means detects at least one of illuminance, temperature, humidity, sound, rainfall, and video in the viewing-side surrounding environment.

請求項記載の発明によれば、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。
According to the invention described in claim 3, by acquiring one or more detected surrounding environment information, it is possible to present more appropriate information in real time according to the situation of the viewer.

請求項に記載された発明は、コンピュータを、請求項1乃至3の何れか1項に記載のコンテンツ提示装置が有する各手段として機能させるためのコンテンツ提示プログラムである
The invention described in claim 4 is a content presentation program for causing a computer to function as each unit included in the content presentation device according to any one of claims 1 to 3 .

請求項記載の発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。また、実行プログラムをコンピュータにインストールすることにより、容易にコンテンツの提示を実現することができる。

According to the fourth aspect of the present invention, it is possible to present the viewer with content corresponding to the viewing-side peripheral environment. Moreover, content can be easily presented by installing an execution program in a computer.

本発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。   According to the present invention, it is possible to present a content corresponding to the viewing-side peripheral environment to the viewer.

コンテンツ提示システムの一構成例を示す図である。It is a figure which shows the example of 1 structure of a content presentation system. 本実施形態におけるコンテンツ提示装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the content presentation apparatus in this embodiment. 本実施形態におけるコンテンツ提示の具体例を説明するための図である。It is a figure for demonstrating the specific example of the content presentation in this embodiment. 本実施形態におけるリアルタイムデータを用いた番組生成の一例を説明するための図である。It is a figure for demonstrating an example of the program production | generation using the real-time data in this embodiment. 周辺環境を検知後の処理の具体例を説明するための図である。It is a figure for demonstrating the specific example of the process after a surrounding environment is detected. 対話生成時にリアルタイムデータの提示例を説明するための図である。It is a figure for demonstrating the example of presentation of real-time data at the time of dialog production | generation. 対話生成時における具体的な提示例を説明するための図である。It is a figure for demonstrating the specific example of a presentation at the time of dialog production | generation. 本実施形態におけるコンテンツ提示処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the content presentation process procedure in this embodiment.

<本発明について>
本発明は、テレビ番組等のコンテンツの提供において、例えばコンテンツに含まれるCGをベースにしたテレビ番組に対し、視聴者の視聴環境周辺の情報をリアルタイムに取得し、これらの情報を反映させたコンテンツの提供及び出演者との対話にリアルタイムに反映させるものである。
<About the present invention>
In the provision of content such as a TV program, the present invention obtains, in real time, information around the viewing environment of a viewer for a TV program based on CG included in the content, and reflects the information. And to reflect in real time in the dialogue with the performers.

具体的には、例えば番組制作エンジンを用いて生成される番組の演出内容を記述したスクリプト(TVMLスクリプト)を生成する仕組みに、逐次処理型APEを用いる。また、この逐次処理型APEには、対話内容を記述したもの(対話スクリプト)を入力するが、視聴者の視聴環境周辺の状態をリアルタイムでサンプリングし、この情報を使用して、逐次処理型APEに入力する対話内容及び対話時の演出を生成する。これにより、出力する番組及び番組出演者との対話場面について、対話内容及び演出をリアルタイムに変化させる。   Specifically, for example, a sequential processing type APE is used as a mechanism for generating a script (TVML script) that describes the contents of a program generated using a program production engine. In addition, the sequential processing type APE is input with a description of dialogue contents (dialog script). The state around the viewing environment of the viewer is sampled in real time, and this information is used to calculate the sequential processing type APE. The contents of the dialog to be input to and the effect at the time of the dialog are generated. As a result, the dialogue contents and effects are changed in real time for the program to be output and the dialogue scene with the program performer.

以下に、上述したような特徴を有する本発明におけるコンテンツ提示システム及びコンテンツ提示プログラムを好適に実施した形態について、図面を用いて詳細に説明する。   Hereinafter, a preferred embodiment of a content presentation system and a content presentation program according to the present invention having the above-described features will be described in detail with reference to the drawings.

なお、本実施形態では、コンテンツの一例として番組を用いる。更に、本実施形態では、番組の生成や提示等に用いられるスクリプトの一例として、上述したTVMLを用いる。また、以下に説明する本発明の一実施形態として使用されるコンテンツ提示装置は、自動番組制作システム(TV4U)の機能を有するものとする。   In the present embodiment, a program is used as an example of content. Furthermore, in the present embodiment, the above-described TVML is used as an example of a script used for generating or presenting a program. In addition, a content presentation device used as an embodiment of the present invention described below has a function of an automatic program production system (TV 4U).

<システム構成>
図1は、コンテンツ提示システムの一構成例を示す図である。図1に示すコンテンツ提示システム10は、コンテンツ管理サーバ11と、少なくとも1つからなるコンテンツ提示装置(クライアント端末)12−1,12−2,・・・,12−nとを有するよう構成されている。また、コンテンツ管理サーバ11及びコンテンツ提示装置12は、インターネット等の通信ネットワーク13を介してデータの送受信が可能な状態で接続されている。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of a content presentation system. A content presentation system 10 shown in FIG. 1 includes a content management server 11 and at least one content presentation device (client terminal) 12-1, 12-2,..., 12-n. Yes. Further, the content management server 11 and the content presentation device 12 are connected in a state where data can be transmitted and received via a communication network 13 such as the Internet.

ここで、コンテンツ管理サーバ11は、予め蓄積された画像や映像、音声、テキストデータ等の各種データに基づいて、視聴者に提供するコンテンツの一例として番組の制作を行う制作側の装置である。   Here, the content management server 11 is a production-side device that produces a program as an example of content to be provided to a viewer based on various data such as images, video, audio, and text data stored in advance.

コンテンツ管理サーバ11により制作される番組は、例えば上述したTVMLの場合、番組全体の流れや番組の演出等の内容が記述された番組台本(テキスト)と、静止画、動画、音楽(音声)、テキストデータ等の各種データからなる素材と、その番組の制作に用いられるAPE(逐次処理型)と、番組に登場するCGキャラクタ等を用いて視聴者側と対話するなる対話データベース(対話DB)とを有するよう構成されている。これらの各種データは、例えば番組単位等で管理されている。   For example, in the case of the above-mentioned TVML, the program produced by the content management server 11 is a program script (text) in which the contents of the entire program, contents of the program, and the like are described, a still image, a video, music (voice), A material composed of various data such as text data, an APE (sequential processing type) used for production of the program, and a dialogue database (dialogue DB) for dialogue with viewers using CG characters appearing in the program It is comprised so that it may have. These various data are managed in units of programs, for example.

したがって、例えばあるコンテンツ提示装置12から特定の番組を視聴したい旨のリクエストがあった場合には、予め多数の番組台本、素材、APE等の各データが蓄積された蓄積手段等から、その番組に対応する番組台本、素材、APEを抽出し、抽出されたデータをリクエストのあったコンテンツ提示装置12に出力する。これにより、視聴者毎に所望する番組を個々に提供することができる。   Therefore, for example, when there is a request from a certain content presentation device 12 to view a specific program, the program is stored in the storage means in which a large number of program scripts, materials, APE and other data are stored in advance. The corresponding program script, material, and APE are extracted, and the extracted data is output to the requested content presentation device 12. Thereby, a desired program can be individually provided for each viewer.

なお、コンテンツ管理サーバ11は、蓄積手段等に蓄積された番組等を任意のタイミングでコンテンツ提示装置12に提供してもよい。   Note that the content management server 11 may provide the content presentation device 12 with programs and the like stored in the storage means and the like at an arbitrary timing.

一方、コンテンツ提示装置12−1,12−2,・・・,12−nは、クライアント側(視聴者側)に設置され、通信ネットワーク13を介してコンテンツ管理サーバ11から送信された番組に関する各種データ等を受信し、受信結果に基づいてTVMLスクリプトを生成し、TVMLPlayerが番組を生成し、再生して視聴者に提示する。   On the other hand, the content presentation devices 12-1, 12-2,..., 12-n are installed on the client side (viewer side) and various types of programs related to programs transmitted from the content management server 11 through the communication network 13. Data and the like are received, a TVML script is generated based on the reception result, and the TVML Player generates a program, plays it, and presents it to the viewer.

また、コンテンツ提示装置12は、各TVブラウザで異なる番組を視聴中に取得した視聴者の視聴環境周辺の状態、又はコンテンツ管理サーバ11からの所定の制御情報があった場合に、視聴中の番組の演出を維持したまま、又は演出を変更して対応する情報を番組として視聴することができる。   In addition, the content presentation device 12 can view the program being viewed when there is a state around the viewing environment of the viewer acquired while viewing a different program on each TV browser, or when there is predetermined control information from the content management server 11. The corresponding information can be viewed as a program while maintaining the production or changing the production.

また、コンテンツ提示装置12は、受信側に設けられた視聴中の部屋の照度センサや温度センサ等の周辺環境を検知する各種センサ(周辺環境検知手段)と、検知された情報に基づいて対応する対話データを生成するための対話データベースとを有し、各種センサからの検知データの少なくとも1つのデータ又は複数のデータを組み合わせて得られる情報等を用いて対話データベースから適切な対話文を抽出し、番組途中に割り込み制御を行い、その対話内容を提示する。これにより、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。   In addition, the content presentation device 12 corresponds to various sensors (peripheral environment detection means) that detect the surrounding environment such as an illuminance sensor and a temperature sensor of the room being viewed provided on the receiving side, based on the detected information. A dialogue database for generating dialogue data, and extracting an appropriate dialogue sentence from the dialogue database using information obtained by combining at least one data or a plurality of data of detection data from various sensors, Interrupt control is performed in the middle of the program, and the content of the dialogue is presented. Thereby, by acquiring one or more detected surrounding environment information, it is possible to present more appropriate information in real time according to the situation of the viewer.

なお、コンテンツ提示装置12は、例えば自らが番組の生成、再生に必要な番組台本、素材、APE等を生成することができ、生成した各種データを、通信ネットワーク13を介してコンテンツ管理サーバ11に送信(アップロード)することができる。   Note that the content presentation device 12 can generate, for example, a program script, material, APE, and the like necessary for program generation and playback, and sends the generated various data to the content management server 11 via the communication network 13. You can send (upload).

また、本実施形態では、例えば番組視聴モードから対話モードに切り替える際には、APEへの入力を番組台本から対話DBにある対話番組台本に切り替えることにより実現する。つまり、本発明では、演出を付加するAPEが番組生成時と対話生成時とで同一とする。これにより、ユーザは番組出演者とそのまま対話を行うことができる。   In the present embodiment, for example, when switching from the program viewing mode to the interactive mode, the input to the APE is realized by switching from the program script to the interactive program script in the dialog DB. That is, in the present invention, the APE to which the effect is added is the same at the time of program generation and at the time of dialog generation. As a result, the user can directly interact with the program performers.

なお、上述したシステム構成によれば、コンテンツ管理サーバ11とコンテンツ提示装置12とは、1:nの関係となっているが、本発明においてはこれに限定されるものではなく、例えばn:nであってもよい。したがって、コンテンツ管理サーバ11からダウンロード可能な、蓄積データである番組台本(テキスト)、素材(静止画・動画・音楽)、APE(逐次処理型)、対話DBは、1台のコンテンツ管理サーバ11からでもよく、複数のコンテンツ管理サーバ11から上述した情報を1又は複数取得してもよい。   According to the system configuration described above, the content management server 11 and the content presentation device 12 have a 1: n relationship, but the present invention is not limited to this, and for example, n: n It may be. Accordingly, a program script (text), material (still image / moving image / music), APE (sequential processing type), and dialogue DB, which can be downloaded from the content management server 11, can be downloaded from one content management server 11. Alternatively, one or more pieces of information described above may be acquired from the plurality of content management servers 11.

次に、上述した実施形態において本発明に係るコンテンツ提示装置12の機能構成例について説明する。   Next, a functional configuration example of the content presentation device 12 according to the present invention in the above-described embodiment will be described.

<コンテンツ提示装置12:機能構成>
次に、コンテンツ提示装置12の機能構成について図を用いて説明する。図2は、本実施形態におけるコンテンツ提示装置の機能構成の一例を示す図である。図2に示すコンテンツ提示装置12は、入力手段21と、出力手段22と、蓄積手段23と、周辺環境検知手段24と、番組スクリプト生成手段25と、対話スクリプト生成手段26と、環境対応スクリプト生成手段(環境対応提示情報生成手段)27と、割込制御手段28と、再生手段29と、送受信手段30と、制御手段31とを有するよう構成されている。なお、番組スクリプト生成手段25及び対話スクリプト生成手段26は、コンテンツを生成するコンテンツ生成手段である。
<Content Presentation Device 12: Functional Configuration>
Next, the functional configuration of the content presentation device 12 will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a functional configuration of the content presentation device according to the present embodiment. The content presentation device 12 shown in FIG. 2 includes an input unit 21, an output unit 22, a storage unit 23, a surrounding environment detection unit 24, a program script generation unit 25, a dialogue script generation unit 26, and an environment-compatible script generation. Means (environmental correspondence presentation information generating means) 27, interrupt control means 28, reproduction means 29, transmission / reception means 30, and control means 31 are provided. The program script generation unit 25 and the dialogue script generation unit 26 are content generation units that generate content.

入力手段21は、ユーザ(視聴者等)からの番組取得に関するリクエストや、コンテンツ管理サーバ11により公開された番組データ等へのアクセス、ダウンロード又は自動配信等により取得した番組の再生、視聴側の周辺環境についての情報の入力等の各種入力指示を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス、音声により指示を入力するためのマイク等からなる。   The input means 21 is a request for program acquisition from a user (viewer or the like), access to program data released by the content management server 11, playback of a program acquired by download or automatic distribution, etc. Accepts various input instructions such as input of information about the environment. The input means 21 includes, for example, a keyboard, a pointing device such as a mouse, a microphone for inputting instructions by voice, and the like.

また、出力手段22は、入力手段21により入力された指示内容や、再生手段29により再生された番組等を表示する。なお、出力手段22は、ディスプレイ、スピーカ等からなる。   In addition, the output unit 22 displays the instruction content input by the input unit 21, the program reproduced by the reproduction unit 29, and the like. The output means 22 includes a display, a speaker, and the like.

蓄積手段23は、コンテンツ管理サーバ11や、通信ネットワーク13により接続される外部端末等から取得若しくはコンテンツ提示装置12で生成した番組台本41、素材42、APE43、対話DB44、番組45、周辺環境検知結果46、ユーザの年齢、性別、性格、毎日のスケジュール等を含む個人情報や嗜好情報を含むユーザ情報47等を蓄積する。なお、蓄積手段23は、上述した各種データを通信ネットワーク13等に接続された外部装置等から取得することもできる。また、蓄積手段23は、例えばデータベース等のように文字情報や画像情報、その他の情報の集合物であり、それらの情報を検索することができるように体系的に構成されている。   The storage means 23 is a program script 41, material 42, APE 43, dialogue DB 44, program 45, and surrounding environment detection result obtained from the content management server 11 and an external terminal connected by the communication network 13 or generated by the content presentation device 12. 46, personal information including user's age, gender, personality, daily schedule, etc., user information 47 including preference information, and the like are stored. The storage unit 23 can also acquire the various data described above from an external device connected to the communication network 13 or the like. The storage unit 23 is a collection of character information, image information, and other information such as a database, and is systematically configured so that the information can be searched.

周辺環境検知手段24は、視聴側に設置されるコンテンツ提示装置12の周辺環境について、例えば視聴前、視聴時における所定時間、所定時間間隔、曜日、日付等の時間情報、番組のチャンネル変更時等の予め設定された条件に基づいて検知する。なお、周辺環境検知手段24は、視聴後においても時間情報等の予め設定された条件を基準として定期又は不定期に周辺環境を検知することができる。   The surrounding environment detection means 24 is for the surrounding environment of the content presentation device 12 installed on the viewing side, for example, before watching, time information at the time of viewing, a predetermined time interval, time information such as day of the week, date, etc., when changing the program channel, etc. It detects based on the preset conditions. Note that the surrounding environment detection unit 24 can detect the surrounding environment regularly or irregularly based on preset conditions such as time information even after viewing.

ここで、周辺環境検知手段24は、コンテンツ提示装置12として、周辺環境を検知する少なくとも1つのセンサを有している。具体的には、周辺環境検知手段24は、例えばコンテンツ提示装置12が設置された部屋の明るさを検知する場合は照度センサを有し、その部屋の温度又は外気の温度を検知する場合は、それぞれの場所に温度センサを有し、湿度を検知する場合は湿度センサを有する。また、周辺環境検知手段24は、コンテンツ提示装置12が設置された地点における天候において雨が降っているかを検知する場合には雨センサを有し、周囲の音(視聴者の声や周りの騒音レベル等)を検知する場合には音認識センサを有する。なお、音認識センサには、ユーザの動作により発生する音や肉声を認識してユーザとCGキャラクタとの対話を実現する機能も有する。   Here, the surrounding environment detection means 24 has at least one sensor for detecting the surrounding environment as the content presentation device 12. Specifically, the surrounding environment detection unit 24 has an illuminance sensor, for example, when detecting the brightness of a room where the content presentation device 12 is installed, and when detecting the temperature of the room or the temperature of the outside air, Each location has a temperature sensor, and when detecting humidity, it has a humidity sensor. In addition, the surrounding environment detection means 24 has a rain sensor when detecting whether it is raining in the weather at the point where the content presentation device 12 is installed, and has surrounding sounds (viewer's voice and surrounding noise). In the case of detecting a level etc., a sound recognition sensor is provided. Note that the sound recognition sensor also has a function of recognizing a sound or a real voice generated by the user's action and realizing a dialogue between the user and the CG character.

更に、周辺環境検知手段24は、視聴者を撮影するカメラ等の撮像手段を有していてもよく、この場合には、撮影された映像に対して既存の顔認証処理を行い、その結果から、視聴しているか(顔が画面方向を向いているか)、何人(1又は複数)で見ているか、画面から視聴者まで距離等の情報を取得して利用することができる。なお、上述のセンサは、複数設置されてもよく、必要に応じて上述した複数のセンサ等からの検知結果を組み合わせることができる。これにより、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。   Furthermore, the surrounding environment detection unit 24 may include an image capturing unit such as a camera for capturing the viewer. In this case, the existing face authentication process is performed on the captured image, and the result is obtained. It is possible to acquire and use information such as the distance from the screen to the viewer, whether the user is watching (whether the face is facing the screen), how many people (one or more) are watching. Note that a plurality of the above-described sensors may be installed, and the detection results from the plurality of sensors described above can be combined as necessary. Thereby, by acquiring one or more detected surrounding environment information, it is possible to present more appropriate information in real time according to the situation of the viewer.

なお、周辺環境検知手段24は、検知した結果を蓄積手段23に周辺環境検知結果46として、その時間の検知情報又は今までの統計的な検知情報を蓄積する。   The surrounding environment detection unit 24 accumulates the detected information as the surrounding environment detection result 46 in the accumulation unit 23 as the surrounding environment detection result 46 or statistical detection information so far.

番組スクリプト生成手段25は、蓄積手段23に予め蓄積された番組台本41、素材42、及びAPE43に基づいて番組スクリプトを生成する。なお、番組スクリプト生成手段25にて生成された各種番組は、蓄積手段23の番組45として蓄積され、再生時に呼び出されるようにしてもよい。   The program script generation unit 25 generates a program script based on the program script 41, the material 42, and the APE 43 stored in advance in the storage unit 23. Note that the various programs generated by the program script generation means 25 may be stored as the program 45 of the storage means 23 and called at the time of reproduction.

更に、番組スクリプト生成手段25は、生成した番組スクリプトを所定の番組制作エンジンや素材データを用いて番組台本を生成して、新たな番組を生成することができる。この場合、番組スクリプト生成手段25は、生成した新たな番組を送受信手段30により通信ネットワーク13を介してコンテンツ管理サーバ11に送信(アップロード)させる。   Further, the program script generation means 25 can generate a program script by using the generated program script using a predetermined program production engine and material data, and can generate a new program. In this case, the program script generation unit 25 causes the transmission / reception unit 30 to transmit (upload) the generated new program to the content management server 11 via the communication network 13.

対話スクリプト生成手段26は、蓄積手段23に予め蓄積された素材42、APE43、及び対話DB44に基づいてユーザに対して番組中のCGキャラクタ等が対話を行うための対話スクリプトを生成する。また、対話スクリプト生成手段26にて生成された対話スクリプトは、そのままリアルタイムに再生されるものであるが、例えば蓄積手段23の対話DB44等に蓄積することもできる。   The dialogue script generation unit 26 generates a dialogue script for a CG character or the like in the program to perform a dialogue with the user based on the material 42, the APE 43, and the dialogue DB 44 stored in advance in the storage unit 23. Further, the dialogue script generated by the dialogue script generation unit 26 is reproduced as it is in real time, but can be stored in the dialogue DB 44 of the storage unit 23, for example.

つまり、対話スクリプト生成手段26は、放送局側にある対話DBから出力された対話番組台本と、受信機側に用意された付加対話DB及び付加対話DBの出力である付加対話用の番組台本を編集して対話番組用のスクリプトを生成する。   That is, the dialogue script generation means 26 receives the dialogue program script output from the dialogue DB on the broadcast station side, the additional dialogue DB prepared on the receiver side, and the program script for additional dialogue that is the output of the additional dialogue DB. Edit and generate scripts for interactive programs.

環境対応提示情報生成手段としての環境対応スクリプト生成手段27は、周辺環境検知手段24により得られる検知結果を用いて蓄積手段23に蓄積された対話DB44から、対応する対話データを抽出し、抽出した対話情報に基づいて環境対応スクリプトを生成する。なお、環境対応スクリプトについての詳細については後述する。   The environment correspondence script generation means 27 as the environment correspondence presentation information generation means extracts and extracts the corresponding dialogue data from the dialogue DB 44 stored in the storage means 23 using the detection result obtained by the surrounding environment detection means 24. Generate an environment-friendly script based on the interaction information. Details of the environment-compatible script will be described later.

割込制御手段28は、番組スクリプト生成手段25により生成された番組スクリプトを再生手段29で実行している最中に、例えば1行のスクリプト毎(例えば、ある1つの動作や画像表示等の命令毎)又は所定の意味を持った一連のスクリプト群の間又は途中に強制的に環境スクリプトを割り込ませて再生手段29により再生させる。これにより、番組の内容を維持しながら、途中で視聴者毎の周辺環境に対応したキャラクタのセリフやメッセージを対応する各視聴者にリアルタイムに提供することができる。なお、割込制御手段28は、周辺環境に対応した環境対応スクリプトを番組又は対話中に割り込み挿入させた後、所定時間経過後又は視聴者からの応答後に元の番組又は対話に戻り、それ以降の再生を継続して行う。   The interrupt control means 28, for example, for each script on one line (for example, a command such as a certain operation or image display) while the reproduction means 29 is executing the program script generated by the program script generation means 25. Every time) or the environment script is forcibly interrupted between or in the middle of a series of scripts having a predetermined meaning, and is played back by the playback means 29. Thereby, while maintaining the contents of the program, it is possible to provide a real-time message line or message corresponding to the surrounding environment of each viewer to each corresponding viewer. The interrupt control means 28 interrupts and inserts an environment-corresponding script corresponding to the surrounding environment during the program or dialogue, and then returns to the original program or dialogue after a predetermined time has elapsed or after a response from the viewer. Continue playing.

再生手段29は、コンテンツ管理サーバ11から取得した各番組情報(番組台本、素材、APE)から番組を再生し、出力手段22により出力させて視聴者に提供する。また再生手段29は、現在再生している番組の内容を視聴情報として生成し、送受信手段30により通信ネットワーク13を介してコンテンツ管理サーバ11に送信する。   The reproduction unit 29 reproduces a program from each piece of program information (program script, material, APE) acquired from the content management server 11, and outputs the program by the output unit 22 to provide it to the viewer. Further, the playback unit 29 generates the contents of the program being played back as viewing information, and transmits it to the content management server 11 via the communication network 13 by the transmission / reception unit 30.

なお、再生手段29は、例えばTVMLプレイヤー(TVMLPlayer)等を用いることができる。TVMLプレイヤーとは、TVMLで記述された番組スクリプトを読み取り、番組映像音声をリアルタイムにブラウザに出力するソフトウェアである。TVMLプレイヤーは、スタジオショットをリアルタイムCGで生成し、CGスタジオセットの中に登場するCGキャラクタがTVMLスクリプト中に記述された台詞を合成音声でしゃべり、演技するところを表示することができる。   For example, a TVML player (TVMLPlayer) or the like can be used as the reproducing means 29. The TVML player is software that reads a program script described in TVML and outputs program video and audio to a browser in real time. The TVML player can generate a studio shot by real-time CG, and can display a place where a CG character appearing in the CG studio set speaks the speech described in the TVML script with synthetic speech and acts.

送受信手段30は、番組取得リクエストや、番組スクリプト生成手段25により生成した番組情報、再生手段29により生成した視聴情報等の各情報をコンテンツ管理サーバ11に送信する。また、送受信手段30は、コンテンツ提示サーバ11から番組情報、割り込み用の制御情報等の各情報を受信する。   The transmission / reception unit 30 transmits information such as a program acquisition request, program information generated by the program script generation unit 25, viewing information generated by the reproduction unit 29, and the like to the content management server 11. Further, the transmission / reception means 30 receives information such as program information and interrupt control information from the content presentation server 11.

制御手段31は、コンテンツ提示装置12の各構成全体の制御を行う。具体的には、制御手段31は、データの入出力制御や送受信制御の他、周辺環境検知手段24によりコンテンツ提示装置12が設置された場所の周囲の環境を上述した各センサ等により検知させたり、番組スクリプト生成手段25により番組スクリプトを生成させたり、対話スクリプト生成手段26によりユーザに対する対話スクリプトを生成させたり、環境対応スクリプト生成手段27により環境対応スクリプトを生成させたり、割込制御手段28により割り込み制御させたり、再生手段29により番組を再生させる等の処理を制御する。   The control means 31 controls the entire configuration of the content presentation device 12. Specifically, in addition to data input / output control and transmission / reception control, the control unit 31 detects the environment around the place where the content presentation device 12 is installed by the surrounding environment detection unit 24 using the above-described sensors or the like. The program script generating means 25 generates a program script, the dialog script generating means 26 generates a dialog script for the user, the environment corresponding script generating means 27 generates an environment corresponding script, and the interrupt control means 28 Processing such as interrupt control or playback of the program by the playback means 29 is controlled.

上述した構成により、管理側(コンテンツ管理サーバ11)からコンテンツ提示側の1又は複数の端末(コンテンツ提示装置12−1〜12−n)に対して効率的に制御を行うことができる。なお、上述したコンテンツ提示装置12は、使用者の権限等に応じてコンテンツ管理サーバ11の機能を設けてもよい。これにより、コンテンツ提示装置間のみで上述のシステムを実現することができる。   With the configuration described above, the management side (content management server 11) can efficiently control one or a plurality of terminals (content presentation devices 12-1 to 12-n) on the content presentation side. In addition, the content presentation apparatus 12 mentioned above may provide the function of the content management server 11 according to a user's authority etc. Thereby, the above-described system can be realized only between the content presentation apparatuses.

<コンテンツ提示時の具体例>
次に、本実施形態におけるコンテンツ提示の具体例について図を用いて説明する。図3は、本実施形態におけるコンテンツ提示の具体例を説明するための図である。なお、図3(a)は、番組生成時におけるコンテンツ提示の一例を示し、図3(b)は、対話生成時におけるコンテンツ提示の一例を示している。
<Specific examples when presenting content>
Next, a specific example of content presentation in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram for explaining a specific example of content presentation in the present embodiment. FIG. 3A shows an example of content presentation at the time of program generation, and FIG. 3B shows an example of content presentation at the time of dialog generation.

図3(a)では、受信機側にあるコンテンツ提示装置12の仕組みとして、例えば周辺環境検知手段24としての照度センサを設け、更に照度センサからのデータをAPEの入力形式であるAPEスクリプトに変換する環境対応スクリプト生成手段27が設けられている。また、図3(b)に示す対話生成時の例としては、受信機側にあるコンテンツ提示装置12の仕組みとして、例えば周辺環境検知手段24としての雨センサを設け、更に雨センサからの検知情報と、放送局側にある対話DBから出力された対話台本(対話用番組台本)と、受信機側に用意された付加対話DB及び付加対話DBの出力である付加対話台本とを用いて編集する対話台本編集処理(対話スクリプト生成手段26)を有している。   In FIG. 3A, as a mechanism of the content presentation device 12 on the receiver side, for example, an illuminance sensor is provided as the surrounding environment detection means 24, and data from the illuminance sensor is further converted into an APE script that is an APE input format. The environment corresponding script generating means 27 is provided. In addition, as an example at the time of dialog generation shown in FIG. 3B, as a mechanism of the content presentation device 12 on the receiver side, for example, a rain sensor as a surrounding environment detection unit 24 is provided, and detection information from the rain sensor is further provided. And the dialogue script (dialog program script) output from the dialogue DB on the broadcasting station side, the additional dialogue DB prepared on the receiver side, and the additional dialogue script that is the output of the additional dialogue DB. A dialogue script editing process (dialog script generation means 26) is provided.

なお、上述した図3(a),(b)における照度センサ及び雨センサについては、リアルタイム情報を取得する手段としての一例であり、その情報を提示する際には、周辺環境対応スクリプトにより他の番組中にテロップ等の情報として番組に挿入させることもでき、更には番組に出演しているCGキャラクタ等を用いて内容を対話形式で提示させることもできる。これらの提示は、図3(a),(b)に示すように再生手段29としてのTVMLPlayerを用いて番組再生や対話再生が行われる。   Note that the illuminance sensor and the rain sensor in FIGS. 3A and 3B described above are examples of means for acquiring real-time information, and when presenting the information, other environment-corresponding scripts are used. It can be inserted into the program as information such as a telop in the program, and further, the contents can be presented in an interactive manner using a CG character appearing in the program. As shown in FIGS. 3A and 3B, these presentations are performed by using a TVML Player as the playback means 29 for program playback and dialog playback.

<リアルタイム制御の具体例>
次に、本実施形態において、上述した番組生成時にリアルタイムデータを用いた場合について説明する。図4は、本実施形態におけるリアルタイムデータを用いた番組生成の一例を説明するための図である。なお、図4の例では、周辺環境検知手段24を用いたリアルタイムデータとして照度センサを用い、視聴者の視聴環境の照度をリアルタイム計測している。また、図4に示す例では、視聴環境の照度が暗くなった状態を想定している。
<Specific examples of real-time control>
Next, in this embodiment, the case where real-time data is used at the time of the above-described program generation will be described. FIG. 4 is a diagram for explaining an example of program generation using real-time data in the present embodiment. In the example of FIG. 4, an illuminance sensor is used as real-time data using the surrounding environment detection means 24, and the illuminance of the viewer's viewing environment is measured in real time. In the example shown in FIG. 4, it is assumed that the viewing environment is dark.

図4に示すように、照度センサからの出力データをデータ変換し、システム内部で利用できるデータ形式にする。このデータに基づいて、番組内の照明の照度を決定するパラメータの選択やCGキャラクタ等の番組出演者がセリフをしゃべる際のしゃべり方を決定する。   As shown in FIG. 4, the output data from the illuminance sensor is converted into a data format that can be used inside the system. Based on this data, selection of a parameter for determining the illumination intensity of the lighting in the program and how to speak when a program performer such as a CG character speaks the speech is determined.

図4に示す例では、照明は「落とし気味」、しゃべりは「ゆっくり」を選択している。これをAPEスクリプト化(light="0.2"、tone="relaxed")し、照明パラメータとして逐次処理型のAPEに入力すると、APEは即座に入力されたAPEスクリプトから番組内の照度を設定するためのTVMLスクリプト(light:name=light1,r=0.4,g=0.4,b=0.4)、及び出演者のしゃべりの調子を設定するTVMLスクリプトに変換(character:talk(name=CharacterA,text="****",rate="0.7",pitch="0.7"))し、これを再生手段としてのTVMLPlayerに送信する。   In the example shown in FIG. 4, “lighting down” is selected for lighting and “slow” is selected for talking. When this is converted into an APE script (light = “0.2”, tone = “relaxed”) and input as a lighting parameter to a sequential processing type APE, the APE immediately sets the illuminance in the program from the input APE script. TVML script (light: name = light1, r = 0.4, g = 0.4, b = 0.4), and a TVML script that sets the tone of the performer's chat (character: talk ( name = CharacterA, text = “***”, rate = “0.7”, pitch = “0.7”)), and this is transmitted to the TVML Player as the playback means.

これにより、TVMLPlayerでは、番組内の照明の照度を実際の視聴者の部屋の明るさに合わせて変更することで、同じ空間内にあるような特殊な演出を施した番組を提示することができる。以上の処理により、視聴者の視聴環境周辺の明るさから生成する番組をリアルタイムに可変することができる。   Thereby, in TVMLPlayer, it is possible to present a program with special effects such as those in the same space by changing the illumination intensity of the illumination in the program according to the brightness of the actual viewer's room. . Through the above processing, the program generated from the brightness around the viewing environment of the viewer can be changed in real time.

図5は、周辺環境を検知後の処理の具体例を説明するための図である。図5では、照度センサからリアルタイムに出力される数値データを、データ変換して正規化する。   FIG. 5 is a diagram for explaining a specific example of processing after detecting the surrounding environment. In FIG. 5, numerical data output in real time from the illuminance sensor is normalized by performing data conversion.

ここで、番組内の照明の設定の際、正規化された数値データをそのまま用いると、値が小さすぎた場合に生成する映像が暗くなりすぎるため、この実施例では下限を0.4とし、それ以下の数値データの際は全て0.4とする。この変換条件に基づいて、照明の設定を行うのに必要なAPEスクリプトを生成する。   Here, when setting the lighting in the program, if the normalized numerical data is used as it is, the video generated when the value is too small becomes too dark. Therefore, in this embodiment, the lower limit is set to 0.4, All numerical data below that is 0.4. Based on this conversion condition, an APE script necessary for setting illumination is generated.

次に、生成したAPEスクリプトを逐次処理型APEに入力することで、逐次処理型APEはAPEスクリプトを解釈し、照明設定用のAPEスクリプトを生成する。これをTVMLPlayerに入力することで、番組内の照明をリアルタイムに変更することができる(図5の例では、light:model(name=**,type=**,r=0.4,g=0.4,b=0.4))。   Next, by inputting the generated APE script to the sequential processing type APE, the sequential processing type APE interprets the APE script and generates an APE script for lighting setting. By inputting this into the TVML Player, the lighting in the program can be changed in real time (in the example of FIG. 5, light: model (name = **, type = **, r = 0.4, g = 0.4, b = 0.4)).

また、出演者のしゃべる調子の可変については、正規化された数値データが、図5に示すように、予め蓄積されている数値データ別トーンタイプのうち、どのタイプに入るかにより決定する。図5の例では、「0.0≦数値データ≦0.4」の場合に"relaxed"を選択し、「0.4<数値データ≦0.7」の場合に"middle"を選択し、「0.7<数値データ≦1.0」の場合に"smart"を選択するような3段階のトーンタイプが蓄積されている場合、図5に示す例では照度センサから得られる数値データが0.4であるため、しゃべりのトーンは"Relaxed"が選択される。   Further, the change of the tone that the performer speaks is determined by which type of normalized numeric data is included among the tone types classified by numeric data in advance as shown in FIG. In the example of FIG. 5, “relaxed” is selected when “0.0 ≦ numerical data ≦ 0.4”, “middle” is selected when “0.4 <numerical data ≦ 0.7”, In the case of “0.7 <numerical data ≦ 1.0”, when three levels of tone types for selecting “smart” are accumulated, the numerical data obtained from the illuminance sensor is 0 in the example shown in FIG. .4, “Relaxed” is selected as the talking tone.

また、しゃべりのトーンを設定するAPEスクリプトを予め蓄積されたトーンに対応するパラメータ数値を用いて生成し(図6の例では、pitch=0.7,rate=0.7)、これを逐次処理型APEに入力することで"Relaxed"に合致するしゃべりのパラメータのTVMLスクリプトを生成し再生することができる(図5の例では、character:talk(name=characterA,text="**",pitch=0.7,rate=0.7))。   In addition, an APE script for setting a talk tone is generated using parameter values corresponding to previously stored tones (in the example of FIG. 6, pitch = 0.7, rate = 0.7), and this is sequentially processed. A TVML script having a chat parameter that matches “Relaxed” can be generated and played by inputting it to the type APE (in the example of FIG. 5, character: talk (name = characterA, text = “**”, pitch) = 0.7, rate = 0.7)).

したがって、照度センサによる実際の視聴者の部屋の照度に対応させて、番組内の照度及び出演者のしゃべり方をリアルタイムに変更して提示することができる。   Therefore, the illuminance in the program and how the performers talk can be changed and presented in real time in accordance with the actual illuminance of the viewer's room by the illuminance sensor.

次に、図6は、対話生成時にリアルタイムデータの提示例を説明するための図である。なお、図6では、周辺環境検知手段24による検知データとして雨量データを用いた例を示している。つまり、図6の例では、周辺環境検知手段24として視聴者の視聴環境周辺(屋外)に雨センサが設置されている。   Next, FIG. 6 is a figure for demonstrating the example of presentation of real-time data at the time of dialog production | generation. FIG. 6 shows an example in which rainfall data is used as detection data by the surrounding environment detection means 24. That is, in the example of FIG. 6, a rain sensor is installed around the viewer's viewing environment (outdoors) as the surrounding environment detection means 24.

雨センサからの生データは、周辺環境検知手段24で検知後、利用可能なデータに変換される。また、周辺環境検知手段24は、変換した雨データを用いて雨量の評価(少雨,大雨等)を行う。また、環境対応スクリプト生成手段27は、その雨量の評価結果を用いて,雨の度合に応じた付加対話台本を付加対話DBから選択し、これを対話台本と共に逐次処理型APEに入力する。これにより、通常の対話だけではなく、視聴者の視聴環境周辺での状況に応じた対話をリアルタイムに生成することが可能となる。   The raw data from the rain sensor is converted into usable data after being detected by the surrounding environment detection means 24. In addition, the surrounding environment detection unit 24 evaluates the rainfall (light rain, heavy rain, etc.) using the converted rain data. Moreover, the environment corresponding | compatible script production | generation means 27 selects the additional dialogue script according to the degree of rain from the additional rainfall DB using the rainfall evaluation result, and inputs this to a sequential processing type APE with a dialogue script. As a result, it is possible to generate not only a normal dialogue but also a dialogue according to the situation around the viewing environment of the viewer in real time.

ここで、図7は、対話生成時における具体的な提示例を説明するための図である。なお、図7(a)は、周辺環境として雨センサから得られた出力データに対応させた具体的な対話処理の流れを示し、図7(b)は、図7(a)に示す処理により再生される対話の一例を示している。   Here, FIG. 7 is a diagram for explaining a specific example of presentation at the time of generating a dialog. FIG. 7A shows a specific flow of interactive processing corresponding to the output data obtained from the rain sensor as the surrounding environment, and FIG. 7B shows the processing shown in FIG. An example of a dialog to be played is shown.

上述したように対話生成中は、対話DBから対話台本(APEスクリプト)を取得し、番組生成時と同様にAPEに入力することで対話シーンを生成している。図7の例では、視聴者がオリーブオイルについて問い合わせした後、出演者が説明をしている状況を示している。ここで、視聴側の視聴環境の屋外に周辺環境検知手段24としての雨センサが設置されており、センサにより雨が検知される。   As described above, during dialog generation, a dialog script (APE script) is acquired from the dialog DB, and input to the APE in the same manner as when generating a program, thereby generating a dialog scene. The example of FIG. 7 shows a situation where the performer is explaining after the viewer inquires about olive oil. Here, a rain sensor is installed as the surrounding environment detection means 24 outside the viewing environment on the viewing side, and rain is detected by the sensor.

周辺環境検知手段24は、雨センサからの出力データから予め設定された雨量評価パラメータ(極少雨、少雨、小雨、雨、大雨)から雨量評価値を判断し、その評価に対応する対話シーンを生成して割り込み制御によりその旨の提示を行う。例えば、雨量評価が小雨であると判断されると、オリーブオイルの説明の途中に雨が降ってきたことを視聴者に提示する。具体的には、雨が降ってきたことに関連させて、例えば「洗濯物は大丈夫ですか?」としゃべらせる番組台本を付加対話DBから取得する。また、割込制御手段28は、これを対話内容の途中に割り込ませて処理することで図7(b)に示すように、対話途中に周辺環境に対する情報を提示することができる。このように、本実施形態によれば、対話シーン生成時に周辺環境に対応させたリアルタイム情報をベースとした対話シーンを生成し提示することができる。   The surrounding environment detection unit 24 determines a rain evaluation value from preset rain evaluation parameters (extremely light rain, light rain, light rain, rain, heavy rain) from output data from the rain sensor, and generates a dialogue scene corresponding to the evaluation. Then, that effect is presented by interrupt control. For example, if it is determined that the rainfall evaluation is light rain, the viewer is notified that it has been raining during the explanation of olive oil. Specifically, for example, a program script that speaks “Is the laundry safe?” Is acquired from the additional dialogue DB in association with the rain. Further, the interrupt control means 28 can present information on the surrounding environment during the dialogue as shown in FIG. 7B by interrupting and processing this in the middle of the dialogue content. As described above, according to the present embodiment, it is possible to generate and present a conversation scene based on real-time information corresponding to the surrounding environment when the conversation scene is generated.

また、上述した周辺環境検知手段24としての設置可能な各センサからの検知結果を複数組み合わせて、対応する周辺環境情報を提示することができる。   Also, a plurality of detection results from the sensors that can be installed as the surrounding environment detection means 24 described above can be combined to present corresponding surrounding environment information.

上述したように、本実施形態によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。具体的には、番組を視聴する際に視聴周辺環境に応じて視聴者毎に見え方の異なる番組を視聴することができる。また、視聴周辺環境をデータとして取り込み、視聴者により最適な番組をリアルタイムに生成することができる。   As described above, according to the present embodiment, it is possible to present the viewer with content corresponding to the viewing-side peripheral environment. Specifically, when viewing a program, it is possible to view a program that looks different for each viewer according to the viewing environment. Further, the viewing peripheral environment can be taken in as data, and an optimal program can be generated in real time by the viewer.

また、本実施形態によれば、出演者との対話を通じて,番組に関連する情報以外の情報を同じ仕組みの中で得ることができる。更に、本実施形態によれば、番組視聴という動作形態に個々の視聴者毎に役立つ個人的な事象、情報を統合して提示することができる。   Moreover, according to this embodiment, information other than the information relevant to a program can be obtained in the same mechanism through dialogue with performers. Furthermore, according to the present embodiment, personal events and information useful for each viewer can be integrated and presented in the operation mode of program viewing.

<実行プログラム>
ここで、上述したコンテンツ提示システムは、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
<Execution program>
Here, the content presentation system described above includes a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, an input device such as a mouse, a keyboard, and a pointing device, a display unit that displays images and data, In addition, it can be configured by a computer having an interface for communicating with the outside.

したがって、コンテンツ提示システムが有する入力手段21、出力手段22、蓄積手段23、周辺環境検知手段24、番組スクリプト生成手段25、対話スクリプト生成手段26、環境対応スクリプト生成手段27、割込制御手段28、再生手段29、送受信手段30、及び制御手段31における各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。   Therefore, the input means 21, the output means 22, the storage means 23, the surrounding environment detection means 24, the program script generation means 25, the dialogue script generation means 26, the environment corresponding script generation means 27, the interrupt control means 28, which the content presentation system has. Each function in the reproduction unit 29, the transmission / reception unit 30, and the control unit 31 can be realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(コンテンツ提示プログラム)を生成し、例えば、汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、コンテンツ提示処理を実現することができる。   That is, an execution program (content presentation program) for causing a computer to execute the processing in each configuration described above is generated, and the content presentation processing is realized by installing the program in, for example, a general-purpose personal computer or server. be able to.

次に、本発明における実行プログラムによる処理手順についてコンテンツ提示システムにおけるコンテンツ提示処理についてフローチャートを用いて説明する。なお、以下の処理の説明では、コンテンツの一例として番組を用い、その制作対象として番組台本を用いるが、本発明におけるコンテンツの種類についてはこれに限定されるものではない。   Next, the processing procedure by the execution program in the present invention will be described with reference to the flowchart of content presentation processing in the content presentation system. In the following description of processing, a program is used as an example of content, and a program script is used as a production target. However, the type of content in the present invention is not limited to this.

図8は、本実施形態におけるコンテンツ提示処理手順の一例を示すフローチャートである。図8において、まず番組を再生し(S01)、周辺環境に関する情報を検知したか否かを判断する(S02)。ここで、周辺環境に関する情報を検知した場合(S02において、YES)、番組の再生中であるか、又は対話中であるかを判断する。具体的には、例えば番組の再生中であるか否かを判断し(S03)、番組の再生中の場合(S03において、YES)、番組用の環境対応スクリプトを生成し(S04)、割り込み制御により番組中に環境対応スクリプトを挿入することで、その再生が行われる(S05)。   FIG. 8 is a flowchart illustrating an example of a content presentation processing procedure in the present embodiment. In FIG. 8, first, a program is reproduced (S01), and it is determined whether information related to the surrounding environment is detected (S02). Here, when information related to the surrounding environment is detected (YES in S02), it is determined whether the program is being reproduced or is in dialogue. Specifically, for example, it is determined whether or not the program is being reproduced (S03). If the program is being reproduced (YES in S03), an environment-compatible script for the program is generated (S04), and interrupt control is performed. Thus, the environment-compatible script is inserted into the program to reproduce it (S05).

また、S03の処理において、番組の再生中でない場合(S03において、NO)、対話中であると判断し、対話DBより検知結果に対応する対話を抽出し(S06)、対話用の環境対応スクリプトを生成して(S07)、割り込み制御により対話中に環境対応スクリプトを挿入することで、その再生が行われる(S08)。   In the process of S03, if the program is not being played back (NO in S03), it is determined that the conversation is in progress, and a dialog corresponding to the detection result is extracted from the dialog DB (S06), and the environment-compatible script for dialog is used. Is generated (S07), and the environment-compatible script is inserted during the dialogue by the interrupt control, so that the reproduction is performed (S08).

ここで、S05又はS08の処理が終了後、所定時間経過後又は視聴者からの応答後に元の番組又は対話に戻る(S09)。また、S02の処理において周辺環境を検知していない場合(S02において、NO)、又はS09の処理が終了後、番組が終了であるか否かを判断し、番組が終了でない場合(S10において、NO)、S02に戻り以降の処理を行う。また、S10の処理において、番組が終了である場合(S10において、YES)、コンテンツ提示処理を終了する。   Here, after the process of S05 or S08 is completed, the original program or dialogue is returned after a lapse of a predetermined time or after a response from the viewer (S09). Further, when the surrounding environment is not detected in the process of S02 (NO in S02), or after the process of S09 is finished, it is determined whether or not the program is finished, and the program is not finished (in S10, NO), return to S02 and perform the subsequent processing. In the process of S10, when the program is finished (YES in S10), the content presentation process is finished.

これにより、実行プログラムをコンピュータにインストールすることにより、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができ、また本実施形態におけるコンテンツ提示を容易に実現することができる。   Thus, by installing the execution program in the computer, the content corresponding to the viewing-side peripheral environment can be presented to the viewer, and the content presentation in the present embodiment can be easily realized.

上述したように本発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。具体的には、番組を視聴する際に視聴周辺環境に応じて視聴者毎に見え方の異なるコンテンツを視聴することができる。また、視聴周辺環境をデータとして取り込み、視聴者により最適なコンテンツをリアルタイムに生成することができる。   As described above, according to the present invention, it is possible to present a content corresponding to the viewing-side peripheral environment to the viewer. Specifically, when viewing a program, it is possible to view content that is different for each viewer according to the viewing environment. In addition, it is possible to capture the viewing peripheral environment as data and generate optimal content in real time by the viewer.

また、本実施形態によれば、出演者との対話を通じて,コンテンツに関連する情報以外の情報を同じ仕組みの中で得ることができる。更に、本実施形態によれば、コンテンツの視聴という動作形態に個々の視聴者毎に役立つ個人的な事象、情報を統合して提示することができる。   Further, according to the present embodiment, information other than information related to content can be obtained in the same mechanism through dialogue with performers. Furthermore, according to the present embodiment, personal events and information useful for each viewer can be integrated and presented in the operation mode of viewing content.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 コンテンツ提示システム
11 コンテンツ管理サーバ
12 コンテンツ提示装置
13 通信ネットワーク
21 入力手段
22 出力手段
23 蓄積手段
24 周辺環境検知手段
25 番組スクリプト生成手段
26 対話スクリプト生成手段
27 環境対応スクリプト生成手段
28 割込制御手段
29 再生手段
30 送受信手段
31 制御手段
41 番組台本
42 素材
43 APE
44 対話DB
45 番組
46 周辺環境検知結果
47 ユーザ情報
DESCRIPTION OF SYMBOLS 10 Content presentation system 11 Content management server 12 Content presentation apparatus 13 Communication network 21 Input means 22 Output means 23 Storage means 24 Peripheral environment detection means 25 Program script generation means 26 Dialog script generation means 27 Environment corresponding | compatible script generation means 28 Interrupt control means 29 Reproduction means 30 Transmission / reception means 31 Control means 41 Program script 42 Material 43 APE
44 Dialogue DB
45 Program 46 Surrounding environment detection result 47 User information

Claims (4)

コンテンツ管理サーバから提供されるコンテンツを視聴者毎の視聴環境に応じて提示するコンテンツ提示装置において、
前記コンテンツ管理サーバから取得した予め設定される演出内容が記述された番組台本と、前記番組台本に記述された素材データとを用いて所定の演出を含むコンテンツを制作する制作エンジンによりコンテンツを生成するコンテンツ生成手段と、
前記コンテンツ生成手段により生成されたコンテンツを再生する再生手段と、
前記コンテンツを視聴する視聴側の周辺環境を検知する周辺環境検知手段と、
前記周辺環境検知手段により得られる検知結果に対応する提示情報を生成する環境対応提示情報生成手段と、
前記再生手段により再生中のコンテンツに前記環境対応提示情報生成手段により得られる提示情報を挿入する割込制御手段とを有し、
前記環境対応提示情報生成手段は、前記コンテンツが対話中である場合に、前記周辺環境検知手段により得られる検知結果に対応した対話データを用いて割り込み用コンテンツを生成することを特徴とするコンテンツ提示装置。
In a content presentation device that presents content provided from a content management server according to the viewing environment of each viewer,
Content is generated by a production engine that produces content including a predetermined effect by using a program script in which pre-set effect content acquired from the content management server is described and material data described in the program script. Content generation means;
Playback means for playing back the content generated by the content generation means;
A surrounding environment detecting means for detecting a surrounding environment of a viewer who views the content;
Environment corresponding presentation information generating means for generating presentation information corresponding to the detection result obtained by the surrounding environment detecting means;
Possess an interrupt control means for inserting the presentation information obtained by the environmental presentation information generation unit to a content being reproduced by said reproducing means,
The environment presentation information generating unit generates an interruption content using dialogue data corresponding to a detection result obtained by the surrounding environment detection unit when the content is in a conversation. apparatus.
前記環境対応提示情報生成手段は、
前記コンテンツが再生中である場合に、前記番組台本の演出内容に前記周辺環境検知手段により得られる検知結果に対応した割り込み用の演出内容を含めて割り込み用コンテンツを生成することを特徴とする請求項1に記載のコンテンツ提示装置。
The environment-friendly presentation information generating means includes
When the content is being reproduced, the content for interruption is generated by including the content for the interruption corresponding to the detection result obtained by the surrounding environment detection means in the content of the program script. Item 2. A content presentation device according to Item 1.
前記周辺環境検知手段は、
視聴側の周辺環境における照度、温度、湿度、音声、雨量、及び映像のうち、少なくとも1つを検知することを特徴とする請求項1又は2に記載のコンテンツ提示装置。
The surrounding environment detection means includes
Illuminance at the viewer side of the surrounding environment, temperature, humidity, sound, rainfall, and in the video, content presentation device according to claim 1 or 2, characterized in that sensing at least one.
コンピュータを、
請求項1乃至3の何れか1項に記載のコンテンツ提示装置が有する各手段として機能させるためのコンテンツ提示プログラム。
Computer
The content presentation program for functioning as each means which the content presentation apparatus of any one of Claims 1 thru | or 3 has .
JP2009036832A 2009-02-19 2009-02-19 Content presentation system and content presentation program Active JP5156666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009036832A JP5156666B2 (en) 2009-02-19 2009-02-19 Content presentation system and content presentation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009036832A JP5156666B2 (en) 2009-02-19 2009-02-19 Content presentation system and content presentation program

Publications (2)

Publication Number Publication Date
JP2010193295A JP2010193295A (en) 2010-09-02
JP5156666B2 true JP5156666B2 (en) 2013-03-06

Family

ID=42818834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009036832A Active JP5156666B2 (en) 2009-02-19 2009-02-19 Content presentation system and content presentation program

Country Status (1)

Country Link
JP (1) JP5156666B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114584793B (en) * 2022-02-25 2023-01-20 北京博维仕科技股份有限公司 Video network transmission safety verification method and system with environment data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4192664B2 (en) * 2003-04-18 2008-12-10 マツダ株式会社 Information providing system and computer program for information providing computer
JP4865469B2 (en) * 2006-09-20 2012-02-01 日本放送協会 Content production server, content presentation device, content production program, and content presentation program
JP2008180797A (en) * 2007-01-23 2008-08-07 Canon Inc Image display device, method for controlling same, and computer program

Also Published As

Publication number Publication date
JP2010193295A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
US8917972B2 (en) Modifying audio in an interactive video using RFID tags
US8339458B2 (en) Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using RFID tags
CN112753227B (en) Method, computer readable medium and system for extracting metadata from a depiction of an event
US10999649B2 (en) Auto-summarizing video content system and method
JP2021505046A (en) Methods and systems for recommending content in the context of conversations
US20110106536A1 (en) Systems and methods for simulating dialog between a user and media equipment device
CN102193794B (en) Link real-time media situation is to relevant application program and service
CN105144739B (en) Display system with media handling mechanism and its operating method
WO2019047850A1 (en) Identifier displaying method and device, request responding method and device
CN105451039B (en) A kind of interaction of multimedia information method and system
US20100045866A1 (en) Methods and systems for providing auxiliary viewing options
EP2621180A2 (en) Electronic device and audio output method
JP5156666B2 (en) Content presentation system and content presentation program
JP5103092B2 (en) Content management server, content presentation device, content management program, and content presentation program
JP6560503B2 (en) Rise notification system
US20220264193A1 (en) Program production apparatus, program production method, and recording medium
CN113170228B (en) Audio processing for extracting disjoint segments of variable length from audiovisual content
KR20100092689A (en) Method and system for providing game using streaming sound source
JP4796466B2 (en) Content management server, content presentation device, content management program, and content presentation program
US20240259629A1 (en) Systems and methods for leveraging machine learning for improving and enhancing dvr services
JP7209441B2 (en) Screen configuration analysis device, screen configuration analysis method and program
JP3783222B2 (en) Scene development system for recorded movie content or fiction content
KR100881572B1 (en) User interface method and set-top box for iptv service
CN118695034A (en) Display equipment and program information updating method
KR100947096B1 (en) Method and Program recoding medium for playing, using, providing and providing detailed information of multimedia data or broadcasting data

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5156666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250