JP5156666B2 - Content presentation system and content presentation program - Google Patents
Content presentation system and content presentation program Download PDFInfo
- Publication number
- JP5156666B2 JP5156666B2 JP2009036832A JP2009036832A JP5156666B2 JP 5156666 B2 JP5156666 B2 JP 5156666B2 JP 2009036832 A JP2009036832 A JP 2009036832A JP 2009036832 A JP2009036832 A JP 2009036832A JP 5156666 B2 JP5156666 B2 JP 5156666B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- program
- script
- surrounding environment
- viewer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 46
- 239000000463 material Substances 0.000 claims description 17
- 238000004519 manufacturing process Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 12
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000013515 script Methods 0.000 description 62
- 238000012545 processing Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004006 olive oil Substances 0.000 description 2
- 235000008390 olive oil Nutrition 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、コンテンツ提示システム及びコンテンツ提示プログラムに係り、特に、視聴側の周辺環境に対応させたコンテンツを視聴者に提示するためのコンテンツ提示システム及びコンテンツ提示プログラムに関する。 The present invention relates to a content presentation system and a content presentation program, and more particularly to a content presentation system and a content presentation program for presenting content corresponding to a viewing-side peripheral environment to a viewer.
従来、テレビ番組等のコンテンツは、放送局等で予め制作されVTR等の記録媒体に記録されたものが規定の時間に再生されて放送されるか、或いはリアルタイムの生番組のように番組を制作しながら放送される。なお、番組は、どちらの場合であっても放送局側で制作され、各視聴者の受信機に送信されているため、番組の内容を変更する手段は、放送局側にのみ存在していた。 Conventionally, contents such as TV programs are produced in advance at broadcast stations and recorded on a recording medium such as a VTR and are played back at a specified time or broadcast, or a program is produced like a real-time live program. While being broadcast. In either case, since the program is produced on the broadcast station side and transmitted to each viewer's receiver, means for changing the contents of the program existed only on the broadcast station side. .
しかしながら、近年では、視聴者側で番組をその場で生成する技術として自動番組制作システムが存在する(例えば、特許文献1参照。)。なお、自動番組制作システムの例としては、TV4Uがある。TV4Uは、TVML(TV program Marking Language)とAPE(Automatic Production Engine)をベースとしてCG(Computer Graphics)を用いたテレビ番組等を簡単に制作、配信、視聴することができる新しいテレビシステムである。 However, in recent years, an automatic program production system exists as a technique for generating a program on the spot on the viewer side (see, for example, Patent Document 1). An example of an automatic program production system is TV4U. The TV4U is a new television system that can easily produce, distribute, and watch TV programs and the like using CG (Computer Graphics) based on TVML (TV program Marking Language) and APE (Automatic Production Engine).
ここで、TVMLとは、テレビ番組を制作するためのオブジェクトベース記述言語であり、テレビ番組の映像や音声等を、素材データと台本(演出内容等)とにより記述することができ、制作側で番組台本を記述することで、パソコン等で動作するソフトウェア等がこれを読み取り、即座にテレビ番組として再生・視聴することができる。更にTVMLの知識がなくても、簡単な台本を記述するだけで番組制作ができる仕組みとして考案されたのが番組制作エンジンAPEである。 Here, TVML is an object-based description language for producing a TV program, and can describe video and audio of a TV program using material data and a script (production contents, etc.). By writing a program script, software or the like that operates on a personal computer or the like can read it and immediately reproduce and view it as a television program. Furthermore, the program production engine APE was devised as a mechanism that enables program production by simply writing a simple script without knowledge of TVML.
番組制作者は、TVMLより簡単な記述様式で台本を記述するだけで、APEがこの簡単な台本を解釈し、適切な演出を付加したTVMLによる台本を生成する。これをパソコン等で動作するソフトウエア等が読み取り、テレビ番組として再生する。 The program producer simply describes the script in a simpler description format than TVML, and APE interprets this simple script and generates a script by TVML with an appropriate presentation. This is read by software running on a personal computer or the like and reproduced as a television program.
なお、番組制作エンジンとは、番組に登場するCGキャラクタや番組における1つの動作の単位でタイトル表示やカメラワーク、CGキャラクタの動作等のイベントが予め定義されたものである。例えば、番組の内容を表す番組台本からのテキストデータ等を入力すると、それを元に番組の自動生成に必要なTVMLスクリプトを出力する。このように、番組制作エンジンを用いることで効率的に番組制作を実現することができる。 Note that the program production engine is a CG character appearing in a program or an event such as title display, camera work, or CG character operation defined in advance for each operation in the program. For example, when text data or the like from a program script representing the contents of a program is input, a TVML script necessary for automatic program generation is output based on the text data. Thus, program production can be efficiently realized by using the program production engine.
また、番組コンテンツの提供については、主にインターネット等の通信ネットワーク等を介して、HTML(HyperText Markup Language)やXML(eXtensible Markup Language)等のマークアップ言語や、画像、映像、音声、テキスト情報等の素材データ等がWeb上のサーバ等に公開されている。そのため、ユーザは、所望する情報(番組台本(テキスト)、素材データ、APE(逐次処理型)、対話DB等)を選択してダウンロードすることで取得することができる。 In addition, program contents are provided mainly through a communication network such as the Internet, such as markup languages such as HTML (HyperText Markup Language) and XML (Extensible Markup Language), images, video, audio, text information, etc. Material data and the like are disclosed on a server on the Web. Therefore, the user can obtain the information by selecting and downloading desired information (program script (text), material data, APE (sequential processing type), dialogue DB, etc.).
また、TV4Uでは、放送局側から、視聴者側に番組として、番組台本、演出、素材データを送信し、これを視聴者側で視聴時に番組として生成する。また、TV4Uでは、視聴者がテレビ番組を視聴中に任意のタイミングで番組に割り込み、番組出演者との直接対話を可能としている。 Also, in the TV 4U, a program script, production, and material data are transmitted as a program from the broadcast station side to the viewer side, and this is generated as a program at the time of viewing on the viewer side. Further, in the TV 4U, the viewer interrupts the program at an arbitrary timing while watching the television program, and enables direct dialogue with the program performer.
ところで、TV4Uによるテレビ番組視聴においては、制作側から提供されたAPEや番組台本を視聴者側で予め設定された範囲内で設定し、視聴するテレビ番組の演出を変更することは可能であるが、視聴者がテレビ番組を視聴している時点における視聴環境周辺の状態に応じて、視聴しているテレビ番組の内容や演出をリアルタイムに変化させることはできなかった。これは、TV4UにおけるCGキャラクタ等との対話形式による番組についても同様である。 By the way, when viewing a TV program by the TV 4U, it is possible to set the APE and the program script provided from the production side within a preset range on the viewer side and change the presentation of the TV program to be viewed. The contents and effects of the TV program being viewed cannot be changed in real time according to the state around the viewing environment when the viewer is watching the TV program. The same applies to a program in an interactive format with a CG character or the like on the TV 4U.
本発明は、上述した問題点に鑑みなされたものであり、視聴側の周辺環境に対応させたコンテンツを視聴者に提示するためのコンテンツ提示システム及びコンテンツ提示プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a content presentation system and a content presentation program for presenting content corresponding to the viewing-side peripheral environment to the viewer.
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。 In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.
請求項1に記載された発明は、コンテンツ管理サーバから提供されるコンテンツを視聴者毎の視聴環境に応じて提示するコンテンツ提示装置において、前記コンテンツ管理サーバから取得した予め設定される演出内容が記述された番組台本と、前記番組台本に記述された素材データとを用いて所定の演出を含むコンテンツを制作する制作エンジンによりコンテンツを生成するコンテンツ生成手段と、前記コンテンツ生成手段により生成されたコンテンツを再生する再生手段と、前記コンテンツを視聴する視聴側の周辺環境を検知する周辺環境検知手段と、前記周辺環境検知手段により得られる検知結果に対応する提示情報を生成する環境対応提示情報生成手段と、前記再生手段により再生中のコンテンツに前記環境対応提示情報生成手段により得られる提示情報を挿入する割込制御手段とを有し、前記環境対応提示情報生成手段は、前記コンテンツが対話中である場合に、前記周辺環境検知手段により得られる検知結果に対応した対話データを用いて割り込み用コンテンツを生成することを特徴とする。
According to the first aspect of the present invention, in the content presentation device that presents the content provided from the content management server according to the viewing environment of each viewer, the pre-set effect content acquired from the content management server is described. Content generating means for generating content by a production engine that generates content including a predetermined effect using the program script that has been generated and the material data described in the program script, and the content generated by the content generating means Reproducing means for reproducing, surrounding environment detecting means for detecting the surrounding environment on the viewing side for viewing the content, and environment corresponding presentation information generating means for generating presentation information corresponding to the detection result obtained by the surrounding environment detecting means, The content corresponding to the content being reproduced by the reproduction means is Possess an interrupt control means for inserting the presentation information obtained, the environmental presentation information generating unit, when the content is being interaction, interaction data corresponding to be detected results obtained by the surrounding environment detection means The content for interruption is generated using .
請求項1記載の発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。また、対話中であっても、その演出内容をそのまま利用して検知した周囲環境に対応した情報をリアルタイムに提示することができる。
According to the first aspect of the present invention, it is possible to present the viewer with content corresponding to the peripheral environment on the viewer side. Further, even during the conversation, information corresponding to the surrounding environment detected using the contents of the effect can be presented in real time.
請求項2に記載された発明は、前記環境対応提示情報生成手段は、前記コンテンツが再生中である場合に、前記番組台本の演出内容に前記周辺環境検知手段により得られる検知結果に対応した割り込み用の演出内容を含めて割り込み用コンテンツを生成することを特徴とする。
According to a second aspect of the present invention, when the content is being played back, the environment-related presentation information generating unit interrupts the presentation content of the program script corresponding to the detection result obtained by the surrounding environment detection unit. It is characterized in that interrupting content is generated including production contents for use.
請求項2記載の発明によれば、番組再生中であっても、その演出内容をそのまま利用して検知した周囲環境に対応した情報をリアルタイムに提示することができる。 According to the second aspect of the present invention, even when a program is being reproduced, it is possible to present information corresponding to the surrounding environment detected using the contents of the effect as it is in real time.
請求項3に記載された発明は、前記周辺環境検知手段は、視聴側の周辺環境における照度、温度、湿度、音声、雨量、及び映像のうち、少なくとも1つを検知することを特徴とする。
The invention described in claim 3 is characterized in that the surrounding environment detection means detects at least one of illuminance, temperature, humidity, sound, rainfall, and video in the viewing-side surrounding environment.
請求項3記載の発明によれば、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。
According to the invention described in claim 3, by acquiring one or more detected surrounding environment information, it is possible to present more appropriate information in real time according to the situation of the viewer.
請求項4に記載された発明は、コンピュータを、請求項1乃至3の何れか1項に記載のコンテンツ提示装置が有する各手段として機能させるためのコンテンツ提示プログラムである。
The invention described in claim 4 is a content presentation program for causing a computer to function as each unit included in the content presentation device according to any one of claims 1 to 3 .
請求項4記載の発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。また、実行プログラムをコンピュータにインストールすることにより、容易にコンテンツの提示を実現することができる。
According to the fourth aspect of the present invention, it is possible to present the viewer with content corresponding to the viewing-side peripheral environment. Moreover, content can be easily presented by installing an execution program in a computer.
本発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。 According to the present invention, it is possible to present a content corresponding to the viewing-side peripheral environment to the viewer.
<本発明について>
本発明は、テレビ番組等のコンテンツの提供において、例えばコンテンツに含まれるCGをベースにしたテレビ番組に対し、視聴者の視聴環境周辺の情報をリアルタイムに取得し、これらの情報を反映させたコンテンツの提供及び出演者との対話にリアルタイムに反映させるものである。
<About the present invention>
In the provision of content such as a TV program, the present invention obtains, in real time, information around the viewing environment of a viewer for a TV program based on CG included in the content, and reflects the information. And to reflect in real time in the dialogue with the performers.
具体的には、例えば番組制作エンジンを用いて生成される番組の演出内容を記述したスクリプト(TVMLスクリプト)を生成する仕組みに、逐次処理型APEを用いる。また、この逐次処理型APEには、対話内容を記述したもの(対話スクリプト)を入力するが、視聴者の視聴環境周辺の状態をリアルタイムでサンプリングし、この情報を使用して、逐次処理型APEに入力する対話内容及び対話時の演出を生成する。これにより、出力する番組及び番組出演者との対話場面について、対話内容及び演出をリアルタイムに変化させる。 Specifically, for example, a sequential processing type APE is used as a mechanism for generating a script (TVML script) that describes the contents of a program generated using a program production engine. In addition, the sequential processing type APE is input with a description of dialogue contents (dialog script). The state around the viewing environment of the viewer is sampled in real time, and this information is used to calculate the sequential processing type APE. The contents of the dialog to be input to and the effect at the time of the dialog are generated. As a result, the dialogue contents and effects are changed in real time for the program to be output and the dialogue scene with the program performer.
以下に、上述したような特徴を有する本発明におけるコンテンツ提示システム及びコンテンツ提示プログラムを好適に実施した形態について、図面を用いて詳細に説明する。 Hereinafter, a preferred embodiment of a content presentation system and a content presentation program according to the present invention having the above-described features will be described in detail with reference to the drawings.
なお、本実施形態では、コンテンツの一例として番組を用いる。更に、本実施形態では、番組の生成や提示等に用いられるスクリプトの一例として、上述したTVMLを用いる。また、以下に説明する本発明の一実施形態として使用されるコンテンツ提示装置は、自動番組制作システム(TV4U)の機能を有するものとする。 In the present embodiment, a program is used as an example of content. Furthermore, in the present embodiment, the above-described TVML is used as an example of a script used for generating or presenting a program. In addition, a content presentation device used as an embodiment of the present invention described below has a function of an automatic program production system (TV 4U).
<システム構成>
図1は、コンテンツ提示システムの一構成例を示す図である。図1に示すコンテンツ提示システム10は、コンテンツ管理サーバ11と、少なくとも1つからなるコンテンツ提示装置(クライアント端末)12−1,12−2,・・・,12−nとを有するよう構成されている。また、コンテンツ管理サーバ11及びコンテンツ提示装置12は、インターネット等の通信ネットワーク13を介してデータの送受信が可能な状態で接続されている。
<System configuration>
FIG. 1 is a diagram illustrating a configuration example of a content presentation system. A
ここで、コンテンツ管理サーバ11は、予め蓄積された画像や映像、音声、テキストデータ等の各種データに基づいて、視聴者に提供するコンテンツの一例として番組の制作を行う制作側の装置である。
Here, the
コンテンツ管理サーバ11により制作される番組は、例えば上述したTVMLの場合、番組全体の流れや番組の演出等の内容が記述された番組台本(テキスト)と、静止画、動画、音楽(音声)、テキストデータ等の各種データからなる素材と、その番組の制作に用いられるAPE(逐次処理型)と、番組に登場するCGキャラクタ等を用いて視聴者側と対話するなる対話データベース(対話DB)とを有するよう構成されている。これらの各種データは、例えば番組単位等で管理されている。
For example, in the case of the above-mentioned TVML, the program produced by the
したがって、例えばあるコンテンツ提示装置12から特定の番組を視聴したい旨のリクエストがあった場合には、予め多数の番組台本、素材、APE等の各データが蓄積された蓄積手段等から、その番組に対応する番組台本、素材、APEを抽出し、抽出されたデータをリクエストのあったコンテンツ提示装置12に出力する。これにより、視聴者毎に所望する番組を個々に提供することができる。
Therefore, for example, when there is a request from a certain
なお、コンテンツ管理サーバ11は、蓄積手段等に蓄積された番組等を任意のタイミングでコンテンツ提示装置12に提供してもよい。
Note that the
一方、コンテンツ提示装置12−1,12−2,・・・,12−nは、クライアント側(視聴者側)に設置され、通信ネットワーク13を介してコンテンツ管理サーバ11から送信された番組に関する各種データ等を受信し、受信結果に基づいてTVMLスクリプトを生成し、TVMLPlayerが番組を生成し、再生して視聴者に提示する。
On the other hand, the content presentation devices 12-1, 12-2,..., 12-n are installed on the client side (viewer side) and various types of programs related to programs transmitted from the
また、コンテンツ提示装置12は、各TVブラウザで異なる番組を視聴中に取得した視聴者の視聴環境周辺の状態、又はコンテンツ管理サーバ11からの所定の制御情報があった場合に、視聴中の番組の演出を維持したまま、又は演出を変更して対応する情報を番組として視聴することができる。
In addition, the
また、コンテンツ提示装置12は、受信側に設けられた視聴中の部屋の照度センサや温度センサ等の周辺環境を検知する各種センサ(周辺環境検知手段)と、検知された情報に基づいて対応する対話データを生成するための対話データベースとを有し、各種センサからの検知データの少なくとも1つのデータ又は複数のデータを組み合わせて得られる情報等を用いて対話データベースから適切な対話文を抽出し、番組途中に割り込み制御を行い、その対話内容を提示する。これにより、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。
In addition, the
なお、コンテンツ提示装置12は、例えば自らが番組の生成、再生に必要な番組台本、素材、APE等を生成することができ、生成した各種データを、通信ネットワーク13を介してコンテンツ管理サーバ11に送信(アップロード)することができる。
Note that the
また、本実施形態では、例えば番組視聴モードから対話モードに切り替える際には、APEへの入力を番組台本から対話DBにある対話番組台本に切り替えることにより実現する。つまり、本発明では、演出を付加するAPEが番組生成時と対話生成時とで同一とする。これにより、ユーザは番組出演者とそのまま対話を行うことができる。 In the present embodiment, for example, when switching from the program viewing mode to the interactive mode, the input to the APE is realized by switching from the program script to the interactive program script in the dialog DB. That is, in the present invention, the APE to which the effect is added is the same at the time of program generation and at the time of dialog generation. As a result, the user can directly interact with the program performers.
なお、上述したシステム構成によれば、コンテンツ管理サーバ11とコンテンツ提示装置12とは、1:nの関係となっているが、本発明においてはこれに限定されるものではなく、例えばn:nであってもよい。したがって、コンテンツ管理サーバ11からダウンロード可能な、蓄積データである番組台本(テキスト)、素材(静止画・動画・音楽)、APE(逐次処理型)、対話DBは、1台のコンテンツ管理サーバ11からでもよく、複数のコンテンツ管理サーバ11から上述した情報を1又は複数取得してもよい。
According to the system configuration described above, the
次に、上述した実施形態において本発明に係るコンテンツ提示装置12の機能構成例について説明する。
Next, a functional configuration example of the
<コンテンツ提示装置12:機能構成>
次に、コンテンツ提示装置12の機能構成について図を用いて説明する。図2は、本実施形態におけるコンテンツ提示装置の機能構成の一例を示す図である。図2に示すコンテンツ提示装置12は、入力手段21と、出力手段22と、蓄積手段23と、周辺環境検知手段24と、番組スクリプト生成手段25と、対話スクリプト生成手段26と、環境対応スクリプト生成手段(環境対応提示情報生成手段)27と、割込制御手段28と、再生手段29と、送受信手段30と、制御手段31とを有するよう構成されている。なお、番組スクリプト生成手段25及び対話スクリプト生成手段26は、コンテンツを生成するコンテンツ生成手段である。
<Content Presentation Device 12: Functional Configuration>
Next, the functional configuration of the
入力手段21は、ユーザ(視聴者等)からの番組取得に関するリクエストや、コンテンツ管理サーバ11により公開された番組データ等へのアクセス、ダウンロード又は自動配信等により取得した番組の再生、視聴側の周辺環境についての情報の入力等の各種入力指示を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス、音声により指示を入力するためのマイク等からなる。
The input means 21 is a request for program acquisition from a user (viewer or the like), access to program data released by the
また、出力手段22は、入力手段21により入力された指示内容や、再生手段29により再生された番組等を表示する。なお、出力手段22は、ディスプレイ、スピーカ等からなる。
In addition, the
蓄積手段23は、コンテンツ管理サーバ11や、通信ネットワーク13により接続される外部端末等から取得若しくはコンテンツ提示装置12で生成した番組台本41、素材42、APE43、対話DB44、番組45、周辺環境検知結果46、ユーザの年齢、性別、性格、毎日のスケジュール等を含む個人情報や嗜好情報を含むユーザ情報47等を蓄積する。なお、蓄積手段23は、上述した各種データを通信ネットワーク13等に接続された外部装置等から取得することもできる。また、蓄積手段23は、例えばデータベース等のように文字情報や画像情報、その他の情報の集合物であり、それらの情報を検索することができるように体系的に構成されている。
The storage means 23 is a
周辺環境検知手段24は、視聴側に設置されるコンテンツ提示装置12の周辺環境について、例えば視聴前、視聴時における所定時間、所定時間間隔、曜日、日付等の時間情報、番組のチャンネル変更時等の予め設定された条件に基づいて検知する。なお、周辺環境検知手段24は、視聴後においても時間情報等の予め設定された条件を基準として定期又は不定期に周辺環境を検知することができる。
The surrounding environment detection means 24 is for the surrounding environment of the
ここで、周辺環境検知手段24は、コンテンツ提示装置12として、周辺環境を検知する少なくとも1つのセンサを有している。具体的には、周辺環境検知手段24は、例えばコンテンツ提示装置12が設置された部屋の明るさを検知する場合は照度センサを有し、その部屋の温度又は外気の温度を検知する場合は、それぞれの場所に温度センサを有し、湿度を検知する場合は湿度センサを有する。また、周辺環境検知手段24は、コンテンツ提示装置12が設置された地点における天候において雨が降っているかを検知する場合には雨センサを有し、周囲の音(視聴者の声や周りの騒音レベル等)を検知する場合には音認識センサを有する。なお、音認識センサには、ユーザの動作により発生する音や肉声を認識してユーザとCGキャラクタとの対話を実現する機能も有する。
Here, the surrounding environment detection means 24 has at least one sensor for detecting the surrounding environment as the
更に、周辺環境検知手段24は、視聴者を撮影するカメラ等の撮像手段を有していてもよく、この場合には、撮影された映像に対して既存の顔認証処理を行い、その結果から、視聴しているか(顔が画面方向を向いているか)、何人(1又は複数)で見ているか、画面から視聴者まで距離等の情報を取得して利用することができる。なお、上述のセンサは、複数設置されてもよく、必要に応じて上述した複数のセンサ等からの検知結果を組み合わせることができる。これにより、検知した1以上の周辺環境情報を取得することで、視聴者の状況に合わせてより適切な情報をリアルタイムに提示することができる。
Furthermore, the surrounding
なお、周辺環境検知手段24は、検知した結果を蓄積手段23に周辺環境検知結果46として、その時間の検知情報又は今までの統計的な検知情報を蓄積する。
The surrounding
番組スクリプト生成手段25は、蓄積手段23に予め蓄積された番組台本41、素材42、及びAPE43に基づいて番組スクリプトを生成する。なお、番組スクリプト生成手段25にて生成された各種番組は、蓄積手段23の番組45として蓄積され、再生時に呼び出されるようにしてもよい。
The program
更に、番組スクリプト生成手段25は、生成した番組スクリプトを所定の番組制作エンジンや素材データを用いて番組台本を生成して、新たな番組を生成することができる。この場合、番組スクリプト生成手段25は、生成した新たな番組を送受信手段30により通信ネットワーク13を介してコンテンツ管理サーバ11に送信(アップロード)させる。
Further, the program script generation means 25 can generate a program script by using the generated program script using a predetermined program production engine and material data, and can generate a new program. In this case, the program
対話スクリプト生成手段26は、蓄積手段23に予め蓄積された素材42、APE43、及び対話DB44に基づいてユーザに対して番組中のCGキャラクタ等が対話を行うための対話スクリプトを生成する。また、対話スクリプト生成手段26にて生成された対話スクリプトは、そのままリアルタイムに再生されるものであるが、例えば蓄積手段23の対話DB44等に蓄積することもできる。
The dialogue
つまり、対話スクリプト生成手段26は、放送局側にある対話DBから出力された対話番組台本と、受信機側に用意された付加対話DB及び付加対話DBの出力である付加対話用の番組台本を編集して対話番組用のスクリプトを生成する。 That is, the dialogue script generation means 26 receives the dialogue program script output from the dialogue DB on the broadcast station side, the additional dialogue DB prepared on the receiver side, and the program script for additional dialogue that is the output of the additional dialogue DB. Edit and generate scripts for interactive programs.
環境対応提示情報生成手段としての環境対応スクリプト生成手段27は、周辺環境検知手段24により得られる検知結果を用いて蓄積手段23に蓄積された対話DB44から、対応する対話データを抽出し、抽出した対話情報に基づいて環境対応スクリプトを生成する。なお、環境対応スクリプトについての詳細については後述する。
The environment correspondence script generation means 27 as the environment correspondence presentation information generation means extracts and extracts the corresponding dialogue data from the
割込制御手段28は、番組スクリプト生成手段25により生成された番組スクリプトを再生手段29で実行している最中に、例えば1行のスクリプト毎(例えば、ある1つの動作や画像表示等の命令毎)又は所定の意味を持った一連のスクリプト群の間又は途中に強制的に環境スクリプトを割り込ませて再生手段29により再生させる。これにより、番組の内容を維持しながら、途中で視聴者毎の周辺環境に対応したキャラクタのセリフやメッセージを対応する各視聴者にリアルタイムに提供することができる。なお、割込制御手段28は、周辺環境に対応した環境対応スクリプトを番組又は対話中に割り込み挿入させた後、所定時間経過後又は視聴者からの応答後に元の番組又は対話に戻り、それ以降の再生を継続して行う。 The interrupt control means 28, for example, for each script on one line (for example, a command such as a certain operation or image display) while the reproduction means 29 is executing the program script generated by the program script generation means 25. Every time) or the environment script is forcibly interrupted between or in the middle of a series of scripts having a predetermined meaning, and is played back by the playback means 29. Thereby, while maintaining the contents of the program, it is possible to provide a real-time message line or message corresponding to the surrounding environment of each viewer to each corresponding viewer. The interrupt control means 28 interrupts and inserts an environment-corresponding script corresponding to the surrounding environment during the program or dialogue, and then returns to the original program or dialogue after a predetermined time has elapsed or after a response from the viewer. Continue playing.
再生手段29は、コンテンツ管理サーバ11から取得した各番組情報(番組台本、素材、APE)から番組を再生し、出力手段22により出力させて視聴者に提供する。また再生手段29は、現在再生している番組の内容を視聴情報として生成し、送受信手段30により通信ネットワーク13を介してコンテンツ管理サーバ11に送信する。
The
なお、再生手段29は、例えばTVMLプレイヤー(TVMLPlayer)等を用いることができる。TVMLプレイヤーとは、TVMLで記述された番組スクリプトを読み取り、番組映像音声をリアルタイムにブラウザに出力するソフトウェアである。TVMLプレイヤーは、スタジオショットをリアルタイムCGで生成し、CGスタジオセットの中に登場するCGキャラクタがTVMLスクリプト中に記述された台詞を合成音声でしゃべり、演技するところを表示することができる。
For example, a TVML player (TVMLPlayer) or the like can be used as the reproducing
送受信手段30は、番組取得リクエストや、番組スクリプト生成手段25により生成した番組情報、再生手段29により生成した視聴情報等の各情報をコンテンツ管理サーバ11に送信する。また、送受信手段30は、コンテンツ提示サーバ11から番組情報、割り込み用の制御情報等の各情報を受信する。
The transmission /
制御手段31は、コンテンツ提示装置12の各構成全体の制御を行う。具体的には、制御手段31は、データの入出力制御や送受信制御の他、周辺環境検知手段24によりコンテンツ提示装置12が設置された場所の周囲の環境を上述した各センサ等により検知させたり、番組スクリプト生成手段25により番組スクリプトを生成させたり、対話スクリプト生成手段26によりユーザに対する対話スクリプトを生成させたり、環境対応スクリプト生成手段27により環境対応スクリプトを生成させたり、割込制御手段28により割り込み制御させたり、再生手段29により番組を再生させる等の処理を制御する。
The control means 31 controls the entire configuration of the
上述した構成により、管理側(コンテンツ管理サーバ11)からコンテンツ提示側の1又は複数の端末(コンテンツ提示装置12−1〜12−n)に対して効率的に制御を行うことができる。なお、上述したコンテンツ提示装置12は、使用者の権限等に応じてコンテンツ管理サーバ11の機能を設けてもよい。これにより、コンテンツ提示装置間のみで上述のシステムを実現することができる。
With the configuration described above, the management side (content management server 11) can efficiently control one or a plurality of terminals (content presentation devices 12-1 to 12-n) on the content presentation side. In addition, the
<コンテンツ提示時の具体例>
次に、本実施形態におけるコンテンツ提示の具体例について図を用いて説明する。図3は、本実施形態におけるコンテンツ提示の具体例を説明するための図である。なお、図3(a)は、番組生成時におけるコンテンツ提示の一例を示し、図3(b)は、対話生成時におけるコンテンツ提示の一例を示している。
<Specific examples when presenting content>
Next, a specific example of content presentation in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram for explaining a specific example of content presentation in the present embodiment. FIG. 3A shows an example of content presentation at the time of program generation, and FIG. 3B shows an example of content presentation at the time of dialog generation.
図3(a)では、受信機側にあるコンテンツ提示装置12の仕組みとして、例えば周辺環境検知手段24としての照度センサを設け、更に照度センサからのデータをAPEの入力形式であるAPEスクリプトに変換する環境対応スクリプト生成手段27が設けられている。また、図3(b)に示す対話生成時の例としては、受信機側にあるコンテンツ提示装置12の仕組みとして、例えば周辺環境検知手段24としての雨センサを設け、更に雨センサからの検知情報と、放送局側にある対話DBから出力された対話台本(対話用番組台本)と、受信機側に用意された付加対話DB及び付加対話DBの出力である付加対話台本とを用いて編集する対話台本編集処理(対話スクリプト生成手段26)を有している。
In FIG. 3A, as a mechanism of the
なお、上述した図3(a),(b)における照度センサ及び雨センサについては、リアルタイム情報を取得する手段としての一例であり、その情報を提示する際には、周辺環境対応スクリプトにより他の番組中にテロップ等の情報として番組に挿入させることもでき、更には番組に出演しているCGキャラクタ等を用いて内容を対話形式で提示させることもできる。これらの提示は、図3(a),(b)に示すように再生手段29としてのTVMLPlayerを用いて番組再生や対話再生が行われる。 Note that the illuminance sensor and the rain sensor in FIGS. 3A and 3B described above are examples of means for acquiring real-time information, and when presenting the information, other environment-corresponding scripts are used. It can be inserted into the program as information such as a telop in the program, and further, the contents can be presented in an interactive manner using a CG character appearing in the program. As shown in FIGS. 3A and 3B, these presentations are performed by using a TVML Player as the playback means 29 for program playback and dialog playback.
<リアルタイム制御の具体例>
次に、本実施形態において、上述した番組生成時にリアルタイムデータを用いた場合について説明する。図4は、本実施形態におけるリアルタイムデータを用いた番組生成の一例を説明するための図である。なお、図4の例では、周辺環境検知手段24を用いたリアルタイムデータとして照度センサを用い、視聴者の視聴環境の照度をリアルタイム計測している。また、図4に示す例では、視聴環境の照度が暗くなった状態を想定している。
<Specific examples of real-time control>
Next, in this embodiment, the case where real-time data is used at the time of the above-described program generation will be described. FIG. 4 is a diagram for explaining an example of program generation using real-time data in the present embodiment. In the example of FIG. 4, an illuminance sensor is used as real-time data using the surrounding environment detection means 24, and the illuminance of the viewer's viewing environment is measured in real time. In the example shown in FIG. 4, it is assumed that the viewing environment is dark.
図4に示すように、照度センサからの出力データをデータ変換し、システム内部で利用できるデータ形式にする。このデータに基づいて、番組内の照明の照度を決定するパラメータの選択やCGキャラクタ等の番組出演者がセリフをしゃべる際のしゃべり方を決定する。 As shown in FIG. 4, the output data from the illuminance sensor is converted into a data format that can be used inside the system. Based on this data, selection of a parameter for determining the illumination intensity of the lighting in the program and how to speak when a program performer such as a CG character speaks the speech is determined.
図4に示す例では、照明は「落とし気味」、しゃべりは「ゆっくり」を選択している。これをAPEスクリプト化(light="0.2"、tone="relaxed")し、照明パラメータとして逐次処理型のAPEに入力すると、APEは即座に入力されたAPEスクリプトから番組内の照度を設定するためのTVMLスクリプト(light:name=light1,r=0.4,g=0.4,b=0.4)、及び出演者のしゃべりの調子を設定するTVMLスクリプトに変換(character:talk(name=CharacterA,text="****",rate="0.7",pitch="0.7"))し、これを再生手段としてのTVMLPlayerに送信する。 In the example shown in FIG. 4, “lighting down” is selected for lighting and “slow” is selected for talking. When this is converted into an APE script (light = “0.2”, tone = “relaxed”) and input as a lighting parameter to a sequential processing type APE, the APE immediately sets the illuminance in the program from the input APE script. TVML script (light: name = light1, r = 0.4, g = 0.4, b = 0.4), and a TVML script that sets the tone of the performer's chat (character: talk ( name = CharacterA, text = “***”, rate = “0.7”, pitch = “0.7”)), and this is transmitted to the TVML Player as the playback means.
これにより、TVMLPlayerでは、番組内の照明の照度を実際の視聴者の部屋の明るさに合わせて変更することで、同じ空間内にあるような特殊な演出を施した番組を提示することができる。以上の処理により、視聴者の視聴環境周辺の明るさから生成する番組をリアルタイムに可変することができる。 Thereby, in TVMLPlayer, it is possible to present a program with special effects such as those in the same space by changing the illumination intensity of the illumination in the program according to the brightness of the actual viewer's room. . Through the above processing, the program generated from the brightness around the viewing environment of the viewer can be changed in real time.
図5は、周辺環境を検知後の処理の具体例を説明するための図である。図5では、照度センサからリアルタイムに出力される数値データを、データ変換して正規化する。 FIG. 5 is a diagram for explaining a specific example of processing after detecting the surrounding environment. In FIG. 5, numerical data output in real time from the illuminance sensor is normalized by performing data conversion.
ここで、番組内の照明の設定の際、正規化された数値データをそのまま用いると、値が小さすぎた場合に生成する映像が暗くなりすぎるため、この実施例では下限を0.4とし、それ以下の数値データの際は全て0.4とする。この変換条件に基づいて、照明の設定を行うのに必要なAPEスクリプトを生成する。 Here, when setting the lighting in the program, if the normalized numerical data is used as it is, the video generated when the value is too small becomes too dark. Therefore, in this embodiment, the lower limit is set to 0.4, All numerical data below that is 0.4. Based on this conversion condition, an APE script necessary for setting illumination is generated.
次に、生成したAPEスクリプトを逐次処理型APEに入力することで、逐次処理型APEはAPEスクリプトを解釈し、照明設定用のAPEスクリプトを生成する。これをTVMLPlayerに入力することで、番組内の照明をリアルタイムに変更することができる(図5の例では、light:model(name=**,type=**,r=0.4,g=0.4,b=0.4))。 Next, by inputting the generated APE script to the sequential processing type APE, the sequential processing type APE interprets the APE script and generates an APE script for lighting setting. By inputting this into the TVML Player, the lighting in the program can be changed in real time (in the example of FIG. 5, light: model (name = **, type = **, r = 0.4, g = 0.4, b = 0.4)).
また、出演者のしゃべる調子の可変については、正規化された数値データが、図5に示すように、予め蓄積されている数値データ別トーンタイプのうち、どのタイプに入るかにより決定する。図5の例では、「0.0≦数値データ≦0.4」の場合に"relaxed"を選択し、「0.4<数値データ≦0.7」の場合に"middle"を選択し、「0.7<数値データ≦1.0」の場合に"smart"を選択するような3段階のトーンタイプが蓄積されている場合、図5に示す例では照度センサから得られる数値データが0.4であるため、しゃべりのトーンは"Relaxed"が選択される。 Further, the change of the tone that the performer speaks is determined by which type of normalized numeric data is included among the tone types classified by numeric data in advance as shown in FIG. In the example of FIG. 5, “relaxed” is selected when “0.0 ≦ numerical data ≦ 0.4”, “middle” is selected when “0.4 <numerical data ≦ 0.7”, In the case of “0.7 <numerical data ≦ 1.0”, when three levels of tone types for selecting “smart” are accumulated, the numerical data obtained from the illuminance sensor is 0 in the example shown in FIG. .4, “Relaxed” is selected as the talking tone.
また、しゃべりのトーンを設定するAPEスクリプトを予め蓄積されたトーンに対応するパラメータ数値を用いて生成し(図6の例では、pitch=0.7,rate=0.7)、これを逐次処理型APEに入力することで"Relaxed"に合致するしゃべりのパラメータのTVMLスクリプトを生成し再生することができる(図5の例では、character:talk(name=characterA,text="**",pitch=0.7,rate=0.7))。 In addition, an APE script for setting a talk tone is generated using parameter values corresponding to previously stored tones (in the example of FIG. 6, pitch = 0.7, rate = 0.7), and this is sequentially processed. A TVML script having a chat parameter that matches “Relaxed” can be generated and played by inputting it to the type APE (in the example of FIG. 5, character: talk (name = characterA, text = “**”, pitch) = 0.7, rate = 0.7)).
したがって、照度センサによる実際の視聴者の部屋の照度に対応させて、番組内の照度及び出演者のしゃべり方をリアルタイムに変更して提示することができる。 Therefore, the illuminance in the program and how the performers talk can be changed and presented in real time in accordance with the actual illuminance of the viewer's room by the illuminance sensor.
次に、図6は、対話生成時にリアルタイムデータの提示例を説明するための図である。なお、図6では、周辺環境検知手段24による検知データとして雨量データを用いた例を示している。つまり、図6の例では、周辺環境検知手段24として視聴者の視聴環境周辺(屋外)に雨センサが設置されている。 Next, FIG. 6 is a figure for demonstrating the example of presentation of real-time data at the time of dialog production | generation. FIG. 6 shows an example in which rainfall data is used as detection data by the surrounding environment detection means 24. That is, in the example of FIG. 6, a rain sensor is installed around the viewer's viewing environment (outdoors) as the surrounding environment detection means 24.
雨センサからの生データは、周辺環境検知手段24で検知後、利用可能なデータに変換される。また、周辺環境検知手段24は、変換した雨データを用いて雨量の評価(少雨,大雨等)を行う。また、環境対応スクリプト生成手段27は、その雨量の評価結果を用いて,雨の度合に応じた付加対話台本を付加対話DBから選択し、これを対話台本と共に逐次処理型APEに入力する。これにより、通常の対話だけではなく、視聴者の視聴環境周辺での状況に応じた対話をリアルタイムに生成することが可能となる。
The raw data from the rain sensor is converted into usable data after being detected by the surrounding environment detection means 24. In addition, the surrounding
ここで、図7は、対話生成時における具体的な提示例を説明するための図である。なお、図7(a)は、周辺環境として雨センサから得られた出力データに対応させた具体的な対話処理の流れを示し、図7(b)は、図7(a)に示す処理により再生される対話の一例を示している。 Here, FIG. 7 is a diagram for explaining a specific example of presentation at the time of generating a dialog. FIG. 7A shows a specific flow of interactive processing corresponding to the output data obtained from the rain sensor as the surrounding environment, and FIG. 7B shows the processing shown in FIG. An example of a dialog to be played is shown.
上述したように対話生成中は、対話DBから対話台本(APEスクリプト)を取得し、番組生成時と同様にAPEに入力することで対話シーンを生成している。図7の例では、視聴者がオリーブオイルについて問い合わせした後、出演者が説明をしている状況を示している。ここで、視聴側の視聴環境の屋外に周辺環境検知手段24としての雨センサが設置されており、センサにより雨が検知される。 As described above, during dialog generation, a dialog script (APE script) is acquired from the dialog DB, and input to the APE in the same manner as when generating a program, thereby generating a dialog scene. The example of FIG. 7 shows a situation where the performer is explaining after the viewer inquires about olive oil. Here, a rain sensor is installed as the surrounding environment detection means 24 outside the viewing environment on the viewing side, and rain is detected by the sensor.
周辺環境検知手段24は、雨センサからの出力データから予め設定された雨量評価パラメータ(極少雨、少雨、小雨、雨、大雨)から雨量評価値を判断し、その評価に対応する対話シーンを生成して割り込み制御によりその旨の提示を行う。例えば、雨量評価が小雨であると判断されると、オリーブオイルの説明の途中に雨が降ってきたことを視聴者に提示する。具体的には、雨が降ってきたことに関連させて、例えば「洗濯物は大丈夫ですか?」としゃべらせる番組台本を付加対話DBから取得する。また、割込制御手段28は、これを対話内容の途中に割り込ませて処理することで図7(b)に示すように、対話途中に周辺環境に対する情報を提示することができる。このように、本実施形態によれば、対話シーン生成時に周辺環境に対応させたリアルタイム情報をベースとした対話シーンを生成し提示することができる。
The surrounding
また、上述した周辺環境検知手段24としての設置可能な各センサからの検知結果を複数組み合わせて、対応する周辺環境情報を提示することができる。 Also, a plurality of detection results from the sensors that can be installed as the surrounding environment detection means 24 described above can be combined to present corresponding surrounding environment information.
上述したように、本実施形態によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。具体的には、番組を視聴する際に視聴周辺環境に応じて視聴者毎に見え方の異なる番組を視聴することができる。また、視聴周辺環境をデータとして取り込み、視聴者により最適な番組をリアルタイムに生成することができる。 As described above, according to the present embodiment, it is possible to present the viewer with content corresponding to the viewing-side peripheral environment. Specifically, when viewing a program, it is possible to view a program that looks different for each viewer according to the viewing environment. Further, the viewing peripheral environment can be taken in as data, and an optimal program can be generated in real time by the viewer.
また、本実施形態によれば、出演者との対話を通じて,番組に関連する情報以外の情報を同じ仕組みの中で得ることができる。更に、本実施形態によれば、番組視聴という動作形態に個々の視聴者毎に役立つ個人的な事象、情報を統合して提示することができる。 Moreover, according to this embodiment, information other than the information relevant to a program can be obtained in the same mechanism through dialogue with performers. Furthermore, according to the present embodiment, personal events and information useful for each viewer can be integrated and presented in the operation mode of program viewing.
<実行プログラム>
ここで、上述したコンテンツ提示システムは、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、マウスやキーボード、ポインティングデバイス等の入力装置、画像やデータを表示する表示部、並びに外部と通信するためのインタフェースを備えたコンピュータによって構成することができる。
<Execution program>
Here, the content presentation system described above includes a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, an input device such as a mouse, a keyboard, and a pointing device, a display unit that displays images and data, In addition, it can be configured by a computer having an interface for communicating with the outside.
したがって、コンテンツ提示システムが有する入力手段21、出力手段22、蓄積手段23、周辺環境検知手段24、番組スクリプト生成手段25、対話スクリプト生成手段26、環境対応スクリプト生成手段27、割込制御手段28、再生手段29、送受信手段30、及び制御手段31における各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現可能となる。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して頒布することもできる。
Therefore, the input means 21, the output means 22, the storage means 23, the surrounding environment detection means 24, the program script generation means 25, the dialogue script generation means 26, the environment corresponding script generation means 27, the interrupt control means 28, which the content presentation system has. Each function in the
つまり、上述した各構成における処理をコンピュータに実行させるための実行プログラム(コンテンツ提示プログラム)を生成し、例えば、汎用のパーソナルコンピュータやサーバ等にそのプログラムをインストールすることにより、コンテンツ提示処理を実現することができる。 That is, an execution program (content presentation program) for causing a computer to execute the processing in each configuration described above is generated, and the content presentation processing is realized by installing the program in, for example, a general-purpose personal computer or server. be able to.
次に、本発明における実行プログラムによる処理手順についてコンテンツ提示システムにおけるコンテンツ提示処理についてフローチャートを用いて説明する。なお、以下の処理の説明では、コンテンツの一例として番組を用い、その制作対象として番組台本を用いるが、本発明におけるコンテンツの種類についてはこれに限定されるものではない。 Next, the processing procedure by the execution program in the present invention will be described with reference to the flowchart of content presentation processing in the content presentation system. In the following description of processing, a program is used as an example of content, and a program script is used as a production target. However, the type of content in the present invention is not limited to this.
図8は、本実施形態におけるコンテンツ提示処理手順の一例を示すフローチャートである。図8において、まず番組を再生し(S01)、周辺環境に関する情報を検知したか否かを判断する(S02)。ここで、周辺環境に関する情報を検知した場合(S02において、YES)、番組の再生中であるか、又は対話中であるかを判断する。具体的には、例えば番組の再生中であるか否かを判断し(S03)、番組の再生中の場合(S03において、YES)、番組用の環境対応スクリプトを生成し(S04)、割り込み制御により番組中に環境対応スクリプトを挿入することで、その再生が行われる(S05)。 FIG. 8 is a flowchart illustrating an example of a content presentation processing procedure in the present embodiment. In FIG. 8, first, a program is reproduced (S01), and it is determined whether information related to the surrounding environment is detected (S02). Here, when information related to the surrounding environment is detected (YES in S02), it is determined whether the program is being reproduced or is in dialogue. Specifically, for example, it is determined whether or not the program is being reproduced (S03). If the program is being reproduced (YES in S03), an environment-compatible script for the program is generated (S04), and interrupt control is performed. Thus, the environment-compatible script is inserted into the program to reproduce it (S05).
また、S03の処理において、番組の再生中でない場合(S03において、NO)、対話中であると判断し、対話DBより検知結果に対応する対話を抽出し(S06)、対話用の環境対応スクリプトを生成して(S07)、割り込み制御により対話中に環境対応スクリプトを挿入することで、その再生が行われる(S08)。 In the process of S03, if the program is not being played back (NO in S03), it is determined that the conversation is in progress, and a dialog corresponding to the detection result is extracted from the dialog DB (S06), and the environment-compatible script for dialog is used. Is generated (S07), and the environment-compatible script is inserted during the dialogue by the interrupt control, so that the reproduction is performed (S08).
ここで、S05又はS08の処理が終了後、所定時間経過後又は視聴者からの応答後に元の番組又は対話に戻る(S09)。また、S02の処理において周辺環境を検知していない場合(S02において、NO)、又はS09の処理が終了後、番組が終了であるか否かを判断し、番組が終了でない場合(S10において、NO)、S02に戻り以降の処理を行う。また、S10の処理において、番組が終了である場合(S10において、YES)、コンテンツ提示処理を終了する。 Here, after the process of S05 or S08 is completed, the original program or dialogue is returned after a lapse of a predetermined time or after a response from the viewer (S09). Further, when the surrounding environment is not detected in the process of S02 (NO in S02), or after the process of S09 is finished, it is determined whether or not the program is finished, and the program is not finished (in S10, NO), return to S02 and perform the subsequent processing. In the process of S10, when the program is finished (YES in S10), the content presentation process is finished.
これにより、実行プログラムをコンピュータにインストールすることにより、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができ、また本実施形態におけるコンテンツ提示を容易に実現することができる。 Thus, by installing the execution program in the computer, the content corresponding to the viewing-side peripheral environment can be presented to the viewer, and the content presentation in the present embodiment can be easily realized.
上述したように本発明によれば、視聴側の周辺環境に対応させたコンテンツを視聴者に提示することができる。具体的には、番組を視聴する際に視聴周辺環境に応じて視聴者毎に見え方の異なるコンテンツを視聴することができる。また、視聴周辺環境をデータとして取り込み、視聴者により最適なコンテンツをリアルタイムに生成することができる。 As described above, according to the present invention, it is possible to present a content corresponding to the viewing-side peripheral environment to the viewer. Specifically, when viewing a program, it is possible to view content that is different for each viewer according to the viewing environment. In addition, it is possible to capture the viewing peripheral environment as data and generate optimal content in real time by the viewer.
また、本実施形態によれば、出演者との対話を通じて,コンテンツに関連する情報以外の情報を同じ仕組みの中で得ることができる。更に、本実施形態によれば、コンテンツの視聴という動作形態に個々の視聴者毎に役立つ個人的な事象、情報を統合して提示することができる。 Further, according to the present embodiment, information other than information related to content can be obtained in the same mechanism through dialogue with performers. Furthermore, according to the present embodiment, personal events and information useful for each viewer can be integrated and presented in the operation mode of viewing content.
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.
10 コンテンツ提示システム
11 コンテンツ管理サーバ
12 コンテンツ提示装置
13 通信ネットワーク
21 入力手段
22 出力手段
23 蓄積手段
24 周辺環境検知手段
25 番組スクリプト生成手段
26 対話スクリプト生成手段
27 環境対応スクリプト生成手段
28 割込制御手段
29 再生手段
30 送受信手段
31 制御手段
41 番組台本
42 素材
43 APE
44 対話DB
45 番組
46 周辺環境検知結果
47 ユーザ情報
DESCRIPTION OF
44 Dialogue DB
45 Program 46 Surrounding
Claims (4)
前記コンテンツ管理サーバから取得した予め設定される演出内容が記述された番組台本と、前記番組台本に記述された素材データとを用いて所定の演出を含むコンテンツを制作する制作エンジンによりコンテンツを生成するコンテンツ生成手段と、
前記コンテンツ生成手段により生成されたコンテンツを再生する再生手段と、
前記コンテンツを視聴する視聴側の周辺環境を検知する周辺環境検知手段と、
前記周辺環境検知手段により得られる検知結果に対応する提示情報を生成する環境対応提示情報生成手段と、
前記再生手段により再生中のコンテンツに前記環境対応提示情報生成手段により得られる提示情報を挿入する割込制御手段とを有し、
前記環境対応提示情報生成手段は、前記コンテンツが対話中である場合に、前記周辺環境検知手段により得られる検知結果に対応した対話データを用いて割り込み用コンテンツを生成することを特徴とするコンテンツ提示装置。 In a content presentation device that presents content provided from a content management server according to the viewing environment of each viewer,
Content is generated by a production engine that produces content including a predetermined effect by using a program script in which pre-set effect content acquired from the content management server is described and material data described in the program script. Content generation means;
Playback means for playing back the content generated by the content generation means;
A surrounding environment detecting means for detecting a surrounding environment of a viewer who views the content;
Environment corresponding presentation information generating means for generating presentation information corresponding to the detection result obtained by the surrounding environment detecting means;
Possess an interrupt control means for inserting the presentation information obtained by the environmental presentation information generation unit to a content being reproduced by said reproducing means,
The environment presentation information generating unit generates an interruption content using dialogue data corresponding to a detection result obtained by the surrounding environment detection unit when the content is in a conversation. apparatus.
前記コンテンツが再生中である場合に、前記番組台本の演出内容に前記周辺環境検知手段により得られる検知結果に対応した割り込み用の演出内容を含めて割り込み用コンテンツを生成することを特徴とする請求項1に記載のコンテンツ提示装置。 The environment-friendly presentation information generating means includes
When the content is being reproduced, the content for interruption is generated by including the content for the interruption corresponding to the detection result obtained by the surrounding environment detection means in the content of the program script. Item 2. A content presentation device according to Item 1.
視聴側の周辺環境における照度、温度、湿度、音声、雨量、及び映像のうち、少なくとも1つを検知することを特徴とする請求項1又は2に記載のコンテンツ提示装置。 The surrounding environment detection means includes
Illuminance at the viewer side of the surrounding environment, temperature, humidity, sound, rainfall, and in the video, content presentation device according to claim 1 or 2, characterized in that sensing at least one.
請求項1乃至3の何れか1項に記載のコンテンツ提示装置が有する各手段として機能させるためのコンテンツ提示プログラム。 Computer
The content presentation program for functioning as each means which the content presentation apparatus of any one of Claims 1 thru | or 3 has .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009036832A JP5156666B2 (en) | 2009-02-19 | 2009-02-19 | Content presentation system and content presentation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009036832A JP5156666B2 (en) | 2009-02-19 | 2009-02-19 | Content presentation system and content presentation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010193295A JP2010193295A (en) | 2010-09-02 |
JP5156666B2 true JP5156666B2 (en) | 2013-03-06 |
Family
ID=42818834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009036832A Active JP5156666B2 (en) | 2009-02-19 | 2009-02-19 | Content presentation system and content presentation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5156666B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114584793B (en) * | 2022-02-25 | 2023-01-20 | 北京博维仕科技股份有限公司 | Video network transmission safety verification method and system with environment data |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4192664B2 (en) * | 2003-04-18 | 2008-12-10 | マツダ株式会社 | Information providing system and computer program for information providing computer |
JP4865469B2 (en) * | 2006-09-20 | 2012-02-01 | 日本放送協会 | Content production server, content presentation device, content production program, and content presentation program |
JP2008180797A (en) * | 2007-01-23 | 2008-08-07 | Canon Inc | Image display device, method for controlling same, and computer program |
-
2009
- 2009-02-19 JP JP2009036832A patent/JP5156666B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010193295A (en) | 2010-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8917972B2 (en) | Modifying audio in an interactive video using RFID tags | |
US8339458B2 (en) | Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using RFID tags | |
CN112753227B (en) | Method, computer readable medium and system for extracting metadata from a depiction of an event | |
US10999649B2 (en) | Auto-summarizing video content system and method | |
JP2021505046A (en) | Methods and systems for recommending content in the context of conversations | |
US20110106536A1 (en) | Systems and methods for simulating dialog between a user and media equipment device | |
CN102193794B (en) | Link real-time media situation is to relevant application program and service | |
CN105144739B (en) | Display system with media handling mechanism and its operating method | |
WO2019047850A1 (en) | Identifier displaying method and device, request responding method and device | |
CN105451039B (en) | A kind of interaction of multimedia information method and system | |
US20100045866A1 (en) | Methods and systems for providing auxiliary viewing options | |
EP2621180A2 (en) | Electronic device and audio output method | |
JP5156666B2 (en) | Content presentation system and content presentation program | |
JP5103092B2 (en) | Content management server, content presentation device, content management program, and content presentation program | |
JP6560503B2 (en) | Rise notification system | |
US20220264193A1 (en) | Program production apparatus, program production method, and recording medium | |
CN113170228B (en) | Audio processing for extracting disjoint segments of variable length from audiovisual content | |
KR20100092689A (en) | Method and system for providing game using streaming sound source | |
JP4796466B2 (en) | Content management server, content presentation device, content management program, and content presentation program | |
US20240259629A1 (en) | Systems and methods for leveraging machine learning for improving and enhancing dvr services | |
JP7209441B2 (en) | Screen configuration analysis device, screen configuration analysis method and program | |
JP3783222B2 (en) | Scene development system for recorded movie content or fiction content | |
KR100881572B1 (en) | User interface method and set-top box for iptv service | |
CN118695034A (en) | Display equipment and program information updating method | |
KR100947096B1 (en) | Method and Program recoding medium for playing, using, providing and providing detailed information of multimedia data or broadcasting data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20110822 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5156666 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |