JP5581437B1 - Video providing system and program - Google Patents

Video providing system and program Download PDF

Info

Publication number
JP5581437B1
JP5581437B1 JP2013264913A JP2013264913A JP5581437B1 JP 5581437 B1 JP5581437 B1 JP 5581437B1 JP 2013264913 A JP2013264913 A JP 2013264913A JP 2013264913 A JP2013264913 A JP 2013264913A JP 5581437 B1 JP5581437 B1 JP 5581437B1
Authority
JP
Japan
Prior art keywords
viewer
video
content
trigger
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013264913A
Other languages
Japanese (ja)
Other versions
JP2015122603A (en
Inventor
拓也 木全
Original Assignee
拓也 木全
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 拓也 木全 filed Critical 拓也 木全
Priority to JP2013264913A priority Critical patent/JP5581437B1/en
Application granted granted Critical
Publication of JP5581437B1 publication Critical patent/JP5581437B1/en
Publication of JP2015122603A publication Critical patent/JP2015122603A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】多数の視聴者が視聴する映像を提供する技術に関し、より詳細には、視聴者の参加により、提供する映像を制御する映像提供システムおよびプログラムを提供すること。
【解決手段】多数の視聴者に対して映像を共有させる映像提供システム100は、選択した視聴者に対して現在提供している映像に参加する誘導トリガ情報をネットワークまたは公衆電話網を使用して送付するコラボレーション・サーバ106と、視聴者から送付される視聴者参加情報に含まれる視聴者トリガに基づいて時間的に遅れて提供するべきコンテンツの内容を修正するコンテンツ・サーバ105と、修正されたコンテンツを提供するためのプロジェクタ102,103またはスピーカ104とを備えており、視聴者を提供するべきコンテンツに誘導すると共に当該誘導による視聴者参加を多数の視聴者に共有させている。
【選択図】図1
The present invention relates to a technique for providing a video to be viewed by a large number of viewers, and more particularly, to provide a video providing system and program for controlling a video to be provided by the participation of viewers.
A video providing system for sharing a video with a large number of viewers uses a network or a public telephone network for guiding trigger information to participate in a video currently provided to a selected viewer. The collaboration server 106 for sending, the content server 105 for correcting the content to be provided with a time delay based on the viewer trigger included in the viewer participation information sent from the viewer, and the correction Projectors 102 and 103 or speakers 104 for providing content are provided, and the viewer is guided to the content to be provided and viewer participation by the guidance is shared with many viewers.
[Selection] Figure 1

Description

本発明は、多数の視聴者が視聴する映像を提供する技術に関し、より詳細には、視聴者の参加により、提供する映像を制御する映像提供システムおよびプログラムに関する。   The present invention relates to a technique for providing video viewed by a large number of viewers, and more particularly to a video providing system and program for controlling video provided by the participation of viewers.

情報処理技術およびコンピュータ・ハードウェア技術の進歩に伴い、映画館やシネコンなどで上映される映画についても、デジタル・コンテンツとして提供され、プロジェクタなどを通して上映される場合も増えてきている。また、映画館やシネコンなどの他にも、最近では、パーソナル・コンピュータに対し、コンテンツをストリーミングすることによってパーソナル・コンピュータの利用者に対して映画等のコンテンツを提供するサービスも可能となっている。   With the progress of information processing technology and computer hardware technology, movies that are shown in movie theaters, cinemas, etc. are also provided as digital contents and are often shown through projectors. In addition to movie theaters and cine-cons, recently, it has become possible to provide content such as movies to personal computer users by streaming the content to personal computers. .

このような映像処理環境にあって、従来の映画は、定められたストーリーに沿って監督が出演者を演技させ、その演技を撮影し、ストーリーの最後まで連続した1つのコンテンツとして提供されている。ところで、近年、映画などがデジタル・コンテンツとして提供されるようになると、アナログ式の映像提供に比してより動的な映像提供が可能となる。このような映像提供として、例えば特開2011−124972号(特許文献1)には、ネットワークを介してデジタル・コンテンツを提供する際に、ユーザの端末から、ユーザの嗜好を示すデータを受信し、ユーザ毎に異なるコンテンツ・ストリームを提供するシステムが記載されている。   In such a video processing environment, a conventional movie is provided as a single piece of content that continues until the end of the story, with the director performing the performer according to a defined story and shooting the performer. . By the way, in recent years, when movies and the like are provided as digital contents, it becomes possible to provide more dynamic video as compared to analog video. As such video provision, for example, in Japanese Patent Application Laid-Open No. 2011-124972 (Patent Document 1), when providing digital content via a network, data indicating user preferences is received from a user terminal, A system for providing different content streams for different users is described.

また、特開2010−088111号公報(特許文献2)には、視聴者毎に異なる映像を提供するストリーム提供方法が記載されている。   Japanese Patent Laying-Open No. 2010-088111 (Patent Document 2) describes a stream providing method for providing different videos for each viewer.

パーソナル・コンピュータなどにおいて1人のユーザが視聴する場合であれば、特定のユーザの嗜好に適合させてコンテンツを選択することも可能である。しかしながら、多数の視聴者が視聴する映画などのコンテンツの場合、多数の視聴が波コンテンツを共有しているので、個々のユーザの嗜好に適合してコンテンツ・ストリームを切替えるわけには行かない。このため、特許文献1に記載された技術は、映画など多数の視聴者が共有するコンテンツを視聴者参加型でストリーム制御を行うために直ちに使用する訳には行かない。   If one user views on a personal computer or the like, it is possible to select content according to the preference of a specific user. However, in the case of content such as a movie that is viewed by a large number of viewers, since a large number of viewings share wave content, the content stream cannot be switched in accordance with individual user preferences. For this reason, the technique described in Patent Literature 1 cannot immediately use content shared by a large number of viewers such as movies to perform stream control in a viewer participation type.

また、シネコンなどで個々人の嗜好や選択に応じて異なる映像を提供するストリーム提供技術は、テーマパークやゲームなどの個人の嗜好性の強いコンテンツ提供には向いていると言うことができるが、シアター・シネコンなどで上映される映画などの多数の視聴者を巻き込んだ形での視聴者参加型のストリーム提供には向かない。また、映画の他、各種イベントなどで視聴者参加型のコンテンツ展開を行うことでより視聴者の共感を得ながら全員を巻き込んでゆくと言うような目的に向いてはいない。   In addition, it can be said that stream provision technology that provides different images according to individual preferences and selections, such as cine-con, is suitable for providing content with strong personal preferences such as theme parks and games. -It is not suitable for providing viewer-participation-type streams that involve a large number of viewers such as movies shown on cinemas. In addition to the movie, it is not suitable for the purpose of involving all of the viewers while gaining the viewer's sympathy by expanding the content of viewer participation at various events.

特開2011−124972号公報JP 2011-124972 A 特開2010−088111号公報JP 2010-088111 A

本発明は、映画館、シネコン、各種イベントでスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形でコンテンツの進行を制御する映像提供システム及びプログラムを提供することを目的とする。   It is an object of the present invention to provide a video providing system and program for controlling the progress of content in a form involving a large number of viewers who view images projected on a screen at a movie theater, a cinema, or various events.

本発明によれば、多数の視聴者に対して映像を共有させる映像提供システムであって、
選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付する手段と、
前記選択した視聴者の端末から送付される視聴者参加情報に含まれる視聴者トリガに基づいて前記視聴者トリガの時点より後に提供するべきコンテンツの内容を修正する手段と、
修正されたコンテンツを前記多数の視聴者に対して提供するための出力手段と を備える映像提供システムが提供できる。
According to the present invention, there is provided a video providing system that allows a large number of viewers to share a video,
Means for sending guidance trigger information for operating a terminal device to participate in a video currently provided for a selected viewer to the selected viewer using a network or a public telephone network;
Means for correcting the content to be provided after the viewer trigger based on the viewer trigger included in the viewer participation information sent from the selected viewer 's terminal ;
An image providing system comprising: output means for providing the modified content to the plurality of viewers can be provided.

本発明の前記出力手段は、プロジェクタであり、前記修正は、提供する映像のシーンの変更とすることができる。さらに前記出力手段は、スピーカであり、前記修正は音声情報の変更とすることができる。また、前記コンテンツの修正は、前記選択された視聴者が送付した音声情報を重畳して提供することができる。   The output means of the present invention is a projector, and the correction can be a change of a scene of a video to be provided. Further, the output means may be a speaker, and the correction may be a change of audio information. Further, the content correction can be provided by superimposing the audio information sent by the selected viewer.

また、前記コンテンツの修正は、現在提供されている映像に時間および映像が同期し、さらに他の映像を重畳する、プロジェクション・マッピングとすることができる。   The modification of the content may be a projection mapping in which time and video are synchronized with the currently provided video and another video is superimposed.

本発明によれば、
多数の視聴者に対して映像を供給させるためのプログラムであって、情報処理装置が、
選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付するステップと、
前記選択した視聴者から送付される視聴者参加情報に含まれる視聴者トリガを抽出するステップと、
前記視聴者トリガに対応して指定され、現在提供しているシーンよりも時間的後のシーンを提供するためのコンテンツを決定するステップと、
決定された前記コンテンツを前記多数の視聴者に対して提供するステップと
を実行するためのプログラムが提供できる。
According to the present invention,
A program for supplying video to a large number of viewers.
Sending guidance trigger information for operating a terminal device to participate in a video currently provided to a selected viewer to the selected viewer using a network or a public telephone network;
Extracting a viewer trigger included in viewer participation information sent from the selected viewer;
Determining content to provide a scene that is specified in response to the viewer trigger and that is later in time than the currently provided scene;
Providing the determined content to the multiple viewers ;
Program for executing a can be provided.

本発明では前記コンテンツの決定は、シーンの変更、視聴者から送付される音声情報の重畳、またはプロジェクション・マッピングによる映像の変更、またはこれらの組み合わせとして決定するステップを含むことができる。   In the present invention, the determination of the content may include a step of determining as a change of a scene, superimposition of audio information sent from a viewer, a change of a video by projection mapping, or a combination thereof.

本発明によれば、映画館、シネコン、各種イベントで大型のスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形でコンテンツの進行を制御する映像提供システム及びプログラムが提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the video provision system and program which control advancing of a content can be provided in the form which involved many viewers who watch the image projected on a large screen at a movie theater, a cinema, and various events.

本実施形態の映像提供システム100の実施形態を示す図。The figure which shows embodiment of the image | video provision system 100 of this embodiment. 本実施形態のコラボレーション・サーバ106の機能ブロックを示した図。The figure which showed the functional block of the collaboration server 106 of this embodiment. 本実施形態のコンテンツ・サーバ105の機能ブロックを示す図。The figure which shows the functional block of the content server 105 of this embodiment. 図2で説明した視聴者管理部203が作成するユーザ・データベースの実施形態を示す図。The figure which shows embodiment of the user database which the viewer management part 203 demonstrated in FIG. 2 produces. 本実施形態のメインストリーム・コンテンツ500におけるトリガ登録形態およびデコードするべきシーンとして使用する情報の実施形態を示す図。The figure which shows embodiment of the information used as a trigger registration form in the main stream content 500 of this embodiment, and the scene which should be decoded. 本実施形態の映像提供システム100が実行する処理のフローチャート。The flowchart of the process which the image | video provision system 100 of this embodiment performs. 本実施形態で使用するシーンのデータ構成を示した図。The figure which showed the data structure of the scene used by this embodiment. 本実施形態の映像提供システム100が提供する映像コンテンツ800の実施形態を示す図。The figure which shows embodiment of the video content 800 which the video provision system 100 of this embodiment provides.

100 :映像提供システム
101 :スクリーン
102、103 :プロジェクタ
104 :スピーカ
105 :コンテンツ・サーバ
106 :コラボレーション・サーバ
107 :ネットワーク(公衆電話網)
108 :携帯端末
201 :インタフェース部
202 :ウェブ・サーバ部
203 :視聴者管理部
204 :音声処理サーバ部
205 :参加情報解析部
206 :トリガ抽出部
207 :レスポンスログ・データベース
301 :インタフェース部
302 :デコーダ
303 :シーケンサ
304 :バッファ
305 :バッファ
306 :デコーダ
308、309 :データベース
100: Video providing system 101: Screens 102, 103: Projector 104: Speaker 105: Content server 106: Collaboration server 107: Network (public telephone network)
108: Mobile terminal 201: Interface unit 202: Web server unit 203: Viewer management unit 204: Audio processing server unit 205: Participation information analysis unit 206: Trigger extraction unit 207: Response log database 301: Interface unit 302: Decoder 303: Sequencer 304: Buffer 305: Buffer 306: Decoders 308, 309: Database

以下、本発明を、実施形態を以て説明するが本発明は後述する実施形態に限定されるものではない。図1は、本実施形態の映像提供システム100の実施形態を示す。図1に示した映像提供システム100は、例えばシアター、シネコン、イベント会場と言った多数の視聴者が視聴する空間に設置することができる。映像提供システム100は、スクリーン101に対してプロジェクタ102、103からスクリーン101に対して映像を投映して、スクリーン101上に映像を投映して多数の視聴者の視聴を可能としている。   Hereinafter, the present invention will be described with reference to embodiments, but the present invention is not limited to the embodiments described below. FIG. 1 shows an embodiment of a video providing system 100 according to this embodiment. The video providing system 100 shown in FIG. 1 can be installed in a space for viewing by a large number of viewers such as a theater, a cinema, and an event venue. The video providing system 100 projects a video from the projectors 102 and 103 onto the screen 101 on the screen 101 and projects the video on the screen 101 so that a large number of viewers can view the video.

スクリーン101の近傍には、スピーカ104が設置されており、プロジェクタ102、103から投映される映像に同期した音響を空間内に送付する用にされている。なお、図1に示したスピーカ104は、2台に限られるものではなく、必要に応じて左右に4台、6台、8台というように空間の大きさや提供するべき音源の相違に対応して適宜設置することができる。例えば、2台を、プロジェクタ102、103から投影されるコンテンツに同期してエンコードされた音響を発生させるために使用し、他の2台を、後述する視聴者参加を可能とするためにIVRが受信した音声データをリアルタイムで再生するために使用することができる。   A speaker 104 is installed in the vicinity of the screen 101, and is used to send sound synchronized with the images projected from the projectors 102 and 103 into the space. Note that the number of speakers 104 shown in FIG. 1 is not limited to two, and corresponds to differences in the size of the space and the sound source to be provided, such as four, six, and eight on the left and right as needed. Can be installed as appropriate. For example, two IVRs are used to generate sound encoded in synchronism with the content projected from the projectors 102 and 103, and the other two are used by the IVR to enable audience participation described later. It can be used to play back received audio data in real time.

また、図1に示した実施形態は、説明の目的でプロジェクタ102、103として2台使用するものとして説明するが、プロジェクタが独立した映像をデュアル投映できる構成のものであれば、プロジェクタを2台使用する必要は無いし、さらに多くのプロジェクタを使用することができる。プロジェクタ102、103は、例えばプロジェクタ102からの映像に対して、プロジェクション・マッピングを行うことにより、視聴者により送付された情報に応じて映像を変化させるために使用される。   The embodiment shown in FIG. 1 will be described assuming that two projectors 102 and 103 are used for the purpose of explanation. However, if the projector has a configuration capable of dual projection of independent images, two projectors are used. There is no need to use it, and more projectors can be used. The projectors 102 and 103 are used, for example, to change the video according to the information sent by the viewer by performing projection mapping on the video from the projector 102.

映像提供システム100は、さらにコンテンツ・サーバ105と、コラボレーション・サーバ106とを含んで構成される。コンテンツ・サーバ105は、プロジェクタ102、103により投映するためのコンテンツおよびコンテンツのデコードシーケンスを制御する機能を備える。またコラボレーション・サーバ106は、ウェブ・サーバおよび音声処理(IVR)サーバの機能を備えていている。コラボレーション・サーバ106は、ネットワークまたは公衆電話網107を介して空間内で映像を共有している視聴者からの携帯電話、スマートホン、タブレット端末などの携帯端末108から視聴者が送付するユーザ情報、視聴者参加情報、音声情報などを処理する。なお、以下ネットワーク107は、有線・無線のTCP/IPプロトコルを使用した通信の他、公衆電話網を使用した音声通話またはデータ通信のいずれかまたは両方を含むものとして説明する。   The video providing system 100 further includes a content server 105 and a collaboration server 106. The content server 105 has a function of controlling content to be projected by the projectors 102 and 103 and a content decoding sequence. The collaboration server 106 has functions of a web server and a voice processing (IVR) server. The collaboration server 106 includes user information sent by the viewer from a mobile terminal 108 such as a mobile phone, a smart phone, and a tablet terminal from a viewer who shares video in the space via the network or the public telephone network 107, Process viewer participation information, audio information, etc. The network 107 will be described below as including one or both of voice communication and data communication using a public telephone network in addition to communication using a wired / wireless TCP / IP protocol.

コラボレーション・サーバ106は、視聴者からの応答に対応してコンテンツ・サーバ105の映像デコード順を修正したり、追加の音声情報をスピーカ104から生成させたりする機能を備えている。なお、コンテンツ・サーバ105と、コラボレーション・サーバ106とを分離した構成として図1に示すが、本実施形態では、機能的な構成を明確にする目的で分離したサーバとして説明するものであって、情報処理装置の能力が十分である限り、分離した構成とすることなく、単一のサーバ装置上に複数の機能を搭載することができる。   The collaboration server 106 has a function of correcting the video decoding order of the content server 105 in response to a response from the viewer and generating additional audio information from the speaker 104. In addition, although the content server 105 and the collaboration server 106 are shown in FIG. 1 as being separated from each other, this embodiment is described as a separated server for the purpose of clarifying the functional configuration. As long as the capability of the information processing apparatus is sufficient, a plurality of functions can be mounted on a single server apparatus without using a separate configuration.

図2は、本実施形態のコラボレーション・サーバ106の機能ブロックを示した図である。コラボレーション・サーバ106は、図2に示すようにインタフェース部201と、ウェブ・サーバ部202と、音声処理サーバ部204とを含んで構成されている。ウェブ・サーバ部202は、HTTPプロトコルを介してネットワーク107を介して視聴者が送付するユーザ情報や、スマートホンなどで機能する専用アプリケーション(以下、単にスマホアプリとして参照する。)を介して送付される視聴者参加情報を受領して、ユーザ情報、使用端末形態、参加態様その他の情報を視聴者管理部203に登録する機能を有している。
視聴者参加情報には、視聴者がコンテンツを修正するためのキーワードやコマンドなどとして構成することができる視聴者トリガを含み、音声コールの場合には、視聴者の音声通話情報を含む。
FIG. 2 is a diagram showing functional blocks of the collaboration server 106 of this embodiment. As shown in FIG. 2, the collaboration server 106 includes an interface unit 201, a web server unit 202, and a voice processing server unit 204. The web server unit 202 is sent via user information sent by the viewer via the network 107 via the HTTP protocol, or via a dedicated application (hereinafter simply referred to as a smartphone application) that functions on a smartphone or the like. It has a function of receiving viewer participation information and registering user information, terminal type used, participation mode and other information in the viewer management unit 203.
The viewer participation information includes a viewer trigger that can be configured as a keyword, a command, or the like for the viewer to modify the content. In the case of a voice call, the viewer participation information includes the viewer's voice call information.

音声処理サーバ部204は、いわゆるIVR機能を備えており、視聴者参加情報が音声情報の場合、音声情報を参加情報として参加情報解析部205に送付する。また特定の実施形態では、受信した音声コールの音声情報を、そのままコンテンツ・サーバ105に送付してスピーカ104から発生させ、デコードしたデジタル・コンテンツの音声情報と重畳して、あたかも音声コールを送付した参加者がコンテンツに初めから居たように、当該空間に臨場している視聴者にその音声コールをフィードバックさせている。   The audio processing server unit 204 has a so-called IVR function. When the viewer participation information is audio information, the audio processing server unit 204 sends the audio information as participation information to the participation information analysis unit 205. In a specific embodiment, the voice information of the received voice call is directly sent to the content server 105, generated from the speaker 104, and superimposed on the decoded digital content voice information, as if the voice call was sent. The voice call is fed back to the viewers present in the space as if the participants were in the content from the beginning.

視聴者管理部203は、予めネットワーク107を介して送付された視聴者のユーザID、必要に応じてパスワード、端末形態、参加態様などの情報を収集し、ユーザ・データベース(図示せず)に登録する機能を備えている。また、ウェブ・サーバ部202、音声処理サーバ部204が、参加情報を受信した時に、視聴者の参加態様に対応した処理を参加情報解析部205に実行させる機能を備えている。   The viewer management unit 203 collects information such as the user ID of the viewer sent via the network 107 in advance, a password, a terminal form, and a participation mode as necessary, and registers them in a user database (not shown). It has a function to do. In addition, when the web server unit 202 and the voice processing server unit 204 receive participation information, the web server unit 202 and the audio processing server unit 204 have a function of causing the participation information analysis unit 205 to execute processing corresponding to the participation mode of the viewer.

さらに、コラボレーション・サーバ106は、視聴者から送付された視聴者参加情報を解析する、参加情報解析部205と、トリガ抽出部206とを含んで構成されている。参加情報解析部205は、視聴者から送付された参加情報が、音声情報であるか、またはスマホアプリからのコマンドであるかを判断し、視聴者の参加形態に応じて視聴者参加情報をデコードし、視聴者参加の態様に応じたトリガ抽出部206に視聴者参加情報に予め設定した視聴者トリガが含まれているか否かを判断する。   Further, the collaboration server 106 includes a participation information analysis unit 205 and a trigger extraction unit 206 that analyze the viewer participation information sent from the viewer. The participation information analysis unit 205 determines whether the participation information sent from the viewer is audio information or a command from a smartphone application, and decodes the viewer participation information according to the participation form of the viewer. Then, it is determined whether or not a trigger trigger set in advance in the viewer participation information is included in the trigger extraction unit 206 according to the viewer participation mode.

視聴者トリガが含まれていなければ、コンテンツ・サーバ105に対して特段の指令を行うことをしない。また、視聴者参加情報に予め設定した視聴者トリガが含まれていると判断した場合、コンテンツ・サーバ105に対して指令を送付し、コンテンツ・サーバ105がデコードするデジタル・コンテンツのデコード順を切替えたり、デジタル・コンテンツの映像部分と音声部分とを分離し、映像部分のみをデコードし、当該部分を他の音声情報に置き換える、プロジェクション・マッピングを行う、または他の音声情報と重畳したりすることで、映像上および音声上の視聴者参加を可能としている。   If no viewer trigger is included, no special command is issued to the content server 105. If it is determined that the viewer participation information includes a preset viewer trigger, a command is sent to the content server 105, and the decoding order of the digital content decoded by the content server 105 is switched. Or separate the video part and audio part of digital content, decode only the video part, replace that part with other audio information, perform projection mapping, or superimpose with other audio information Therefore, viewer participation on video and audio is possible.

さらにコラボレーション・サーバ106は、レスポンスログ・データベース207を管理している。レスポンスログ・データベースは、その回の上映ばかりではなく、過去に行った同一の動画またはイベントにおける視聴者参加の履歴を、ユーザ情報、ユーザ属性、上映時間、上映地域などと対応づけて視聴者参加の状態を登録する。視聴者参加の状態としては、例えばシーンの選択、音声情報の種類、スマホアプリからの指令の種類などを挙げることができ、コラボレーション・サーバ106は、これらをレスポンスログとして蓄積する。   Further, the collaboration server 106 manages a response log database 207. The response log database not only shows the show but also shows the participation history of viewers in the same video or event in the past, associating it with user information, user attributes, show time, show area, etc. Register the status of. Examples of the viewer participation state include scene selection, type of audio information, type of command from the smartphone application, and the collaboration server 106 accumulates these as response logs.

本発明の態様においては、コラボレーション・サーバ106は、レスポンスログを解析し、当該上映またはイベントにおいて参加者の多くが共感するシーンや映像を選択し、コンテンツ内容を学習してコンテンツ・サーバ105に表示させることができる。さらにレスポンスログ・データベース207に集積されたレスポンス情報は、以後のコンテンツ作成のためのビッグデータとして使用することができる。   In the aspect of the present invention, the collaboration server 106 analyzes the response log, selects a scene or video that many participants sympathize with in the screening or event, learns the content, and displays it on the content server 105. Can be made. Furthermore, the response information accumulated in the response log database 207 can be used as big data for subsequent content creation.

図3は、本実施形態のコンテンツ・サーバ105の機能ブロックを示す。コンテンツ・サーバ105には、コラボレーション・サーバ106から、視聴者トリガおよび存在する場合には、IVRが受信した音声信号が送付される。コンテンツ・サーバ105は、これらの信号を処理するためのインタフェース部301と、デコーダ302と、コンテンツ・シーケンサ303と、トリガ・バッファ305とを備えている。   FIG. 3 shows functional blocks of the content server 105 of this embodiment. The content server 105 receives the viewer trigger from the collaboration server 106 and, if present, the audio signal received by the IVR. The content server 105 includes an interface unit 301 for processing these signals, a decoder 302, a content sequencer 303, and a trigger buffer 305.

以下、視聴者からの参加情報を受領した上流側の処理部からその機能を説明する。トリガ・バッファ305は、参加情報に含まれていた視聴者トリガをバッファリングする機能を備えている。なお、シーンとは、複数のシーン、複数のGOP(Group of Picture)などから構成される、メインストリーム・コンテンツ内で一定の意味または属性を提供する時系列的な映像を意味する。   The function will be described below from the upstream processing unit that has received the participation information from the viewer. The trigger buffer 305 has a function of buffering the viewer trigger included in the participation information. The scene means a time-series video that provides a certain meaning or attribute in the mainstream content, which is composed of a plurality of scenes, a plurality of GOPs (Group of Picture), and the like.

コンテンツ・サーバ105は、視聴者参加情報中の視聴者トリガに対応して次のシーンとしてデコードするべき視聴者参加を可能とする映像を提供するためのコンテンツを、オプション・データベース309から予め読み出させる機能を備えている。コンテンツ・サーバ105は、映像を提供するためのメインストリーム・コンテンツを、コンテンツ・データベース308から読み出して、コンテンツ・バッファ304に格納する。コンテンツ・バッファ304に格納されたメインストリーム・コンテンツは、コンテンツ・シーケンサ303の指令に応じてデコーダ302へと送付され、プロジェクタ102からの投映を可能とされている。 The content server 105 reads in advance from the option database 309 content for providing a video that enables viewer participation to be decoded as the next scene in response to the viewer trigger in the viewer participation information. It has a function to let you. The content server 105 reads main stream content for providing video from the content database 308 and stores it in the content buffer 304. The main stream content stored in the content buffer 304 is sent to the decoder 302 in response to a command from the content sequencer 303 and can be projected from the projector 102.

また、コンテンツ・サーバ105は、トリガ・バッファ305内の視聴者トリガを判断して、視聴者に対してオプションを提供するため、後続する映像を提供するためのコンテンツをコンテンツ・バッファ304に読み込ませ、コンテンツ・シーケンサ303が読み出しを行うためのシーン順を登録した再生順テーブルを視聴者トリガに従って修正する。さらに必要に応じてコンテンツ・バッファ304は、読み出したシーンの映像部分情報と音声情報部分とを分離して、映像部分だけ、または音声部分だけを再生するようにシーンのコンテンツを修正する処理を行う。   Further, the content server 105 determines the viewer trigger in the trigger buffer 305 and provides the viewer with options so that the content buffer 304 can read the content for providing subsequent video. The playback sequence table in which the scene sequence for the content sequencer 303 to read is registered is corrected according to the viewer trigger. Further, if necessary, the content buffer 304 separates the read video portion information and audio information portion of the scene, and performs processing for correcting the content of the scene so that only the video portion or the audio portion is reproduced. .

この機能を提供するため、コンテンツ・サーバ105は、視聴者トリガの内容および対応する誘導トリガの内容で指定されるオプション・コンテンツを指定する識別値を、例えばルックアップ・テーブルなどを使用して決定する。その後、決定した識別値を使用して識別値で指定されるオプション・コンテンツをコンテンツ・バッファに読み込ませている。   In order to provide this function, the content server 105 determines an identification value that specifies optional content specified by the content of the viewer trigger and the content of the corresponding induction trigger using, for example, a lookup table. To do. Thereafter, the optional content specified by the identification value is read into the content buffer using the determined identification value.

コンテンツ・シーケンサ303は、再生順テーブルを参照し、再生順の若い順にシーンまたはコンテンツをデコーダ302に供給してデコードを開始させる。デコーダ302は、H264、MPEG4、その他ハイビジョン対応、4K対応、8K対応、3D対応の適切なデコード方式を使用して、送付されたシーン列を復号し、VGA、SVGA、XGAなどの適切な映像ドライバを介してプロジェクタ102にビデオ映像を供給している。   The content sequencer 303 refers to the playback order table, supplies scenes or content to the decoder 302 in ascending order of playback order, and starts decoding. The decoder 302 decodes the sent scene sequence using an H264, MPEG4, other high-definition compatible, 4K-compatible, 8K-compatible, or 3D-compatible decoding method, and an appropriate video driver such as VGA, SVGA, or XGA. The video image is supplied to the projector 102 via.

また、コンテンツ・サーバ105は、は、視聴者トリガに対応し、視聴者トリガが、例えばプロジェクション・マッピングを指令する場合には、プロジェクション・マッピングを行うためのシーンの再生順テーブルの該当するシーンの再生に同期してプロジェクション・マッピングのためのコンテンツを読み込ませ、当該プロジェクション・マッピング用のコンテンツをデコーダ306に送付してプロジェクタ103からの同期したプロジェクション・マッピングを可能とさせている。   In addition, the content server 105 corresponds to the viewer trigger, and when the viewer trigger instructs, for example, projection mapping, the content server 105 corresponds to the corresponding scene in the playback order table of the scene for performing projection mapping. The content for projection mapping is read in synchronism with the reproduction, and the content for projection mapping is sent to the decoder 306 to enable the synchronized projection mapping from the projector 103.

図4は、図2で説明した視聴者管理部203が作成するユーザ・データベースの実施形態を示す。ユーザ・データベースには、ユーザを固有に識別するユーザ情報、ユーザのネットワーク情報、電話番号、アクセス種類などが登録されており、必要に応じて、ユーザがコンテンツの提供する誘導トリガに対してどのような反応を示したかを登録するリアクション情報を対応づけて登録することができる。   FIG. 4 shows an embodiment of a user database created by the viewer management unit 203 described in FIG. In the user database, user information that uniquely identifies the user, user network information, telephone number, access type, etc. are registered. It is possible to register reaction information for registering whether or not a positive reaction has been shown.

コラボレーション・サーバ106は、視聴者から最初にユーザ情報などの登録を受け、図4に示すユーザ・データベースに登録する。その後、メインストリーム・コンテンツに予め埋設したトリガタイミングが到来すると、参加させるべき視聴者をランダムまたはトリガに対して予め設定した属性情報を使用して参加させるべき視聴者を決定する。そして、コラボレーション・サーバ106は、決定した視聴者に対してトリガとして設定した情報を送付する。   The collaboration server 106 first receives user information and the like from the viewer and registers them in the user database shown in FIG. After that, when the trigger timing embedded in the mainstream content arrives, the viewer to be joined is determined using attribute information set in advance for the viewer to be joined randomly or for the trigger. Then, the collaboration server 106 sends information set as a trigger to the determined viewer.

視聴者は、当該トリガ情報に誘導されてスマホアプリのボタン、スクロールバーなどのGUIから参加情報をコラボレーション・サーバ106に送付する。他の実施形態では、視聴者はコラボレーション・サーバ106のIVR機能により着呼を受け、コラボレーション・サーバ106に対して音声コールを送付することで、視聴者からの参加情報を送付することができる。   The viewer is guided by the trigger information and sends participation information to the collaboration server 106 from a GUI such as a smartphone application button or scroll bar. In another embodiment, the viewer can receive the incoming call by the IVR function of the collaboration server 106 and send the participation information from the viewer by sending a voice call to the collaboration server 106.

コラボレーション・サーバ106は、視聴者からの参加情報を受領して、上述した処理を行うことで、音声・映像、音声映像両方、映像、プロジェクション・マッピングなどの形態で視聴者参加を可能としている。   The collaboration server 106 receives participation information from the viewer and performs the above-described processing, thereby enabling viewer participation in the form of audio / video, audio / video, video, projection mapping, and the like.

図5は、本実施形態のメインストリーム・コンテンツ500におけるトリガ登録形態およびデコードするべきシーンとして使用する情報の実施形態を示す。メインストリーム・コンテンツは、複数のシーン列により構成されていて、各シーンには、ヘッダ情報またはメタ情報が付されていて、シーン順やそのトリガ属性、時間、対応オプション・コンテンツ識別値などが登録されている。シーンの特定の時間位置には、トリガポイントとなることが設定されており、設定したトリガポイントの位置に応じて異なるオプション・コンテンツが呼び出し可能とされている。   FIG. 5 shows an embodiment of information used as a trigger registration form and a scene to be decoded in the mainstream content 500 of the present embodiment. Mainstream content consists of multiple scene sequences, and each scene has header information or meta information attached, and the order of the scene, its trigger attribute, time, corresponding option and content identification value, etc. are registered. Has been. A trigger point is set at a specific time position in the scene, and different option contents can be called according to the set trigger point position.

また、シーンには、単一のトリガポイントを設定することもできるし、複数のトリガポイントを設定することもでき、視聴者の応答の有無の時間位置により、呼び出すオプション・コンテンツを変更するように設定することができる。さらに、本実施形態では、デコードを行う際に、映像・音声の両部分をデコードするか、映像部分だけをデコードするか、または音声部分だけをデコードするかを設定することができる。この実施形態の場合、視聴者の参加情報に応じて、全く異なる映像を与えたり、同一の映像でも全く異なる音声情報を提供したりするなど、さらに視聴者参加の態様を多様化させることができる。   In addition, a single trigger point can be set for a scene, or multiple trigger points can be set. Depending on the time position of whether or not the viewer responds, the optional content to be called is changed. Can be set. Furthermore, in this embodiment, when performing decoding, it is possible to set whether to decode both the video and audio portions, only the video portion, or only the audio portion. In the case of this embodiment, it is possible to further diversify the manner of participation of the viewer, such as giving completely different video according to the participation information of the viewer or providing completely different audio information even with the same video. .

図6は、本実施形態の映像提供システム100が実行する処理のフローチャートである。図6の処理は、ステップS600から開始し、ステップS601で、メインストリーム・コンテンツ中のトリガポイントに達した時に、視聴者を決定し、適切な形式での誘導トリガを視聴者に送付する。ステップS602では、トリガ・バッファに視聴者から送付された参加情報に含まれた視聴者トリガが存在するか否かを判断する。   FIG. 6 is a flowchart of processing executed by the video providing system 100 according to the present embodiment. The process of FIG. 6 starts from step S600, and when a trigger point in the mainstream content is reached in step S601, a viewer is determined and a guidance trigger in an appropriate format is sent to the viewer. In step S602, it is determined whether or not there is a viewer trigger included in the participation information sent from the viewer in the trigger buffer.

視聴者トリガが無い場合(no)、ステップS605でタイムアウトか否かを判断し、タイムアウトでない場合(no)、処理をステップS602に分岐させてさらに視聴者トリガの有無を確認する。一方、ステップS605でタイムアウトが満了した場合(yes)、このトリガは視聴者が寝ているとか、トイレに立っているとか、全く気がつかないなどの理由で、不発に終わったと判断し、処理をステップS606に分岐させて、メインストリーム・コンテンツのシーケンスのまま映像の提供をメインストリーム・コンテンツの終了まで継続する。   If there is no viewer trigger (no), it is determined whether or not a timeout has occurred in step S605. If no timeout has occurred (no), the process branches to step S602 to further confirm the presence or absence of the viewer trigger. On the other hand, if the timeout expires in step S605 (yes), it is determined that the trigger has been unsuccessful, for example, because the viewer is sleeping, standing in the toilet, or not knowing at all. The process branches to S606, and the provision of the video is continued until the end of the main stream content in the main stream content sequence.

一方、ステップS602で、視聴者トリガが存在する場合(yes)、ステップS603で視聴者トリガのメディア属性および内容に対応するオプション・コンテンツを、オプション・データベース309から検索し、コンテンツ・バッファ304に読み込ませ、ステップS604で、コンテンツ・サーバ105は、再生順テーブルの再生順を修正することで、再生シーケンスを設定する。その後、ステップS606で、コンテンツ・シーケンサ303が次に再生するべきシーンを読み込んで、デコーダ302に送付し、指定された順でデコードを行い、ステップS607でプロジェクタへとビデオ信号を送付して映像再生を可能とする。なおこのとき、視聴者参加情報に応じて、音声情報や映像情報として投映した映像に重畳して視聴者に提供することで、単一の視聴者の参加を空間に存在する全部の視聴者に共有させることができる。   On the other hand, if there is a viewer trigger in step S602 (yes), option content corresponding to the media attribute and content of the viewer trigger is retrieved from the option database 309 and read into the content buffer 304 in step S603. In step S604, the content server 105 sets the playback sequence by correcting the playback order in the playback order table. Thereafter, in step S606, the content sequencer 303 reads the scene to be reproduced next, sends it to the decoder 302, performs decoding in the designated order, and sends a video signal to the projector in step S607 to reproduce the video. Is possible. At this time, according to the viewer participation information, a single viewer participation is given to all viewers in the space by superimposing the video projected as audio information or video information to the viewer. Can be shared.

ステップS608では、視聴者参加情報中にさらに他のキーワードやコマンドと言った視聴者トリガを検索し、ステップS609で、視聴者トリガとして、シーン変更を要求する情報があるか否かを判断し、当該情報があれば(yes)、処理をステップS604に分岐させてシーケンスの変更を行い、視聴者参加を可能とする。一方、ステップS609で当該情報が無ければ(no)処理をステップS606に分岐させてシーン変更を行わず、映像のデコードを継続する。   In step S608, a viewer trigger such as another keyword or command is further searched in the viewer participation information. In step S609, it is determined whether there is information requesting a scene change as a viewer trigger. If the information is present (yes), the process branches to step S604, the sequence is changed, and viewer participation is enabled. On the other hand, if there is no such information in step S609 (no), the process branches to step S606, the scene is not changed, and the video decoding is continued.

以上の処理を使用することにより、視聴者を映像の進行に誘導し、かつそれを空間に存在する視聴者にあたかも当該視聴者が予め映画などの中に出演していたかのように演出することができ、さらにその感覚を視聴者全員に共有させることが可能となる。   By using the above processing, it is possible to guide the viewer to the progress of the video and produce it as if the viewer had previously appeared in a movie etc. It is possible to share this feeling with all viewers.

図7は、本実施形態で使用するシーンのデータ構成を示した図である。シーンには、ヘッダ情報701と、複数のフレーム列として定義されるシーン内容702とを含んで構成することができる。ヘッダ情報701内には、メタ情報としてトリガポイントのタイマ時刻、トリガ種類、シーン番号などを設定することができる。シーン内容702で規定されるシーンの時間長が視聴者参加区間を定義する。当該時間長の間に音声・映像などの態様でオプション・コンテンツを同期重畳することにより、シーンの変更や音声変更、プロジェクション・マッピングによる映像変調などを行うことが可能となる。   FIG. 7 is a diagram showing a data structure of a scene used in this embodiment. A scene can include header information 701 and scene contents 702 defined as a plurality of frame sequences. In the header information 701, a timer time of a trigger point, a trigger type, a scene number, and the like can be set as meta information. The duration of the scene defined by the scene content 702 defines the viewer participation interval. By synchronously superimposing option / content in the form of audio / video during the time length, it is possible to perform scene change, audio change, video modulation by projection mapping, and the like.

図8は、本実施形態の映像提供システム100が提供する映像コンテンツ800の実施形態を示す。映像コンテンツ801は、メインストリーム・コンテンツ500のシーン・シーケンスを変えること無く、オプション情報として音声を変えたり、プロジェクション・マッピングを行ったりすることで、視聴者参加を可能とする実施形態であり、例えば、特定のイベントやコンサート会場などの映像・音楽などのコンテンツ提供のために使用することができる。   FIG. 8 shows an embodiment of video content 800 provided by the video providing system 100 of the present embodiment. The video content 801 is an embodiment in which viewer participation is possible by changing audio as option information or performing projection mapping without changing the scene sequence of the mainstream content 500. It can be used to provide content such as video and music at specific events and concert venues.

また映像コンテンツ802は、視聴者参加により、メインストリーム・コンテンツ500のシーケンスが置き換えられる実施形態である。シーンAで視聴者参加情報を受領すると、コンテンツ・サーバ105は、次のシーンを変更し、メインストリーム・コンテンツを変更する。そしてシーンBで、さらに他の視聴者参加情報を受領すると、その次のシーンを変えて映像を提供する。さらにシーンCで、さらに他の視聴者参加情報を受領してシーンのシーケンスを修正し、さらにシーンDでも視聴者参加情報に対応してシーンのシーケンスを修正して、映像の最後までこれを継続する。   The video content 802 is an embodiment in which the sequence of the main stream content 500 is replaced by viewer participation. When the viewer participation information is received in the scene A, the content server 105 changes the next scene and changes the main stream content. When another viewer participation information is received in scene B, the next scene is changed to provide a video. Furthermore, in scene C, another viewer participation information is received and the sequence of the scene is corrected. Further, in scene D, the scene sequence is corrected in accordance with the viewer participation information, and this is continued until the end of the video. To do.

なお、シーンA〜Dまでの間に視聴者参加情報を送付できる視聴者は同じでも良いし、異なっていても良い。またオプション情報は、音声情報としても良いし、プロジェクション・マッピングなどの映像情報としても良い。   Note that the viewers who can send the viewer participation information during the scenes A to D may be the same or different. The option information may be audio information or video information such as projection mapping.

以上の用に、本発明によれば、映画館、シネコン、各種イベントで大型のスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形でコンテンツの進行を制御する映像提供システムおよびプログラムが提供できる。   For the above, according to the present invention, a video providing system and program for controlling the progress of content in a form involving a large number of viewers who watch images projected on a large screen in movie theaters, cinemas, and various events. Can be provided.

これまで本発明につき、実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
Although the present invention has been described with embodiments, the present invention is not limited to the embodiments shown in the drawings, and other embodiments, additions, changes, deletions, and the like can be conceived by those skilled in the art. It can be changed within the range that can be done, and any embodiment is included in the scope of the present invention as long as the effects of the present invention are exhibited.

Claims (7)

多数の視聴者に対して映像を共有させる映像提供システムであって、
選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付する手段と、
前記選択した視聴者の端末から送付される視聴者参加情報に含まれる視聴者トリガに基づいて前記視聴者トリガの時点より後に提供するべきコンテンツの内容を修正する手段と、
修正されたコンテンツを前記多数の視聴者に対して提供するための出力手段と
を備える映像提供システム。
An image providing system for sharing images with a large number of viewers,
Means for sending guidance trigger information for operating a terminal device to participate in a video currently provided for a selected viewer to the selected viewer using a network or a public telephone network;
Means for correcting the content to be provided after the viewer trigger based on the viewer trigger included in the viewer participation information sent from the selected viewer 's terminal ;
An image providing system comprising: output means for providing the modified content to the plurality of viewers .
前記出力手段は、プロジェクタであり、前記修正は、提供する映像のシーンの変更である、請求項1に記載の映像提供システム。   The video providing system according to claim 1, wherein the output unit is a projector, and the correction is a change in a scene of a video to be provided. 前記出力手段は、スピーカであり、前記修正は音声情報の変更である、請求項1または2に記載の映像提供システム。   The video providing system according to claim 1, wherein the output unit is a speaker, and the correction is a change of audio information. 前記コンテンツの修正は、前記選択された視聴者が送付した音声情報を重畳して提供する請求項1〜3のいずれか1項に記載の映像提供システム。   The video providing system according to any one of claims 1 to 3, wherein the content correction is performed by superimposing audio information sent by the selected viewer. 前記コンテンツの修正は、現在提供されている映像に時間および映像が同期し、さらに他の映像を重畳する、プロジェクション・マッピングである、請求項1〜4のいずれか1項に記載の映像提供システム。   5. The video providing system according to claim 1, wherein the content correction is projection mapping in which time and video are synchronized with a currently provided video and another video is superimposed. . 多数の視聴者に対して映像を供給させるためのプログラムであって、情報処理装置が、
選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付するステップと、
前記選択した視聴者から送付される視聴者参加情報に含まれる視聴者トリガを抽出するステップと、
前記視聴者トリガに対応して指定され、現在提供しているシーンよりも時間的後のシーンを提供するためのコンテンツを決定するステップと、
決定された前記コンテンツを前記多数の視聴者に対して提供するステップと
を実行するためのプログラム。
A program for supplying video to a large number of viewers.
Sending guidance trigger information for operating a terminal device to participate in a video currently provided to a selected viewer to the selected viewer using a network or a public telephone network;
Extracting a viewer trigger included in viewer participation information sent from the selected viewer;
Determining content to provide a scene that is specified in response to the viewer trigger and that is later in time than the currently provided scene;
Providing the determined content to the multiple viewers ;
A program for running .
前記コンテンツの決定を、シーンの変更、視聴者から送付される音声情報の重畳、またはプロジェクション・マッピングによる映像の変更、またはこれらの組み合わせとして決定するステップを含む、請求項6に記載のプログラム。   The program according to claim 6, comprising determining the content as a scene change, a superimposition of audio information sent from a viewer, a video change by projection mapping, or a combination thereof.
JP2013264913A 2013-12-24 2013-12-24 Video providing system and program Expired - Fee Related JP5581437B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013264913A JP5581437B1 (en) 2013-12-24 2013-12-24 Video providing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013264913A JP5581437B1 (en) 2013-12-24 2013-12-24 Video providing system and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014141048A Division JP6324829B2 (en) 2014-07-09 2014-07-09 Video providing system and program

Publications (2)

Publication Number Publication Date
JP5581437B1 true JP5581437B1 (en) 2014-08-27
JP2015122603A JP2015122603A (en) 2015-07-02

Family

ID=51579172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013264913A Expired - Fee Related JP5581437B1 (en) 2013-12-24 2013-12-24 Video providing system and program

Country Status (1)

Country Link
JP (1) JP5581437B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220295135A1 (en) * 2019-09-11 2022-09-15 Takuya KIMATA Video providing system and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046978A (en) * 2001-07-31 2003-02-14 Sony Corp Device and method for downloading animation, animation transmitting/receiving system, program storing medium, and program
JP2005051653A (en) * 2003-07-31 2005-02-24 Sony Corp Method and apparatus for content regeneration, method and apparatus for content distribution, and control method and control unit for play equipment
JP2012129760A (en) * 2010-12-15 2012-07-05 Casio Comput Co Ltd Content evaluation device and content evaluation method
JP2013021466A (en) * 2011-07-08 2013-01-31 Dowango:Kk Video display system, video display method, video display control program and action information transmission program
JP2013051462A (en) * 2011-08-30 2013-03-14 Sony Corp Screening management system, screening management method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046978A (en) * 2001-07-31 2003-02-14 Sony Corp Device and method for downloading animation, animation transmitting/receiving system, program storing medium, and program
JP2005051653A (en) * 2003-07-31 2005-02-24 Sony Corp Method and apparatus for content regeneration, method and apparatus for content distribution, and control method and control unit for play equipment
JP2012129760A (en) * 2010-12-15 2012-07-05 Casio Comput Co Ltd Content evaluation device and content evaluation method
JP2013021466A (en) * 2011-07-08 2013-01-31 Dowango:Kk Video display system, video display method, video display control program and action information transmission program
JP2013051462A (en) * 2011-08-30 2013-03-14 Sony Corp Screening management system, screening management method and program

Also Published As

Publication number Publication date
JP2015122603A (en) 2015-07-02

Similar Documents

Publication Publication Date Title
US10754313B2 (en) Providing audio and alternate audio simultaneously during a shared multimedia presentation
US8477950B2 (en) Home theater component for a virtualized home theater system
JP6316538B2 (en) Content transmission device, content transmission method, content reproduction device, content reproduction method, program, and content distribution system
KR101326739B1 (en) Information processing system and information processing device
JP6172610B2 (en) Video conferencing system
WO2011050690A1 (en) Method and system for recording and replaying multimedia conference
KR102156467B1 (en) Method and apparatus for synchronizing playbacks at two electronic devices
CN103119952B (en) Process the method and relevant device of media stream
JP5841715B2 (en) VIDEO / AUDIO OUTPUT DEVICE, VIDEO / AUDIO OUTPUT SYSTEM, AND MASTER DEVICE
JP6024002B2 (en) Video distribution system
JP5581437B1 (en) Video providing system and program
JP2018110377A (en) Distribution system, distribution server, terminal and program
WO2014027382A1 (en) Terminal device, display device, terminal device linking system, terminal device linking method, and non-temporary computer readable medium
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
JP6324829B2 (en) Video providing system and program
WO2021049048A1 (en) Video-image providing system and program
KR102273439B1 (en) Multi-screen playing system and method of providing real-time relay service
KR20150030889A (en) Method and apparatus for providing multi angle video broadcasting service
JP2020174378A (en) Synchronization of media rendering in heterogeneous networking environment
KR101242478B1 (en) Real time personal broadcasting system using media jockey based on multi-angle
KR102012580B1 (en) Apparatus and method for multimedia contents handling
US10264241B2 (en) Complimentary video content
Thomas et al. State‐of‐the‐Art and Challenges in Media Production, Broadcast and Delivery
JP2022066944A (en) Information processing device, computer program, and information processing system
US20150341696A1 (en) Dual telepresence set-top box

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140714

R150 Certificate of patent or registration of utility model

Ref document number: 5581437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees