WO2016006139A1 - 映像提供システムおよびプログラム - Google Patents

映像提供システムおよびプログラム Download PDF

Info

Publication number
WO2016006139A1
WO2016006139A1 PCT/JP2014/080476 JP2014080476W WO2016006139A1 WO 2016006139 A1 WO2016006139 A1 WO 2016006139A1 JP 2014080476 W JP2014080476 W JP 2014080476W WO 2016006139 A1 WO2016006139 A1 WO 2016006139A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewer
video
content
trigger
information
Prior art date
Application number
PCT/JP2014/080476
Other languages
English (en)
French (fr)
Inventor
拓也 木全
Original Assignee
拓也 木全
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 拓也 木全 filed Critical 拓也 木全
Publication of WO2016006139A1 publication Critical patent/WO2016006139A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles

Definitions

  • the present invention relates to a technique for providing video viewed by a large number of viewers, and more particularly to a video providing system and program for selecting video to be provided by the participation of viewers.
  • Patent Document 1 when providing digital content via a network, data indicating user preferences is received from a user terminal, A system for providing different content streams for different users is described.
  • JP 2010-088111 A (Patent Document 2) describes a stream providing method for providing different videos for each viewer.
  • Patent Literature 1 cannot immediately use content shared by a large number of viewers such as movies to perform stream control in a viewer participation type.
  • stream provision technology that provides different images according to individual preferences and selections, such as cine-con, is suitable for providing content with strong personal preferences such as theme parks and games.
  • -It is not suitable for providing viewer-participation-type streams that involve a large number of viewers such as movies shown on cinemas. In addition to the movie, it is not suitable for the purpose of involving all of the viewers while gaining the viewer's sympathy by expanding the content of viewer participation at various events.
  • An object of the present invention is to provide a video providing system and program for selecting the progress of content in a form involving a large number of viewers who watch images projected on a screen at a movie theater, a cinema, or various events.
  • a video providing system for sharing a video with a large number of viewers, and guide trigger information for operating a terminal device to participate in a video currently provided to a selected viewer.
  • Means for sending to the selected viewer using a network or public telephone network, and the viewer trigger time based on the viewer trigger included in the viewer participation information sent from the terminal of the selected viewer It is possible to provide a video providing system including means for correcting the content to be provided later and output means for providing the corrected content to the multiple viewers.
  • the output means is a projector, and the selection can be performed by selecting a scene of a video to be provided.
  • the output means is a speaker, and the selection can be a selection of audio information.
  • the digital content can be selected in such a manner that audio information sent by the viewer is superimposed and provided.
  • the digital content can be selected as projection mapping in which time and video are synchronized with the currently provided video and another video is superimposed.
  • the present invention may include a step of selecting the digital content as a scene, audio information sent from a viewer, video to be projection-mapped, or a combination thereof.
  • the present invention it is possible to provide a video providing system and a program for selecting the progress of content to be provided in a form involving a large number of viewers who watch images projected on a large screen in movie theaters, cinemas, and various events. .
  • video provision system 100 of this embodiment The figure which showed the functional block of the collaboration server 106 of this embodiment.
  • the figure which shows embodiment of the user database which the viewer management part 203 demonstrated in FIG. 2 produces.
  • Video providing system 101 Screens 102, 103: Projector 104: Speaker 105: Content server 106: Collaboration server 107: Network (public telephone network) 108: Mobile terminal 201: Interface unit 202: Web server unit 203: Viewer management unit 204: Audio processing server unit 205: Participation information analysis unit 206: Trigger extraction unit 207: Response log database 301: Interface unit 302: Decoder 303: Sequencer 304: Buffer 305: Buffer 306: Decoders 308, 309: Database
  • FIG. 1 shows an embodiment of a video providing system 100 according to this embodiment.
  • the video providing system 100 shown in FIG. 1 can be installed in a space for viewing by a large number of viewers such as a theater, a cinema, and an event venue.
  • the video providing system 100 projects a video from the projectors 102 and 103 onto the screen 101 on the screen 101 and projects the video on the screen 101 so that a large number of viewers can view the video.
  • a speaker 104 is installed in the vicinity of the screen 101, and is used for sending sound synchronized with the images projected from the projectors 102 and 103 into the space.
  • the number of speakers 104 shown in FIG. 1 is not limited to two, and corresponds to differences in the size of the space and the sound source to be provided, such as four, six, and eight on the left and right as needed. Can be installed as appropriate.
  • two IVRs are used to generate sound encoded in synchronism with the content projected from the projectors 102 and 103, and the other two are used by the IVR to enable audience participation described later. It can be used to play back received audio data in real time.
  • FIG. 1 will be described assuming that two projectors 102 and 103 are used for the purpose of explanation. However, if the projector has a configuration capable of dual projection of independent images, two projectors are used. There is no need to use it, and more projectors can be used.
  • the projectors 102 and 103 are used, for example, to change the video according to the information sent by the viewer by performing projection mapping on the video from the projector 102.
  • the video providing system 100 further includes a content server 105 and a collaboration server 106.
  • the content server 105 has a function of controlling content to be projected by the projectors 102 and 103 and a content decoding sequence.
  • the collaboration server 106 has functions of a web server and a voice processing (IVR) server.
  • the collaboration server 106 includes user information sent by the viewer from a mobile terminal 108 such as a mobile phone, a smart phone, and a tablet terminal from a viewer who shares video in the space via the network or the public telephone network 107, Process viewer participation information, audio information, etc.
  • the network 107 will be described below as including one or both of voice communication and data communication using a public telephone network in addition to communication using a wired / wireless TCP / IP protocol.
  • the collaboration server 106 has a function of correcting the video decoding order of the content server 105 in response to a response from the viewer and generating additional audio information from the speaker 104.
  • the content server 105 and the collaboration server 106 are shown in FIG. 1 as being separated from each other, this embodiment is described as a separated server for the purpose of clarifying the functional configuration. As long as the capability of the information processing apparatus is sufficient, a plurality of functions can be mounted on a single server apparatus without using a separate configuration.
  • FIG. 2 is a diagram showing functional blocks of the collaboration server 106 of this embodiment.
  • the collaboration server 106 includes an interface unit 201, a web server unit 202, and a voice processing server unit 204.
  • the web server unit 202 is sent via user information sent by the viewer via the network 107 via the HTTP protocol, or via a dedicated application (hereinafter simply referred to as a smartphone application) that functions on a smartphone or the like. It has a function of receiving viewer participation information and registering user information, terminal type used, participation mode and other information in the viewer management unit 203.
  • the viewer participation information includes a viewer trigger that can be configured as a keyword, a command, or the like for the viewer to modify the content. In the case of a voice call, the viewer participation information includes the viewer's voice call information.
  • the audio processing server unit 204 has a so-called IVR function.
  • the audio processing server unit 204 sends the audio information to the participation information analysis unit 205 as participation information.
  • the voice information of the received voice call is directly sent to the content server 105, generated from the speaker 104, and superimposed on the decoded digital content voice information, as if the voice call was sent. The voice call is fed back to the viewers present in the space as if the participants were in the content from the beginning.
  • the viewer management unit 203 collects information such as the user ID of the viewer sent via the network 107 in advance, a password, a terminal form, and a participation mode as necessary, and registers them in a user database (not shown). It has a function to do.
  • the web server unit 202 and the voice processing server unit 204 receive participation information
  • the web server unit 202 and the audio processing server unit 204 have a function of causing the participation information analysis unit 205 to execute processing corresponding to the participation mode of the viewer.
  • the collaboration server 106 is configured to include a participation information analysis unit 205 and a trigger extraction unit 206 that analyze the viewer participation information sent from the viewer.
  • the participation information analysis unit 205 determines whether the participation information sent from the viewer is audio information or a command from a smartphone application, and decodes the viewer participation information according to the participation form of the viewer. Then, it is determined whether or not a trigger trigger set in advance in the viewer participation information is included in the trigger extraction unit 206 according to the viewer participation mode.
  • no special command is issued to the content server 105. If it is determined that the viewer participation information includes a preset viewer trigger, a command is sent to the content server 105, and the decoding order of the digital content decoded by the content server 105 is switched. Or separate the video part and audio part of digital content, decode only the video part, replace that part with other audio information, perform projection mapping, or superimpose with other audio information Therefore, viewer participation on video and audio is possible.
  • the collaboration server 106 manages the response log database 207.
  • the response log database not only shows the show but also shows the participation history of viewers in the same video or event in the past, associating it with user information, user attributes, show time, show area, etc. Register the status of. Examples of the viewer participation state include scene selection, type of audio information, type of command from the smartphone application, and the collaboration server 106 accumulates these as response logs.
  • the collaboration server 106 analyzes the response log, selects a scene or video that many participants sympathize with in the screening or event, learns the content, and displays it on the content server 105. Can be made. Furthermore, the response information accumulated in the response log database 207 can be used as big data for subsequent content creation.
  • FIG. 3 shows functional blocks of the content server 105 of this embodiment.
  • the content server 105 receives the viewer trigger from the collaboration server 106 and, if present, the audio signal received by the IVR.
  • the content server 105 includes an interface unit 301 for processing these signals, a decoder 302, a content sequencer 303, and a trigger buffer 305.
  • the trigger buffer 305 has a function of buffering the viewer trigger included in the participation information.
  • the scene means a time-series video that provides a certain meaning or attribute in the mainstream content, which is composed of a plurality of scenes, a plurality of GOPs (Group of pictures), and the like.
  • the content server 105 reads in advance from the option database 309 content for providing a video that enables viewer participation to be decoded as the next scene in response to the viewer trigger in the viewer participation information. It has a function to let you.
  • the content server 105 reads main stream content for providing video from the content database 308 and stores it in the content buffer 304.
  • the main stream content stored in the content buffer 304 is sent to the decoder 302 in response to a command from the content sequencer 303 and can be projected from the projector 102.
  • the content server 105 determines the viewer trigger in the trigger buffer 305 and provides the viewer with options so that the content buffer 304 can read the content for providing subsequent video.
  • the playback sequence table in which the scene sequence for the content sequencer 303 to read is registered is corrected according to the viewer trigger.
  • the content buffer 304 separates the read video portion information and audio information portion of the scene, and performs processing for correcting the content of the scene so that only the video portion or the audio portion is reproduced. .
  • the content server 105 determines an identification value that specifies optional content specified by the content of the viewer trigger and the content of the corresponding induction trigger using, for example, a lookup table. To do. Thereafter, the optional content specified by the identification value is read into the content buffer using the determined identification value.
  • the content sequencer 303 refers to the playback order table, supplies scenes or content to the decoder 302 in ascending order of playback order, and starts decoding.
  • the decoder 302 decodes the sent scene sequence using an H264, MPEG4, other high-definition compatible, 4K-compatible, 8K-compatible, or 3D-compatible decoding method, and an appropriate video driver such as VGA, SVGA, or XGA.
  • the video image is supplied to the projector 102 via.
  • the content server 105 corresponds to the viewer trigger, and when the viewer trigger instructs, for example, projection mapping, the content server 105 corresponds to the corresponding scene in the playback order table of the scene for performing projection mapping.
  • the content for projection mapping is read in synchronism with the reproduction, and the content for projection mapping is sent to the decoder 306 to enable the synchronized projection mapping from the projector 103.
  • FIG. 4 shows an embodiment of a user database created by the viewer management unit 203 described in FIG.
  • user information that uniquely identifies the user, user network information, telephone number, access type, etc. are registered. It is possible to register reaction information for registering whether or not a positive reaction has been shown.
  • the collaboration server 106 first receives user information and the like from the viewer and registers them in the user database shown in FIG. After that, when the trigger timing embedded in the mainstream content arrives, the viewer to be joined is determined using attribute information set in advance for the viewer to be joined randomly or for the trigger. Then, the collaboration server 106 sends information set as a trigger to the determined viewer.
  • the viewer is guided by the trigger information and sends participation information to the collaboration server 106 from a GUI of a smartphone application button, scroll bar, or the like.
  • the viewer can receive the incoming call by the IVR function of the collaboration server 106 and send the participation information from the viewer by sending a voice call to the collaboration server 106.
  • the collaboration server 106 receives participation information from the viewer and performs the above-described processing, thereby enabling the viewer to participate in the form of audio / video, both audio / video, video, projection mapping, and the like.
  • FIG. 5 shows an embodiment of information used as a trigger registration form and a scene to be decoded in the mainstream content 500 of the present embodiment.
  • Mainstream content consists of multiple scene sequences, and each scene has header information or meta information attached, and the order of the scene, its trigger attribute, time, corresponding option and content identification value, etc. are registered. Has been.
  • a trigger point is set at a specific time position in the scene, and different option contents can be called according to the set trigger point position.
  • a single trigger point can be set for a scene, or multiple trigger points can be set.
  • the optional content to be called is changed. Can be set.
  • when performing decoding it is possible to set whether to decode both the video and audio portions, only the video portion, or only the audio portion. In the case of this embodiment, it is possible to further diversify the manner of participation of the viewer, such as giving completely different video according to the participation information of the viewer or providing completely different audio information even with the same video. .
  • FIG. 6 is a flowchart of processing executed by the video providing system 100 according to the present embodiment.
  • the process of FIG. 6 starts from step S600, and when a trigger point in the mainstream content is reached in step S601, a viewer is determined and a guidance trigger in an appropriate format is sent to the viewer.
  • step S602 it is determined whether or not there is a viewer trigger included in the participation information sent from the viewer in the trigger buffer.
  • step S605 If there is no viewer trigger (no), it is determined in step S605 whether or not a timeout has occurred, and if it is not timeout (no), the process branches to step S602 to further check whether or not there is a viewer trigger. On the other hand, if the timeout expires in step S605 (yes), it is determined that the trigger has been unsuccessful, for example, because the viewer is sleeping, standing in the toilet, or not knowing at all. The process branches to S606, and the provision of the video is continued until the end of the main stream content in the main stream content sequence.
  • step S602 If there is a viewer trigger in step S602 (yes), option content corresponding to the media attribute and content of the viewer trigger is retrieved from the option database 309 and read into the content buffer 304 in step S603.
  • the content server 105 sets the playback sequence by correcting the playback order in the playback order table.
  • step S606 the content sequencer 303 reads the scene to be reproduced next, sends it to the decoder 302, performs decoding in the designated order, and sends a video signal to the projector in step S607 to reproduce the video. Is possible.
  • the viewer participation information a single viewer participation is given to all viewers in the space by superimposing the video projected as audio information or video information to the viewer. Can be shared.
  • step S608 a viewer trigger such as another keyword or command is further searched in the viewer participation information.
  • step S609 it is determined whether there is information requesting a scene change as a viewer trigger. If the information is present (yes), the process branches to step S604, the sequence is changed, and viewer participation is enabled. On the other hand, if there is no such information in step S609 (no), the process branches to step S606, the scene is not changed, and the video decoding is continued.
  • FIG. 7 is a diagram showing a data structure of a scene used in the present embodiment.
  • a scene can include header information 701 and scene contents 702 defined as a plurality of frame sequences.
  • a timer time of a trigger point, a trigger type, a scene number, and the like can be set as meta information.
  • the duration of the scene defined by the scene content 702 defines the viewer participation interval.
  • FIG. 8 shows an embodiment of the video content 800 provided by the video providing system 100 of the present embodiment.
  • the video content 801 is an embodiment in which viewer participation is possible by changing audio as option information or performing projection mapping without changing the scene sequence of the mainstream content 500. It can be used to provide content such as video and music at specific events and concert venues.
  • the video content 802 is an embodiment in which the sequence of the mainstream content 500 is replaced by viewer participation.
  • the content server 105 changes the next scene and changes the main stream content.
  • the next scene is changed to provide a video.
  • scene C another viewer participation information is received and the sequence of the scene is corrected.
  • scene D the scene sequence is corrected in accordance with the viewer participation information, and this is continued until the end of the video. To do.
  • the viewers who can send the viewer participation information during the scenes A to D may be the same or different.
  • the option information may be audio information or video information such as projection mapping.
  • a video providing system and program for controlling the progress of content in a form involving a large number of viewers who watch images projected on a large screen in movie theaters, cinemas, and various events. Can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 多数の視聴者をデジタルコンテンツインタラクティブに表示させるための映像提供システムおよびプログラムを提供すること。 多数の視聴者がデジタルコンテンツをインタラクティブに表示する映像提供システム100は、視聴者がデジタルコンテンツを選択するため、端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して端末装置に送付するコラボレーション・サーバ106と、誘導トリガ情報以後に視聴者の端末装置から送付される視聴者参加情報に含まれる視聴者トリガに基づいて当該視聴者トリガよりも時間的に遅れて表示させるべきデジタルコンテンツの内容を選択するコンテンツ・サーバ105と、選択されたデジタルコンテンツによる映像を提供するためのスピーカまたはプロジェクタ102,103とを備えており、視聴者をデジタルコンテンツのインタラクティブな表示に誘導することで、当該誘導による視聴者参加を可能としている。

Description

映像提供システムおよびプログラム
 本発明は、多数の視聴者が視聴する映像を提供する技術に関し、より詳細には、視聴者の参加により、提供する映像を選択する映像提供システムおよびプログラムに関する。
 情報処理技術およびコンピュータ・ハードウェア技術の進歩に伴い、映画館やシネコンなどで上映される映画についても、デジタル・コンテンツとして提供され、プロジェクタなどを通して上映される場合も増えてきている。また、映画館やシネコンなどの他にも、最近では、パーソナル・コンピュータに対し、コンテンツをストリーミングすることによってパーソナル・コンピュータの利用者に対して映画等のコンテンツを提供するサービスも可能となっている。
 このような映像処理環境にあって、従来の映画は、定められたストーリーに沿って監督が出演者を演技させ、その演技を撮影し、ストーリーの最後まで連続した1つのコンテンツとして提供されている。ところで、近年、映画などがデジタル・コンテンツとして提供されるようになると、アナログ式の映像提供に比してより動的な映像提供が可能となる。このような映像提供として、例えば特開2011-124972号(特許文献1)には、ネットワークを介してデジタル・コンテンツを提供する際に、ユーザの端末から、ユーザの嗜好を示すデータを受信し、ユーザ毎に異なるコンテンツ・ストリームを提供するシステムが記載されている。
 また、特開2010-088111号公報(特許文献2)には、視聴者毎に異なる映像を提供するストリーム提供方法が記載されている。
 パーソナル・コンピュータなどにおいて1人のユーザが視聴する場合であれば、特定のユーザの嗜好に適合させてコンテンツを選択することも可能である。しかしながら、多数の視聴者が視聴する映画などのコンテンツの場合、多数の視聴が波コンテンツを共有しているので、個々のユーザの嗜好に適合してコンテンツ・ストリームを切替えるわけには行かない。このため、特許文献1に記載された技術は、映画など多数の視聴者が共有するコンテンツを視聴者参加型でストリーム制御を行うために直ちに使用する訳には行かない。
 また、シネコンなどで個々人の嗜好や選択に応じて異なる映像を提供するストリーム提供技術は、テーマパークやゲームなどの個人の嗜好性の強いコンテンツ提供には向いていると言うことができるが、シアター・シネコンなどで上映される映画などの多数の視聴者を巻き込んだ形での視聴者参加型のストリーム提供には向かない。また、映画の他、各種イベントなどで視聴者参加型のコンテンツ展開を行うことでより視聴者の共感を得ながら全員を巻き込んでゆくと言うような目的に向いてはいない。
特開2011-124972号公報 特開2010-088111号公報
 本発明は、映画館、シネコン、各種イベントでスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形でコンテンツの進行を選択する映像提供システム及びプログラムを提供することを目的とする。
 本発明によれば、多数の視聴者に対して映像を共有させる映像提供システムであって、選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付する手段と、前記選択した視聴者の端末から送付される視聴者参加情報に含まれる視聴者トリガに基づいて前記視聴者トリガの時点より後に提供するべきコンテンツの内容を修正する手段と、修正されたコンテンツを前記多数の視聴者に対して提供するための出力手段とを備える映像提供システムが提供できる。
 前記出力手段は、プロジェクタであり、前記選択は、提供する映像のシーンの選択により行われることができる。前記出力手段は、スピーカであり、前記選択は、音声情報の選択とすることができる。
 前記デジタルコンテンツは、前記視聴者が送付した音声情報を重畳して提供するようにして選択することができる。前記デジタルコンテンツは、現在提供されている映像に時間および映像が同期し、さらに他の映像を重畳する、プロジェクション・マッピングとして選択することができる。
 本発明によれば、
 多数の視聴者に対して映像を供給させるためのプログラムであって、情報処理装置が、選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付するステップと、前記選択した視聴者から送付される視聴者参加情報に含まれる視聴者トリガを抽出するステップと、前記視聴者トリガに対応して指定され、現在提供しているシーンよりも時間的後のシーンを提供するためのコンテンツを決定するステップと、決定された前記コンテンツを前記多数の視聴者に対して提供するステップとを実行するためのプログラムが提供できる。
 本発明では、前記デジタルコンテンツを、シーンの選択、視聴者から送付される音声情報の選択、またはプロジェクション・マッピングするべき映像の選択、またはこれらの組み合わせとして選択するステップを含むことができる。
 本発明によれば、映画館、シネコン、各種イベントで大型のスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形で提供するコンテンツの進行を選択する映像提供システム及びプログラムが提供できる。
本実施形態の映像提供システム100の実施形態を示す図。 本実施形態のコラボレーション・サーバ106の機能ブロックを示した図。 本実施形態のコンテンツ・サーバ105の機能ブロックを示す図。 図2で説明した視聴者管理部203が作成するユーザ・データベースの実施形態を示す図。 本実施形態のメインストリーム・コンテンツ500におけるトリガ登録形態およびデコードするべきシーンとして使用する情報の実施形態を示す図。 本実施形態の映像提供システム100が実行する処理のフローチャート。 本実施形態で使用するシーンのデータ構成を示した図。 本実施形態の映像提供システム100が提供する映像コンテンツ800の実施形態を示す図。
100  :映像提供システム
101  :スクリーン
102、103  :プロジェクタ
104  :スピーカ
105  :コンテンツ・サーバ
106  :コラボレーション・サーバ
107  :ネットワーク(公衆電話網)
108  :携帯端末
201  :インタフェース部
202  :ウェブ・サーバ部
203  :視聴者管理部
204  :音声処理サーバ部
205  :参加情報解析部
206  :トリガ抽出部
207  :レスポンスログ・データベース
301  :インタフェース部
302  :デコーダ
303  :シーケンサ
304  :バッファ
305  :バッファ
306  :デコーダ
308、309  :データベース
 以下、本発明を、実施形態を以て説明するが本発明は後述する実施形態に限定されるものではない。図1は、本実施形態の映像提供システム100の実施形態を示す。図1に示した映像提供システム100は、例えばシアター、シネコン、イベント会場と言った多数の視聴者が視聴する空間に設置することができる。映像提供システム100は、スクリーン101に対してプロジェクタ102、103からスクリーン101に対して映像を投映して、スクリーン101上に映像を投映して多数の視聴者の視聴を可能としている。
 スクリーン101の近傍には、スピーカ104が設置されており、プロジェクタ102、103から投映される映像に同期した音響を空間内に送付する用にされている。なお、図1に示したスピーカ104は、2台に限られるものではなく、必要に応じて左右に4台、6台、8台というように空間の大きさや提供するべき音源の相違に対応して適宜設置することができる。例えば、2台を、プロジェクタ102、103から投影されるコンテンツに同期してエンコードされた音響を発生させるために使用し、他の2台を、後述する視聴者参加を可能とするためにIVRが受信した音声データをリアルタイムで再生するために使用することができる。
 また、図1に示した実施形態は、説明の目的でプロジェクタ102、103として2台使用するものとして説明するが、プロジェクタが独立した映像をデュアル投映できる構成のものであれば、プロジェクタを2台使用する必要は無いし、さらに多くのプロジェクタを使用することができる。プロジェクタ102、103は、例えばプロジェクタ102からの映像に対して、プロジェクション・マッピングを行うことにより、視聴者により送付された情報に応じて映像を変化させるために使用される。
 映像提供システム100は、さらにコンテンツ・サーバ105と、コラボレーション・サーバ106とを含んで構成される。コンテンツ・サーバ105は、プロジェクタ102、103により投映するためのコンテンツおよびコンテンツのデコードシーケンスを制御する機能を備える。またコラボレーション・サーバ106は、ウェブ・サーバおよび音声処理(IVR)サーバの機能を備えていている。コラボレーション・サーバ106は、ネットワークまたは公衆電話網107を介して空間内で映像を共有している視聴者からの携帯電話、スマートホン、タブレット端末などの携帯端末108から視聴者が送付するユーザ情報、視聴者参加情報、音声情報などを処理する。なお、以下ネットワーク107は、有線・無線のTCP/IPプロトコルを使用した通信の他、公衆電話網を使用した音声通話またはデータ通信のいずれかまたは両方を含むものとして説明する。
 コラボレーション・サーバ106は、視聴者からの応答に対応してコンテンツ・サーバ105の映像デコード順を修正したり、追加の音声情報をスピーカ104から生成させたりする機能を備えている。なお、コンテンツ・サーバ105と、コラボレーション・サーバ106とを分離した構成として図1に示すが、本実施形態では、機能的な構成を明確にする目的で分離したサーバとして説明するものであって、情報処理装置の能力が十分である限り、分離した構成とすることなく、単一のサーバ装置上に複数の機能を搭載することができる。
 図2は、本実施形態のコラボレーション・サーバ106の機能ブロックを示した図である。コラボレーション・サーバ106は、図2に示すようにインタフェース部201と、ウェブ・サーバ部202と、音声処理サーバ部204とを含んで構成されている。ウェブ・サーバ部202は、HTTPプロトコルを介してネットワーク107を介して視聴者が送付するユーザ情報や、スマートホンなどで機能する専用アプリケーション(以下、単にスマホアプリとして参照する。)を介して送付される視聴者参加情報を受領して、ユーザ情報、使用端末形態、参加態様その他の情報を視聴者管理部203に登録する機能を有している。
 視聴者参加情報には、視聴者がコンテンツを修正するためのキーワードやコマンドなどとして構成することができる視聴者トリガを含み、音声コールの場合には、視聴者の音声通話情報を含む。
 音声処理サーバ部204は、いわゆるIVR機能を備えており、視聴者参加情報が音声情報の場合、音声情報を参加情報として参加情報解析部205に送付する。また特定の実施形態では、受信した音声コールの音声情報を、そのままコンテンツ・サーバ105に送付してスピーカ104から発生させ、デコードしたデジタル・コンテンツの音声情報と重畳して、あたかも音声コールを送付した参加者がコンテンツに初めから居たように、当該空間に臨場している視聴者にその音声コールをフィードバックさせている。
 視聴者管理部203は、予めネットワーク107を介して送付された視聴者のユーザID、必要に応じてパスワード、端末形態、参加態様などの情報を収集し、ユーザ・データベース(図示せず)に登録する機能を備えている。また、ウェブ・サーバ部202、音声処理サーバ部204が、参加情報を受信した時に、視聴者の参加態様に対応した処理を参加情報解析部205に実行させる機能を備えている。
 さらに、コラボレーション・サーバ106は、視聴者から送付された視聴者参加情報を解析する、参加情報解析部205と、トリガ抽出部206とを含んで構成されている。参加情報解析部205は、視聴者から送付された参加情報が、音声情報であるか、またはスマホアプリからのコマンドであるかを判断し、視聴者の参加形態に応じて視聴者参加情報をデコードし、視聴者参加の態様に応じたトリガ抽出部206に視聴者参加情報に予め設定した視聴者トリガが含まれているか否かを判断する。
 視聴者トリガが含まれていなければ、コンテンツ・サーバ105に対して特段の指令を行うことをしない。また、視聴者参加情報に予め設定した視聴者トリガが含まれていると判断した場合、コンテンツ・サーバ105に対して指令を送付し、コンテンツ・サーバ105がデコードするデジタル・コンテンツのデコード順を切替えたり、デジタル・コンテンツの映像部分と音声部分とを分離し、映像部分のみをデコードし、当該部分を他の音声情報に置き換える、プロジェクション・マッピングを行う、または他の音声情報と重畳したりすることで、映像上および音声上の視聴者参加を可能としている。
 さらにコラボレーション・サーバ106は、レスポンスログ・データベース207を管理している。レスポンスログ・データベースは、その回の上映ばかりではなく、過去に行った同一の動画またはイベントにおける視聴者参加の履歴を、ユーザ情報、ユーザ属性、上映時間、上映地域などと対応づけて視聴者参加の状態を登録する。視聴者参加の状態としては、例えばシーンの選択、音声情報の種類、スマホアプリからの指令の種類などを挙げることができ、コラボレーション・サーバ106は、これらをレスポンスログとして蓄積する。
 本発明の態様においては、コラボレーション・サーバ106は、レスポンスログを解析し、当該上映またはイベントにおいて参加者の多くが共感するシーンや映像を選択し、コンテンツ内容を学習してコンテンツ・サーバ105に表示させることができる。さらにレスポンスログ・データベース207に集積されたレスポンス情報は、以後のコンテンツ作成のためのビッグデータとして使用することができる。
 図3は、本実施形態のコンテンツ・サーバ105の機能ブロックを示す。コンテンツ・サーバ105には、コラボレーション・サーバ106から、視聴者トリガおよび存在する場合には、IVRが受信した音声信号が送付される。コンテンツ・サーバ105は、これらの信号を処理するためのインタフェース部301と、デコーダ302と、コンテンツ・シーケンサ303と、トリガ・バッファ305とを備えている。
 以下、視聴者からの参加情報を受領した上流側の処理部からその機能を説明する。トリガ・バッファ305は、参加情報に含まれていた視聴者トリガをバッファリングする機能を備えている。なお、シーンとは、複数のシーン、複数のGOP(Group of Picture)などから構成される、メインストリーム・コンテンツ内で一定の意味または属性を提供する時系列的な映像を意味する。
 コンテンツ・サーバ105は、視聴者参加情報中の視聴者トリガに対応して次のシーンとしてデコードするべき視聴者参加を可能とする映像を提供するためのコンテンツを、オプション・データベース309から予め読み出させる機能を備えている。コンテンツ・サーバ105は、映像を提供するためのメインストリーム・コンテンツを、コンテンツ・データベース308から読み出して、コンテンツ・バッファ304に格納する。コンテンツ・バッファ304に格納されたメインストリーム・コンテンツは、コンテンツ・シーケンサ303の指令に応じてデコーダ302へと送付され、プロジェクタ102からの投映を可能とされている。
 また、コンテンツ・サーバ105は、トリガ・バッファ305内の視聴者トリガを判断して、視聴者に対してオプションを提供するため、後続する映像を提供するためのコンテンツをコンテンツ・バッファ304に読み込ませ、コンテンツ・シーケンサ303が読み出しを行うためのシーン順を登録した再生順テーブルを視聴者トリガに従って修正する。
さらに必要に応じてコンテンツ・バッファ304は、読み出したシーンの映像部分情報と音声情報部分とを分離して、映像部分だけ、または音声部分だけを再生するようにシーンのコンテンツを修正する処理を行う。
 この機能を提供するため、コンテンツ・サーバ105は、視聴者トリガの内容および対応する誘導トリガの内容で指定されるオプション・コンテンツを指定する識別値を、例えばルックアップ・テーブルなどを使用して決定する。その後、決定した識別値を使用して識別値で指定されるオプション・コンテンツをコンテンツ・バッファに読み込ませている。
 コンテンツ・シーケンサ303は、再生順テーブルを参照し、再生順の若い順にシーンまたはコンテンツをデコーダ302に供給してデコードを開始させる。デコーダ302は、H264、MPEG4、その他ハイビジョン対応、4K対応、8K対応、3D対応の適切なデコード方式を使用して、送付されたシーン列を復号し、VGA、SVGA、XGAなどの適切な映像ドライバを介してプロジェクタ102にビデオ映像を供給している。
 また、コンテンツ・サーバ105は、は、視聴者トリガに対応し、視聴者トリガが、例えばプロジェクション・マッピングを指令する場合には、プロジェクション・マッピングを行うためのシーンの再生順テーブルの該当するシーンの再生に同期してプロジェクション・マッピングのためのコンテンツを読み込ませ、当該プロジェクション・マッピング用のコンテンツをデコーダ306に送付してプロジェクタ103からの同期したプロジェクション・マッピングを可能とさせている。
 図4は、図2で説明した視聴者管理部203が作成するユーザ・データベースの実施形態を示す。ユーザ・データベースには、ユーザを固有に識別するユーザ情報、ユーザのネットワーク情報、電話番号、アクセス種類などが登録されており、必要に応じて、ユーザがコンテンツの提供する誘導トリガに対してどのような反応を示したかを登録するリアクション情報を対応づけて登録することができる。
 コラボレーション・サーバ106は、視聴者から最初にユーザ情報などの登録を受け、図4に示すユーザ・データベースに登録する。その後、メインストリーム・コンテンツに予め埋設したトリガタイミングが到来すると、参加させるべき視聴者をランダムまたはトリガに対して予め設定した属性情報を使用して参加させるべき視聴者を決定する。そして、コラボレーション・サーバ106は、決定した視聴者に対してトリガとして設定した情報を送付する。
 視聴者は、当該トリガ情報に誘導されてスマホアプリのボタン、スクロールバーなどのGUIから参加情報をコラボレーション・サーバ106に送付する。他の実施形態では、視聴者はコラボレーション・サーバ106のIVR機能により着呼を受け、コラボレーション・サーバ106に対して音声コールを送付することで、視聴者からの参加情報を送付することができる。
 コラボレーション・サーバ106は、視聴者からの参加情報を受領して、上述した処理を行うことで、音声・映像、音声映像両方、映像、プロジェクション・マッピングなどの形態で視聴者参加を可能としている。
 図5は、本実施形態のメインストリーム・コンテンツ500におけるトリガ登録形態およびデコードするべきシーンとして使用する情報の実施形態を示す。メインストリーム・コンテンツは、複数のシーン列により構成されていて、各シーンには、ヘッダ情報またはメタ情報が付されていて、シーン順やそのトリガ属性、時間、対応オプション・コンテンツ識別値などが登録されている。シーンの特定の時間位置には、トリガポイントとなることが設定されており、設定したトリガポイントの位置に応じて異なるオプション・コンテンツが呼び出し可能とされている。
 また、シーンには、単一のトリガポイントを設定することもできるし、複数のトリガポイントを設定することもでき、視聴者の応答の有無の時間位置により、呼び出すオプション・コンテンツを変更するように設定することができる。さらに、本実施形態では、デコードを行う際に、映像・音声の両部分をデコードするか、映像部分だけをデコードするか、または音声部分だけをデコードするかを設定することができる。この実施形態の場合、視聴者の参加情報に応じて、全く異なる映像を与えたり、同一の映像でも全く異なる音声情報を提供したりするなど、さらに視聴者参加の態様を多様化させることができる。
 図6は、本実施形態の映像提供システム100が実行する処理のフローチャートである。図6の処理は、ステップS600から開始し、ステップS601で、メインストリーム・コンテンツ中のトリガポイントに達した時に、視聴者を決定し、適切な形式での誘導トリガを視聴者に送付する。ステップS602では、トリガ・バッファに視聴者から送付された参加情報に含まれた視聴者トリガが存在するか否かを判断する。
 視聴者トリガが無い場合(no)、ステップS605でタイムアウトか否かを判断し、タイムアウトでない場合(no)、処理をステップS602に分岐させてさらに視聴者トリガの有無を確認する。一方、ステップS605でタイムアウトが満了した場合(yes)、このトリガは視聴者が寝ているとか、トイレに立っているとか、全く気がつかないなどの理由で、不発に終わったと判断し、処理をステップS606に分岐させて、メインストリーム・コンテンツのシーケンスのまま映像の提供をメインストリーム・コンテンツの終了まで継続する。
 一方、ステップS602で、視聴者トリガが存在する場合(yes)、ステップS603で視聴者トリガのメディア属性および内容に対応するオプション・コンテンツを、オプション・データベース309から検索し、コンテンツ・バッファ304に読み込ませ、ステップS604で、コンテンツ・サーバ105は、再生順テーブルの再生順を修正することで、再生シーケンスを設定する。その後、ステップS606で、コンテンツ・シーケンサ303が次に再生するべきシーンを読み込んで、デコーダ302に送付し、指定された順でデコードを行い、ステップS607でプロジェクタへとビデオ信号を送付して映像再生を可能とする。なおこのとき、視聴者参加情報に応じて、音声情報や映像情報として投映した映像に重畳して視聴者に提供することで、単一の視聴者の参加を空間に存在する全部の視聴者に共有させることができる。
 ステップS608では、視聴者参加情報中にさらに他のキーワードやコマンドと言った視聴者トリガを検索し、ステップS609で、視聴者トリガとして、シーン変更を要求する情報があるか否かを判断し、当該情報があれば(yes)、処理をステップS604に分岐させてシーケンスの変更を行い、視聴者参加を可能とする。一方、ステップS609で当該情報が無ければ(no)処理をステップS606に分岐させてシーン変更を行わず、映像のデコードを継続する。
 以上の処理を使用することにより、視聴者を映像の進行に誘導し、かつそれを空間に存在する視聴者にあたかも当該視聴者が予め映画などの中に出演していたかのように演出することができ、さらにその感覚を視聴者全員に共有させることが可能となる。
 図7は、本実施形態で使用するシーンのデータ構成を示した図である。シーンには、ヘッダ情報701と、複数のフレーム列として定義されるシーン内容702とを含んで構成することができる。ヘッダ情報701内には、メタ情報としてトリガポイントのタイマ時刻、トリガ種類、シーン番号などを設定することができる。シーン内容702で規定されるシーンの時間長が視聴者参加区間を定義する。当該時間長の間に音声・映像などの態様でオプション・コンテンツを同期重畳することにより、シーンの変更や音声変更、プロジェクション・マッピングによる映像変調などを行うことが可能となる。
 図8は、本実施形態の映像提供システム100が提供する映像コンテンツ800の実施形態を示す。映像コンテンツ801は、メインストリーム・コンテンツ500のシーン・シーケンスを変えること無く、オプション情報として音声を変えたり、プロジェクション・マッピングを行ったりすることで、視聴者参加を可能とする実施形態であり、例えば、特定のイベントやコンサート会場などの映像・音楽などのコンテンツ提供のために使用することができる。
 また映像コンテンツ802は、視聴者参加により、メインストリーム・コンテンツ500のシーケンスが置き換えられる実施形態である。シーンAで視聴者参加情報を受領すると、コンテンツ・サーバ105は、次のシーンを変更し、メインストリーム・コンテンツを変更する。そしてシーンBで、さらに他の視聴者参加情報を受領すると、その次のシーンを変えて映像を提供する。さらにシーンCで、さらに他の視聴者参加情報を受領してシーンのシーケンスを修正し、さらにシーンDでも視聴者参加情報に対応してシーンのシーケンスを修正して、映像の最後までこれを継続する。
 なお、シーンA~Dまでの間に視聴者参加情報を送付できる視聴者は同じでも良いし、異なっていても良い。またオプション情報は、音声情報としても良いし、プロジェクション・マッピングなどの映像情報としても良い。
 以上の用に、本発明によれば、映画館、シネコン、各種イベントで大型のスクリーンに投映される画像を視聴する多数の視聴者を巻き込んだ形でコンテンツの進行を制御する映像提供システムおよびプログラムが提供できる。
 これまで本発明につき、実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。

Claims (7)

  1.  多数の視聴者に対して映像を共有させる映像提供システムであって、
    選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付する手段と、前記選択した視聴者の端末から送付される視聴者参加情報に含まれる視聴者トリガに基づいて前記視聴者トリガの時点より後に提供するべきコンテンツの内容を修正する手段と、修正されたコンテンツを前記多数の視聴者に対して提供するための出力手段とを備える映像提供システム。
  2.  前記出力手段は、プロジェクタであり、前記修正は、提供する映像のシーンの変更である、請求項1に記載の映像提供システム。
  3.  前記出力手段は、スピーカであり、前記修正は音声情報の変更である、請求項1または2に記載の映像提供システム。
  4.  前記コンテンツの修正は、前記選択された視聴者が送付した音声情報を重畳して提供する請求項1~3のいずれか1項に記載の映像提供システム。
  5.  前記コンテンツの修正は、現在提供されている映像に時間および映像が同期し、さらに他の映像を重畳する、プロジェクション・マッピングである、請求項1~4のいずれか1項に記載の映像提供システム。
  6.  多数の視聴者に対して映像を供給させるためのプログラムであって、情報処理装置が、選択した視聴者に対して現在提供している映像に参加するため端末装置を動作させる誘導トリガ情報をネットワークまたは公衆電話網を使用して前記選択した視聴者に送付するステップと、前記選択した視聴者から送付される視聴者参加情報に含まれる視聴者トリガを抽出するステップと、前記視聴者トリガに対応して指定され、現在提供しているシーンよりも時間的後のシーンを提供するためのコンテンツを決定するステップと、決定された前記コンテンツを前記多数の視聴者に対して提供するステップとを実行するためのプログラム。
  7.  前記コンテンツの決定を、シーンの変更、視聴者から送付される音声情報の重畳、またはプロジェクション・マッピングによる映像の変更、またはこれらの組み合わせとして決定するステップを含む、請求項6に記載のプログラム。
PCT/JP2014/080476 2014-07-09 2014-11-18 映像提供システムおよびプログラム WO2016006139A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014141048A JP6324829B2 (ja) 2014-07-09 2014-07-09 映像提供システムおよびプロラム
JP2014-141048 2014-07-09

Publications (1)

Publication Number Publication Date
WO2016006139A1 true WO2016006139A1 (ja) 2016-01-14

Family

ID=53533969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/080476 WO2016006139A1 (ja) 2014-07-09 2014-11-18 映像提供システムおよびプログラム

Country Status (2)

Country Link
JP (1) JP6324829B2 (ja)
WO (1) WO2016006139A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6979105B2 (ja) * 2020-05-22 2021-12-08 株式会社スクウェア・エニックス アトラクションシステム、コンテンツ提供プログラム及びコンテンツ提供方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046978A (ja) * 2001-07-31 2003-02-14 Sony Corp 動画像配信装置及び動画像配信方法、動画像送受信システム、プログラム格納媒体並びにプログラム
JP2005051653A (ja) * 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法、コンテンツ配信装置、遊戯設備制御方法、遊戯設備制御装置
JP2012129760A (ja) * 2010-12-15 2012-07-05 Casio Comput Co Ltd コンテンツ評価装置、及びコンテツ評価方法
JP2013021466A (ja) * 2011-07-08 2013-01-31 Dowango:Kk 映像表示システム、映像表示方法、映像表示制御プログラム、動作情報送信プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007134808A (ja) * 2005-11-08 2007-05-31 Pioneer Electronic Corp 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
US9032466B2 (en) * 2010-01-13 2015-05-12 Qualcomm Incorporated Optimized delivery of interactivity event assets in a mobile broadcast communication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046978A (ja) * 2001-07-31 2003-02-14 Sony Corp 動画像配信装置及び動画像配信方法、動画像送受信システム、プログラム格納媒体並びにプログラム
JP2005051653A (ja) * 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ配信方法、コンテンツ配信装置、遊戯設備制御方法、遊戯設備制御装置
JP2012129760A (ja) * 2010-12-15 2012-07-05 Casio Comput Co Ltd コンテンツ評価装置、及びコンテツ評価方法
JP2013021466A (ja) * 2011-07-08 2013-01-31 Dowango:Kk 映像表示システム、映像表示方法、映像表示制御プログラム、動作情報送信プログラム

Also Published As

Publication number Publication date
JP6324829B2 (ja) 2018-05-16
JP2015122724A (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
US8477950B2 (en) Home theater component for a virtualized home theater system
JP6316538B2 (ja) コンテンツ送信装置、コンテンツ送信方法、コンテンツ再生装置、コンテンツ再生方法、プログラム、およびコンテンツ配信システム
KR101326739B1 (ko) 정보처리 시스템 및 정보처리 장치
US9185383B2 (en) System and method for providing optimal display of video content
JP6172610B2 (ja) テレビ会議用システム
CN106331753A (zh) 在多个网络客户端上同步渲染经拆分的多媒体内容
WO2011050690A1 (zh) 用于录制和回播多媒体会议的方法和系統
CN103119952B (zh) 处理多媒体流的方法以及相应设备
JP6024002B2 (ja) 動画配信システム
JP5841715B2 (ja) 映像音声出力装置、および映像音声出力システム、およびマスタ装置
WO2016147538A1 (ja) テレビ会議用通信装置
JP6324829B2 (ja) 映像提供システムおよびプロラム
WO2014027382A1 (ja) 端末装置、表示装置、端末装置連動システム、端末装置連動方法、及び非一時的なコンピュータ可読媒体
JP5581437B1 (ja) 映像提供システムおよびプロラム
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
KR101542416B1 (ko) 멀티앵글영상서비스 제공 방법 및 시스템
KR102273439B1 (ko) 다면 영상 재생 시스템 및 실시간 중계 서비스 제공 방법
JP7153143B2 (ja) 映像提供システムおよびプログラム
KR101242478B1 (ko) 멀티 앵글 기반의 미디어 자키를 이용한 실시간 개인 방송 시스템
KR102012580B1 (ko) 멀티미디어 콘텐츠 처리를 위한 장치 및 그 제어방법
JP6481937B2 (ja) テレビ会議用通信装置
RU2583755C2 (ru) Способ съемки и отображения зрелищного мероприятия и пользовательский интерфейс для осуществления способа
US10264241B2 (en) Complimentary video content
KR20180030143A (ko) 이질적인 네트워킹 환경들에서 미디어 렌더링의 동기화
JP2022066944A (ja) 情報処理装置、コンピュータプログラムおよび情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14897061

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14897061

Country of ref document: EP

Kind code of ref document: A1