JP6024002B2 - Video distribution system - Google Patents

Video distribution system Download PDF

Info

Publication number
JP6024002B2
JP6024002B2 JP2016120192A JP2016120192A JP6024002B2 JP 6024002 B2 JP6024002 B2 JP 6024002B2 JP 2016120192 A JP2016120192 A JP 2016120192A JP 2016120192 A JP2016120192 A JP 2016120192A JP 6024002 B2 JP6024002 B2 JP 6024002B2
Authority
JP
Japan
Prior art keywords
video
moving image
adjustment
user
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016120192A
Other languages
Japanese (ja)
Other versions
JP2016165162A (en
Inventor
まり子 森川
まり子 森川
Original Assignee
株式会社ハーツクリエイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ハーツクリエイション filed Critical 株式会社ハーツクリエイション
Priority to JP2016120192A priority Critical patent/JP6024002B2/en
Publication of JP2016165162A publication Critical patent/JP2016165162A/en
Application granted granted Critical
Publication of JP6024002B2 publication Critical patent/JP6024002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ネットワークを介して配信された複数の動画コンテンツを再生する動画配信システムに関する。   The present invention relates to a moving image distribution system for reproducing a plurality of moving image contents distributed via a network.

近年、通信回線の広帯域化、通信技術の向上に加え、ユーザのインターネットの利用形態(通信デバイス)の多様化も相俟って、大容量データを送受信しやすい環境が整備されたのに伴い、インターネットを介した動画コンテンツの配信及び視聴が盛んに行なわれている。多くの場合、視聴可能な動画コンテンツは、個々が縮小された状態で通信デバイスのディスプレイにタイル状やアレイ状に配列表示される。ユーザは、この配列表示を参考にして観たい動画コンテンツを1つ選択することにより、視聴を開始することが可能となる。   In recent years, in addition to the widening of communication lines and improvements in communication technology, along with the diversification of users' use of the Internet (communication devices), an environment that facilitates transmission and reception of large volumes of data has been established. Distribution and viewing of moving image contents via the Internet are actively performed. In many cases, the viewable moving image content is arranged and displayed in a tile shape or an array shape on the display of the communication device in a state where each content is reduced. The user can start viewing by selecting one moving image content to be viewed with reference to this array display.

このような形式による動画コンテンツの配信において、配信サーバ上の処理負荷の増大を抑制することを主な課題とした画像処理装置及びこれを利用した画像配信システムが開示されている(例えば、特許文献1を参照)。   In the distribution of moving image content in such a format, an image processing apparatus whose main problem is to suppress an increase in processing load on the distribution server and an image distribution system using the same have been disclosed (for example, Patent Documents). 1).

このシステムにおいては、ユーザが利用するクライアントにおける表示領域の状態(拡大、縮小、移動等)を逐一解析し、それに応じて(1)配列表示の対象とする複数の動画コンテンツを一旦復号して、(2)これらを基に配列表示用の1つの動画を生成し、さらに(3)この1動画を符号化し1本のビットストリームとした上で、クライアントに配信する。また、配信された配列表示用の動画に含まれる複数の動画コンテンツのうち、ユーザの操作によりいずれか1つが所定の閾値(例えば、表示領域の80%)以上の大きさに拡大された場合には、クライアントから送信された表示領域の状態を再びサーバが解析して、その動画コンテンツが注目され選択されていることが明らかであると判断し、選択された動画コンテンツ単体のビットストリームをそのままクライアントに配信する。   In this system, the state (enlargement, reduction, movement, etc.) of the display area in the client used by the user is analyzed one by one, and accordingly (1) a plurality of moving image contents to be arrayed are temporarily decoded, (2) Based on these, one moving image for array display is generated, and (3) the one moving image is encoded into one bit stream and distributed to the client. Also, when any one of a plurality of moving image contents included in the distributed moving image for array display is enlarged to a size equal to or larger than a predetermined threshold (for example, 80% of the display area) by a user operation. The server analyzes the state of the display area transmitted from the client again, determines that it is clear that the video content is noticed and selected, and the bit stream of the selected video content alone is used as it is in the client. Deliver to.

特開2015−192278号公報JP2015-192278A

上述した先行技術によれば、いずれかの動画コンテンツが選択されている間は配列表示する場合に必要となる上記(1)〜(3)の処理を省略することができるため、その分だけサーバにおける処理負荷を軽減することができると考えられる。
しかしながら、この先行技術の構成においては、配列表示された複数の動画コンテンツの中から何れか1つをユーザが選択してからその動画コンテンツがクライアントの表示領域に等倍表示されるまでの間にタイムラグが生じるため、配信に遅延が生じ動画再生が途切れるという問題が発生しうる。
According to the above-described prior art, the processing of (1) to (3), which is necessary for displaying an array while any moving image content is selected, can be omitted. It is thought that the processing load in the can be reduced.
However, in this prior art configuration, after the user selects any one of the plurality of moving image contents displayed in an array, the moving image content is displayed in the display area of the client at the same magnification. Since a time lag occurs, there may be a problem in that a delay is caused in distribution and video reproduction is interrupted.

すなわち、ユーザの操作により表示領域の状態に変化が生じると、その都度クライアントからサーバに対し表示領域の状態に関する情報が送信される。サーバは受信した情報を解析し、いずれか1つの動画コンテンツが選択されていると判断すると、クライアントに対して配信するビットストリームを配列表示用の動画から選択された動画コンテンツに切り替える。選択された動画コンテンツ単独のビットストリームがサーバから配信されると、クライアントがこれを受信し表示領域に等倍表示する。上述した動画再生の途切れは、このようにしてユーザが操作してから選択した動画コンテンツが等倍表示されるまでの間のタイムラグに起因する。動画の再生が途切れると、視聴しているユーザはコンテンツに対する集中力が削がれ、結果としてユーザの作業効率が低下する虞がある。   That is, whenever a change occurs in the state of the display area due to a user operation, information regarding the state of the display area is transmitted from the client to the server. When the server analyzes the received information and determines that any one of the moving image contents is selected, the server switches the bit stream to be distributed to the client from the moving image for array display to the selected moving image content. When the bit stream of the selected moving image content alone is delivered from the server, the client receives it and displays it in the display area at the same magnification. The discontinuity of the moving image reproduction described above is caused by a time lag from when the user operates in this way until the selected moving image content is displayed at the same magnification. When the reproduction of the moving image is interrupted, the user who is viewing the content is less focused on the content, and as a result, the user's work efficiency may be reduced.

そこで、本発明は、ユーザの集中力を削ぐことなく動画を再生することができる技術の提供を課題とする。   Therefore, an object of the present invention is to provide a technique capable of reproducing a moving image without reducing the user's concentration.

上記の課題を解決するため、本発明は以下の手段を採用する。
すなわち、本発明の動画配信システムは、複数の映像が予め配列状に合成されてなる1つの合成映像と複数の映像に関連する複数の音声とで多重化された動画のビットストリームを配信する動画配信手段と、動画配信手段によるビットストリームの配信に付随し、合成映像に関する構成情報とこの構成情報に連動させたユーザインタフェースを提供するUI提供手段と、UI提供手段により提供されるユーザインタフェースを介して、1つの合成映像のうち選択された所定の領域を映像出力部に出力させつつ複数の音声をダウンミックスして音声出力部に出力させることにより前記動画の再生を実現させる再生手段とを備えている。
In order to solve the above problems, the present invention employs the following means.
In other words, the moving image distribution system of the present invention distributes a moving image bitstream multiplexed with one synthesized image obtained by combining a plurality of images in advance in an array and a plurality of sounds related to the plurality of images. Via a distribution means, a UI providing means for providing composition information relating to the composite video and a user interface linked to the configuration information, accompanying the distribution of the bit stream by the moving picture distribution means, and a user interface provided by the UI provision means And a reproduction means for realizing the reproduction of the moving image by outputting a predetermined region selected from one composite video to the video output unit and downmixing a plurality of sounds to the audio output unit. ing.

動画配信システムにおいては、動画はサーバ側からクライアント側に対して配信され、クライアント側で再生される。サーバ側から配信される動画は、複数の映像と複数の音声とで多重化されている。動画を構成する複数の映像は、予め配列状(例えば、タイル状、列状等)に配置された状態で合成されており、配信される段階では1つの合成映像として配信される。また、動画を構成する複数の音声は、複数チャンネルを有する1つの音声データとして配信される。   In the moving image distribution system, the moving image is distributed from the server side to the client side and is reproduced on the client side. The moving image distributed from the server side is multiplexed with a plurality of videos and a plurality of sounds. A plurality of videos constituting a moving image are synthesized in a state where they are arranged in advance (for example, tiles, rows, etc.), and are delivered as one synthesized video at the stage of delivery. In addition, a plurality of sounds constituting the moving image are distributed as one sound data having a plurality of channels.

配信された動画をクライアント側で動画を再生する(映像及び音声を出力させる)に当り、音声については、音声データから個々のチャンネルの音声を取り出しこれらをミックスした状態で出力させる。映像については、合成映像のうちユーザインタフェースを介して選択された領域のみを抜き出して出力させる。ユーザが表示する映像を切り替えようとする場合に、切替先の映像は切替前(再生中)の映像と同様に合成映像の一部としてクライアント側に配信されているため、切替先の映像や音声を別途サーバ側に要求してその配信を待つ必要がなく、クライアント側において合成映像から抜き出す領域を変更するだけで処理が完結する。そのため、表示する映像の切り替えに伴うサーバ・クライアント間での通信が発生せず、通信に伴うタイムラグに起因する動画再生の遅延や途切れが発生し得ない。   When the distributed video is played back on the client side (video and audio are output), the audio is extracted from the audio data and output in a mixed state. As for the video, only the region selected via the user interface is extracted from the synthesized video and output. When the user wants to switch the video to be displayed, the video to be switched to is delivered to the client side as part of the composite video in the same way as the video before switching (during playback). There is no need to request the server separately and wait for the distribution, and the processing is completed only by changing the area extracted from the synthesized video on the client side. For this reason, communication between the server and the client due to switching of the video to be displayed does not occur, and there is no possibility of delay or interruption in moving image reproduction due to a time lag associated with communication.

したがって、上述した態様によれば、多重化された動画の再生中に表示対象とする映像を切り替えても、映像及び音声を途切れさせることなくスムーズに切り替えを実現することができる。よって、ユーザは集中力を削がれることなく動画の視聴を継続することが可能となる。   Therefore, according to the above-described aspect, even when the video to be displayed is switched during the reproduction of the multiplexed moving image, the switching can be realized smoothly without interrupting the video and audio. Therefore, the user can continue watching the video without losing concentration.

また、動画配信手段は、同一の対象物又は相互に関連性のある複数の対象物を撮影した複数の映像と、対象物から発せられる音声を集音し又は前記対象物に関連付けて付加した複数の音声とで多重化されたビットストリームを配信する。   In addition, the moving image distribution means collects a plurality of videos obtained by photographing the same target object or a plurality of mutually related objects and a sound emitted from the target object, or adds a plurality of videos in association with the target object. The bit stream multiplexed with the audio of

この態様において配信される動画は、同一の対象物又は相互に関連性のある複数の対象物を捉えた複数の映像と音声とを同期させて多重化している。   In the moving image distributed in this aspect, a plurality of videos and sounds capturing the same object or a plurality of objects related to each other are synchronized and multiplexed.

例えば、配信される動画は、音楽ライブやスポーツ大会、入学式等のような大人数を収容するイベントにおいて、会場内の複数の場所に設置されたカメラ及びマイクにより同時に撮影及び集音された映像と音声とで多重化されている。動画配信手段は、このようにして多重化された多視点動画を配信する。このような会場においては、客席の位置によってその見え方は様々である。また、見たい場面、すなわちどの位置からの観覧を望むかについても、十人十色である。この態様によれば、ユーザは、表示する映像を、配信された複数の映像の中から自身の嗜好に沿って選択し切り替えることができる。また、上述したように、この切り替えに伴う映像や音声の途切れは生じない。よって、ユーザは、あたかも動画の対象となった会場内を回遊しているかのような感覚で、感動を削がれることなく動画の視聴を堪能することが可能となる。   For example, the video to be distributed is a video that was shot and collected simultaneously by cameras and microphones installed at multiple locations in the venue at events that accommodate a large number of people, such as live music, sports competitions, entrance ceremonies, etc. And audio. The moving image distribution means distributes the multi-view moving images multiplexed in this way. In such a venue, the appearance varies depending on the position of the audience seat. Also, there are ten colors for the scene you want to see, that is, from which position you want to see. According to this aspect, the user can select and switch the video to be displayed from his / her plurality of delivered videos according to his / her preference. Further, as described above, video and audio are not interrupted due to this switching. Therefore, the user can enjoy watching the moving image without losing the excitement as if he / she is traveling around the venue that is the target of the moving image.

また、この態様は、上述したイベントの例以外にも、教育や医療、産業をはじめとする多様な分野に適用することができる。例えば、配信される動画は、教育分野で利用される学習コンテンツであり、講義を行う先生、板書された内容、講義テキスト等を講義の進行に合わせて同時に捉えた複数の映像と、先生が発した声や講義の進行に沿って付加された効果音やBGM等の複数の音声により多重化される。或いは、外国語教材に適用され、複数の言語向けに用意された映像と音声とが講義の進行タイミングに合わせてシンクロされた状態で多重化される。また、産業分野では、例えば生産ライン上の複数の位置(入口、出口等)で同時に捉えた複数の映像と音声とで多重化される。このように、この態様によれば、ユーザは表示を切り替えることにより確認したい対象物を映像や音声の途切れなくリアルタイムで効率よく確認することができる。よって、迅速性が要求される場面等において、ユーザの作業効率を向上させることが可能となる。   Moreover, this aspect can be applied to various fields such as education, medical care, and industry other than the above-described event examples. For example, the video that is distributed is learning content used in the field of education, and the teacher gives a lecture, a plurality of videos that capture the board written content, lecture text, etc. at the same time as the lecture progresses. And a plurality of sounds such as sound effects and BGM added along with the progress of the lecture. Or, it is applied to foreign language teaching materials, and video and audio prepared for a plurality of languages are multiplexed in a synchronized state in accordance with the progress timing of the lecture. Also, in the industrial field, for example, a plurality of video and audio captured simultaneously at a plurality of positions (entrance, exit, etc.) on the production line are multiplexed. Thus, according to this aspect, the user can efficiently confirm the target object to be confirmed by switching the display in real time without interruption of video and audio. Therefore, the user's work efficiency can be improved in a scene where quickness is required.

好ましくは、動画配信システムは、映像出力部により出力される映像の出力態様及び音声出力部により出力される音声の出力態様を調整する出力調整手段をさらに備えており、UI提供手段は、ユーザの操作に基づいて出力調整手段に映像及び音声の出力態様を調整させるためのユーザインタフェースを提供する。   Preferably, the moving image distribution system further includes an output adjustment unit that adjusts an output mode of the video output by the video output unit and an output mode of the audio output by the audio output unit, and the UI providing unit includes: A user interface is provided for causing the output adjustment means to adjust the video and audio output modes based on the operation.

この態様においては、UI提供手段により映像及び音声の出力態様を調整するための操作メニューが提供される。映像の出力態様としては、例えば、出力映像(表示させる映像)の切替、映像の拡大/縮小や表示位置の変更、エフェクトの挿入等が挙げられる。また、音声の出力態様としては、ミックスされる各音声の音量、各音声の定位や消音等が挙げられる。ユーザが操作メニューを用いて出力態様の調整に関する操作を行うと、出力調整手段がその操作に基づき実際に出力させる映像及び音声の出力態様を調整する。   In this mode, an operation menu for adjusting the video and audio output mode is provided by the UI providing means. Examples of the video output mode include switching of output video (video to be displayed), enlargement / reduction of video, change of display position, insertion of effects, and the like. Further, examples of the sound output mode include the volume of each sound to be mixed, the localization and silence of each sound, and the like. When the user performs an operation related to the adjustment of the output mode using the operation menu, the output adjustment unit adjusts the video and audio output mode to be actually output based on the operation.

したがって、この態様によれば、多重化された映像及び音声に対しユーザインタフェースを介してその出力態様を細やかに調整することができる。よって、ユーザは、自身が好む態様で映像や音声を出力させることにより、動画の視聴にさらに集中することが可能となる。   Therefore, according to this mode, it is possible to finely adjust the output mode of the multiplexed video and audio via the user interface. Therefore, the user can further concentrate on viewing the moving image by outputting video and audio in a manner that the user likes.

さらに好ましくは、動画配信システムは、動画の再生中にユーザの操作に基づきユーザインタフェースを介してなされた出力調整手段による映像及び音声の出力態様の変遷である調整履歴を記録する調整記録手段と、動画の再生にあたり、求めに応じて、ユーザの操作に基づきなされた映像及び音声の出力態様の調整を調整記録手段により記録された調整履歴に沿って出力調整手段に再現させる調整再現手段とをさらに備えている。   More preferably, the moving image distribution system includes an adjustment recording unit that records an adjustment history that is a transition of a video and audio output mode by the output adjustment unit that is made through a user interface based on a user operation during reproduction of the moving image, and An adjustment reproduction means for reproducing the adjustment of the video and audio output mode based on the user's operation upon the reproduction of the moving image on the output adjustment means according to the adjustment history recorded by the adjustment recording means. I have.

この態様においては、ある動画に対しなされたユーザの操作に基づく出力態様の変遷(調整履歴)を調整記録手段がサーバ側に記録する。サーバ側に記録された調整履歴は、同一のユーザ又は他のユーザがこの動画を視聴する際に利用可能である。その場合には、動画とともに調整履歴がクライアント側に配信され、調整再現手段が配信された調整履歴に沿って記録されている映像及び音声の出力態様の調整を再現させる。   In this mode, the adjustment recording unit records the transition of the output mode (adjustment history) based on the user's operation performed on a certain moving image on the server side. The adjustment history recorded on the server side can be used when the same user or another user views this moving image. In that case, the adjustment history is distributed to the client side together with the moving image, and the adjustment reproduction unit reproduces the adjustment of the output mode of the video and audio recorded along the distributed adjustment history.

したがって、この態様によれば、自身又は他のユーザが行った出力態様の調整を再現させた状態で動画を視聴することができる。よって、ユーザは、動画を視聴する際に、過去に自身が好みに沿って行った出力調整をそのまま再現させたり、或いは他のユーザの嗜好によりなされた出力調整を再現させたりしながら、その動画の視聴により一層集中することが可能となる。   Therefore, according to this aspect, the moving image can be viewed in a state where the adjustment of the output aspect performed by itself or another user is reproduced. Thus, when a user views a video, the user reproduces the output adjustment that the user made in the past according to his / her preference as it is, or reproduces the output adjustment made according to another user's preference. It becomes possible to concentrate more by viewing.

また、動画配信システムは、動画と調整記録手段により記録された調整履歴との組合せを一意に定める識別情報をユーザとは異なるユーザに報知する報知手段をさらに備え、報知手段により報知された識別情報を伴う配信要求がなされた場合、動画配信手段は、識別情報により識別される動画のビットストリーム及びこの動画に対する調整履歴を配信し、調整再現手段は、動画の再生にあたり、調整履歴に沿ってユーザの操作に基づきなされた映像及び音声の出力態様の調整を再現させる。   The moving image distribution system further includes notification means for notifying a user different from the user of identification information that uniquely defines a combination of the moving image and the adjustment history recorded by the adjustment recording means, and the identification information notified by the notification means When a distribution request is made, the moving image distribution means distributes the bit stream of the moving image identified by the identification information and the adjustment history for the moving image, and the adjustment reproduction means regenerates the moving image by the user along the adjustment history. The adjustment of the video and audio output mode made based on the above operation is reproduced.

この態様においては、ある動画とこれに対する調整履歴との組合せを一意に識別することができる情報(例えば、動画IDとユーザIDの組合せ)を他のユーザに案内する報知手段を有している。この識別情報とともに動画の配信要求を行うと、配信手段は識別情報により識別される動画と調整履歴を配信し、調整再現手段が配信された調整履歴に沿って記録されている映像及び音声の出力態様の調整を再現させる。   In this aspect, there is a notification means for guiding information (for example, a combination of a moving image ID and a user ID) that can uniquely identify a combination of a certain moving image and an adjustment history for the moving image to other users. When a video distribution request is made together with this identification information, the distribution means distributes the video identified by the identification information and the adjustment history, and output of video and audio recorded along the adjustment history distributed by the adjustment reproduction means Reproduce the adjustment of the aspect.

したがって、この態様によれば、ある動画を自身が行った出力態様の調整を再現させた状態で視聴可能化する情報(例えば、URL)を他のユーザに対し容易に案内することができる。また、他のユーザは、案内された情報を利用して、案内元のユーザによる再生時と全く同じ状態で指定された動画の視聴を容易に行うことができる。よって、他のユーザは、出力態様の調整に関する操作を加えることなく、容易に動画の視聴を行うことができる。   Therefore, according to this aspect, it is possible to easily guide information (for example, URL) that enables viewing of a moving image in a state in which the adjustment of the output aspect performed by itself is reproduced. In addition, other users can easily view a specified moving image using the guided information in exactly the same state as the reproduction by the guiding user. Therefore, other users can easily view a moving image without performing an operation related to adjustment of the output mode.

本発明は、ユーザの集中力を削ぐことなく動画を再生することができる。   The present invention can reproduce a moving image without reducing the user's concentration.

動画配信システムが動作する環境の構成図である。It is a block diagram of the environment where a moving image delivery system operates. 動画配信システムにより提供されるユーザインタフェース例を示す図である。It is a figure which shows the example of the user interface provided by a moving image delivery system. 複数の映像及び音声が多重化される態様を示す模式図である。It is a schematic diagram which shows the aspect with which several video and an audio | voice are multiplexed. 動画配信システムの機能ブロック図(1/2)である。It is a functional block diagram (1/2) of a moving image delivery system. 動画配信システムの機能ブロック図(2/2)である。It is a functional block diagram (2/2) of a moving image delivery system. 動画の構成情報を説明する図である。It is a figure explaining the structure information of a moving image. 動画配信システムで提供される操作メニューを介した映像の出力調整例を示す図(1/3)である。It is a figure (1/3) which shows the output adjustment example of the image | video via the operation menu provided with a moving image delivery system. 動画配信システムで提供される操作メニューを介した映像の出力調整例を示す図(2/3)である。It is a figure (2/3) which shows the output adjustment example of the image | video via the operation menu provided with a moving image delivery system. 動画配信システムで提供される操作メニューを介した映像の出力調整例を示す図(3/3)である。It is a figure (3/3) which shows the output adjustment example of the image | video via the operation menu provided with a moving image delivery system. サーバ側で実行される処理の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the process performed by the server side. クライアント側で実行される処理の手順例を示すフローチャート(1/2)である。It is a flowchart (1/2) which shows the example of a procedure of the process performed by the client side. クライアント側で実行される処理の手順例を示すフローチャート(2/2)である。It is a flowchart (2/2) which shows the example of a procedure of the process performed by the client side. 調整履歴データの具体例を示す図である。It is a figure which shows the specific example of adjustment log | history data. 動画配信システムを利用して動画を再生し調整履歴を記録する際の動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example at the time of reproducing | regenerating a moving image using an animation delivery system, and recording adjustment history. 動画配信システムを利用して他のユーザによりなされた出力調整を再現して動画再生を行う際の動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example at the time of reproducing a moving image by reproducing the output adjustment made by the other user using the moving image distribution system. 第2実施形態の動画配信システムが動作する環境の構成図である。It is a block diagram of the environment where the moving image delivery system of 2nd Embodiment operate | moves. 第3実施形態の動画配信システムが動作する環境の構成図である。It is a block diagram of the environment where the moving image delivery system of 3rd Embodiment operate | moves.

以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の実施形態は好ましい例示であり、本発明はこの例示に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiment is a preferred example, and the present invention is not limited to this example.

図1は、一実施形態における動画配信システム100が動作する環境の構成図である。動画配信システム100は、例えばインターネット等のネットワークに接続されたコンピュータ環境に適用することができる。   FIG. 1 is a configuration diagram of an environment in which the moving image distribution system 100 according to an embodiment operates. The moving image distribution system 100 can be applied to a computer environment connected to a network such as the Internet, for example.

この図に示されるように、動画配信システム100において配信される動画の素材となる映像はn台のカメラVC1〜VCnで撮影され、動画の素材となる音声はm台のマイクMC1〜MCmで集音される。カメラVC1〜VCnで撮影されたn本の映像及びマイクMC1〜MCmで集音されたm本の音声は、合成多重化装置10に入力される。合成多重化装置10は、n本の映像をマルチ画面映像に合成して1つの映像信号を生成するとともに、m本の音声を素としてm個のチャンネルを有する1つの音声信号を生成する。   As shown in this figure, the video as the video material distributed in the video distribution system 100 is shot by n cameras VC1 to VCn, and the voice as the video material is collected by m microphones MC1 to MCm. Sounded. The n images captured by the cameras VC1 to VCn and the m sounds collected by the microphones MC1 to MCm are input to the combining and multiplexing apparatus 10. The synthesizer / multiplexer 10 synthesizes n videos into a multi-screen video to generate one video signal and generates one audio signal having m channels with m voices as prime elements.

符号化装置20は、合成多重化装置10で生成された映像信号と音声信号をそれぞれネットワークに配信可能な帯域および形式に変換し1つのビットストリームにまとめる。符号化装置20で生成されたビットストリームは、データベースサーバ30内の動画データベース32に格納される。   The encoding device 20 converts the video signal and the audio signal generated by the combining and multiplexing device 10 into a band and a format that can be distributed to the network, respectively, and collects them into one bit stream. The bit stream generated by the encoding device 20 is stored in the moving image database 32 in the database server 30.

なお、動画を構成する各素材が1つのビットストリームにまとめられる過程については、別の図を用いて後述する。また、合成多重化装置10、符号化装置20及びデータベースサーバ30は、相互にネットワーク接続されている必要はなく、各装置で生成される信号やデータが相互に受け渡し可能な形態を選択することができる。例えば、合成多重化装置10から符号化装置20に対してはケーブルを介して映像/音声信号を伝送し、符号化装置20からデータベースサーバ30に対しては記録媒体等を用いてデータを入力してもよい。   In addition, the process in which each material which comprises a moving image is put together into one bit stream is later mentioned using another figure. Further, the multiplexing / multiplexing device 10, the encoding device 20, and the database server 30 do not need to be connected to each other via a network, and can select a form in which signals and data generated by each device can be exchanged with each other. it can. For example, video / audio signals are transmitted from the multiplexing / multiplexing apparatus 10 to the encoding apparatus 20 via a cable, and data is input from the encoding apparatus 20 to the database server 30 using a recording medium or the like. May be.

データベースサーバ30は、動画配信システム100で用いられる各種のデータベースを配設/管理しており、前述した動画データベース32の他に、履歴データベース34及びユーザマスタ36を有している。動画データベース32は、動画のビットストリームに加え、その動画の構成情報(例えば、映像数、音声数、圧縮形式、解像度、各映像の座標情報等)を格納する。履歴データベース34は、配信された動画の再生中にユーザの操作によりなされた映像や音声の出力調整の変遷を記録した履歴データを格納する。ユーザマスタ36は、動画配信システム100を利用するユーザの登録情報(例えば、ユーザID、ユーザ名、認証パスワード等)を格納する。なお、各データベース32,34,36は、必ずしもデータベースシステムとして構成される必要はなく、例えば、データベースサーバ30により認識される記憶領域をファイルストレージとして用いる構成としてもよい。   The database server 30 arranges / manages various databases used in the moving image distribution system 100 and includes a history database 34 and a user master 36 in addition to the moving image database 32 described above. In addition to the bit stream of the moving image, the moving image database 32 stores the configuration information of the moving image (for example, the number of videos, the number of sounds, the compression format, the resolution, the coordinate information of each video, etc.). The history database 34 stores history data that records changes in video and audio output adjustments made by user operations during playback of distributed video. The user master 36 stores registration information (for example, user ID, user name, authentication password, etc.) of users who use the moving image distribution system 100. Each database 32, 34, and 36 is not necessarily configured as a database system. For example, a storage area recognized by the database server 30 may be used as a file storage.

配信サーバ40は、ユーザ(より正確には、ユーザ端末50)からの要求に応じて動画を配信する。配信サーバ40は、データベースサーバ30にネットワーク等を介して相互に接続可能であると同時に、インターネット70に接続されている。ユーザが動画配信システム100を利用する際に用いるユーザ端末50もまた、インターネット70に接続されている。すなわち、配信サーバ40とユーザ端末50とは、インターネット70を介して相互に接続可能である。   The distribution server 40 distributes a moving image in response to a request from the user (more precisely, the user terminal 50). The distribution server 40 can be connected to the database server 30 via a network or the like, and at the same time is connected to the Internet 70. A user terminal 50 used when a user uses the moving image distribution system 100 is also connected to the Internet 70. That is, the distribution server 40 and the user terminal 50 can be connected to each other via the Internet 70.

ユーザ端末50は、配信サーバ40に対する動画の配信要求や、配信サーバ40により提供される操作メニューを介した動画の再生等を行う。ユーザ端末50の形態としては、例えば、コンピュータ、スマートフォンやタブレットPC等のモバイルデバイスの他、インターネット対応テレビやインターネット対応ゲーム機等が挙げられる。このように、インターネットへの接続が可能で、かつ標準的なウェブブラウジング機能と映像/音声出力機能を有したクライアントであれば、動画配信システム100を利用することができる。   The user terminal 50 performs a moving image distribution request to the distribution server 40, reproduction of a moving image through an operation menu provided by the distribution server 40, and the like. Examples of the form of the user terminal 50 include a mobile device such as a computer, a smartphone, and a tablet PC, an Internet-compatible TV, an Internet-compatible game machine, and the like. As described above, the moving image distribution system 100 can be used by any client that can be connected to the Internet and has a standard web browsing function and video / audio output function.

なお、配信サーバ40及びユーザ端末50が有する機能や、配信サーバ40及びユーザ端末50において実行される処理については、詳しく後述する。   The functions of the distribution server 40 and the user terminal 50 and the processing executed in the distribution server 40 and the user terminal 50 will be described in detail later.

図2は、一実施形態の動画配信システム100により提供される操作メニュー140(ユーザインタフェース)の例を示す図である。なお、発明の理解を容易とするために、これ以降の説明においては、配信される動画が各4本の映像及び音声で構成されている場合を例示する。また、操作メニュー140に設けられた操作部品に対する操作入力は、ユーザ端末50の形態によって異なるが(例えば、クリック、タッチ、タップ、押下等)、ここではこれらを総括して「選択」と表現することとする。   FIG. 2 is a diagram illustrating an example of an operation menu 140 (user interface) provided by the moving image distribution system 100 according to an embodiment. In order to facilitate the understanding of the invention, in the following description, a case where the moving image to be distributed is composed of four videos and sounds each will be exemplified. In addition, although the operation input to the operation component provided in the operation menu 140 varies depending on the form of the user terminal 50 (for example, click, touch, tap, press, etc.), these are collectively expressed as “selection” here. I will do it.

操作メニュー140は、動画の配信時に配信サーバ40から提供されるユーザインタフェースの一部である。操作メニュー140は、映像の出力態様(映像選択、拡大/縮小、位置変更、エフェクト等)を調整するためのメニューと、音声の出力態様(音量、定位、ミュート等)を調整するためのメニューとを含み、例えばウェブブラウザや専用アプリケーション等に展開される。   The operation menu 140 is a part of a user interface provided from the distribution server 40 at the time of moving image distribution. The operation menu 140 includes a menu for adjusting the video output mode (video selection, enlargement / reduction, position change, effect, etc.), and a menu for adjusting the audio output mode (volume, localization, mute, etc.) For example, it is expanded to a web browser or a dedicated application.

また、配信サーバ40から提供されるユーザインタフェースには、操作メニュー140の他に制御プログラムが内包されている。制御プログラムは、動画に付随して配信される構成情報に基づき操作メニュー140をこの動画に合わせてレンダリングする他、操作メニュー140を介してなされる各操作に対応付けられた処理を実行する。   In addition to the operation menu 140, the user interface provided from the distribution server 40 includes a control program. The control program renders the operation menu 140 according to the moving image based on the configuration information distributed along with the moving image, and executes processing associated with each operation performed via the operation menu 140.

例えば、図2に示されるように、操作メニュー140には主映像切替ボタン160(160a〜160d)と音声調整メニュー161(161a〜161d)が4個ずつ設けられる。このような操作メニュー140の配置は、今回配信される動画が4本の映像と4本の音声とを素材としていることが記された構成データに基づいて制御プログラムが決定し、ユーザ端末50上にレンダリングしたものである。   For example, as shown in FIG. 2, the operation menu 140 is provided with four main video switching buttons 160 (160a to 160d) and four audio adjustment menus 161 (161a to 161d). Such an arrangement of the operation menu 140 is determined by the control program based on the configuration data indicating that the moving image to be distributed this time is composed of four videos and four sounds, Rendered.

また、主映像切替ボタン160a〜160dの各々には、表示サイズが縮小された4本の動画がサブ映像としてサムネイル表示される。例えば、図2に示されるように、映像1への主映像切替ボタン160aには首を傾げた子犬を正面から捉えた映像が縮小表示され、映像2への主映像切替ボタン160bには同じ子犬を上方から捉えた映像が縮小表示され、映像3への主映像切替ボタン160cには同じ子犬を背後から捉えた映像が縮小表示され、映像4への主映像切替ボタン160dには同じ子犬を左側から捉えた映像が縮小表示される。これらのサブ映像は、構成データに記された合成映像における映像1〜4の各領域を示す座標(位置)情報に基づいて、各映像1〜4への切替を割り当てた各ボタン160a〜160d上に、制御プログラムが各映像1〜4の縮小映像を表示させたものである。   In addition, on each of the main video switching buttons 160a to 160d, four moving images with a reduced display size are displayed as thumbnails as sub-videos. For example, as shown in FIG. 2, the main image switching button 160a for the image 1 displays a reduced image of the pup with the head tilted, and the main puppy switching button 160b for the image 2 displays the same puppy. Is reduced, the main video switching button 160c for video 3 is displayed in a reduced size, and the same puppy is displayed on the left side in the main video switching button 160d for video 4. The video captured from is reduced. These sub-videos are displayed on the buttons 160a to 160d to which switching to each video 1 to 4 is assigned based on coordinate (position) information indicating each area of the video 1 to 4 in the composite video described in the configuration data. In addition, the control program displays reduced images of the respective images 1 to 4.

このとき、映像1への主映像切替ボタン160aを選択すると、主映像表示エリア150には主映像切替ボタン160aに縮小表示されている映像が表示される。この表示もまた、制御プログラムによりなされる。制御プログラムは、主映像切替ボタン160aの選択を契機として、構成データに記された映像1の領域を示す座標情報に基づきその領域のみを合成映像から抜き出し、主映像表示エリア150に表示する。
このように、映像数だけ設けられた各主映像切替ボタン160(160a〜160d)は、選択された映像を合成映像から抜き出して主映像表示エリア150に表示する。
At this time, when the main video switching button 160a for video 1 is selected, the video that is reduced and displayed on the main video switching button 160a is displayed in the main video display area 150. This display is also made by the control program. Based on the selection of the main video switching button 160a, the control program extracts only the area from the synthesized video based on the coordinate information indicating the area of the video 1 described in the configuration data, and displays it in the main video display area 150.
As described above, the main video switching buttons 160 (160a to 160d) provided by the number of videos extract the selected video from the synthesized video and display it in the main video display area 150.

音声数だけ設けられた各音声調整メニュー161(161a〜161d)には、音量スライダ162(162a〜162d)、定位ツマミ164(164a〜164d)及びミュートボタン166(166a〜166d)が設けられている。音量スライダ162は、指定された音声の音量を調整する。定位ツマミ164は、指定された音声の定位を調整する。ミュートボタン166は、指定された音声を消音するか否かを切り替える。   Each audio adjustment menu 161 (161a to 161d) provided with the number of sounds is provided with a volume slider 162 (162a to 162d), a localization knob 164 (164a to 164d), and a mute button 166 (166a to 166d). . The volume slider 162 adjusts the volume of the designated voice. The localization knob 164 adjusts the localization of the designated sound. The mute button 166 switches whether to mute the designated sound.

これらのメニューを利用することにより、ユーザは個々の音声の音量やバランスを自在に調整することができ、多重化された複数の音声を嗜好に合わせてミックスし出力させることが可能となる。例えば、図2に示されるように、音声1に対する音量スライダ162aを上端までスライドすると、音声1は最大音量で出力される。音声2に対する定位調整ツマミ164bを選択し「R」に寄せると、音声2は右側のみから出力される。音声3に対するミュートボタン166cを選択すると、ミュートボタン166cの表示は×印に変わり、音声3は消音され一切出力されなくなる。   By using these menus, the user can freely adjust the volume and balance of individual voices, and can mix and output a plurality of multiplexed voices according to preferences. For example, as shown in FIG. 2, when the volume slider 162a for the voice 1 is slid to the upper end, the voice 1 is output at the maximum volume. When the localization adjustment knob 164b for the sound 2 is selected and brought to “R”, the sound 2 is output only from the right side. When the mute button 166c for the sound 3 is selected, the display of the mute button 166c changes to a cross, and the sound 3 is muted and is not output at all.

また、文字入力表示エリア158は、動画の再生中にユーザにより入力される文字を受け付け、表示する。拡大ボタン152は、主映像表示エリア150に表示された映像を拡大する。縮小ボタン154は、主映像表示エリア150に表示された映像を縮小する。移動ボタン156は、主映像表示エリア150に表示された映像内で表示対象とする領域を移動する。映像の拡大・縮小及び映像内における表示位置の変更(移動)については、詳しく後述する。   The character input display area 158 accepts and displays characters input by the user during the reproduction of the moving image. The enlarge button 152 enlarges the video displayed in the main video display area 150. The reduction button 154 reduces the video displayed in the main video display area 150. The move button 156 moves an area to be displayed in the video displayed in the main video display area 150. The enlargement / reduction of the video and the change (movement) of the display position in the video will be described in detail later.

エフェクト選択ボタン168〜178は、各ボタンに対応付けられたエフェクトを映像の再生中に挿入する。例えば、クロスフェードボタン168を選択すると、映像にクロスフェードを挿入、すなわちボタン選択前の映像をフェードアウトさせながらボタン選択後の映像をフェードインさせ、前後の映像が滑らかに切り替えられる。また、オートエフェクトボタン176を選択すると、予め用意されている複数種類のエフェクトの何れかを自動的に挿入する。   The effect selection buttons 168 to 178 insert effects associated with the respective buttons during video reproduction. For example, when the cross-fade button 168 is selected, a cross-fade is inserted into the video, that is, the video after the button selection is faded in while the video before the button selection is faded out, and the video before and after is smoothly switched. When the auto effect button 176 is selected, any one of a plurality of types of prepared effects is automatically inserted.

調整記録ボタン180は、操作メニュー140を介して調整された映像及び音声の出力態様の変遷(調整履歴)を記録させる。調整記録ボタン180を一度選択すると、ローカルの一時データベースへの記録が開始される。それ以降にユーザが操作メニュー140で映像又は音声の出力調整に関する操作を行うと、これを契機として各操作部品に対応付けられた処理が実行され映像及び音声の出力態様が変更されるが、このとき、実行された出力調整は一時データベースに逐一追記される。動画再生が終了すると、ユーザにデータの保存を促すメッセージが操作メニュー140上に表示される。ここで再び調整記録ボタン180を選択すると、動画の再生中に一時データベースに記録されたデータ、すなわち映像及び音声の出力態様の調整履歴が、配信サーバ40に送信され、履歴データベース34に記録される。   The adjustment record button 180 records the transition (adjustment history) of the video and audio output mode adjusted via the operation menu 140. Once the adjustment recording button 180 is selected, recording in the local temporary database is started. Thereafter, when the user performs an operation related to video or audio output adjustment with the operation menu 140, the process associated with each operation component is executed and the video and audio output mode is changed. When the output adjustment is performed, it is added to the temporary database one by one. When the reproduction of the moving image ends, a message prompting the user to save the data is displayed on the operation menu 140. Here, when the adjustment recording button 180 is selected again, the data recorded in the temporary database during the reproduction of the moving image, that is, the adjustment history of the video and audio output mode is transmitted to the distribution server 40 and recorded in the history database 34. .

調整再現ボタン182は、一時データベースに展開された調整履歴に基づいて、映像及び音声の出力態様の調整を再現させる。動画の配信要求時に他のユーザがその動画を視聴した際の調整履歴を併せて要求したか、或いはユーザ自らが過去に同じ動画を視聴した際にサーバ側に記録した調整履歴が存在する場合には、動画の配信時に調整履歴が併せて配信され、ローカルの一時データベースに展開される。調整再現ボタン182を選択すると、一時データベースから調整履歴が読み出され、記録されている個々の出力調整が再生の時間軸に沿って逐一実行されることにより、記録時と全く同一の出力態様が再現される。つまりユーザは、操作メニュー140を操作することなく、調整履歴に沿って出力調整を自動的に再現させ過去の視聴時(調整履歴の記録時)と同じ状態で動画を視聴することができる。   The adjustment reproduction button 182 reproduces the adjustment of the video and audio output mode based on the adjustment history developed in the temporary database. When another user requested the adjustment history when viewing the movie at the time of the distribution request of the movie, or there is an adjustment history recorded on the server side when the user viewed the same movie in the past Is distributed together with the adjustment history when the moving image is distributed, and is expanded in a local temporary database. When the adjustment reproduction button 182 is selected, the adjustment history is read from the temporary database, and the recorded output adjustments are executed one by one along the reproduction time axis. It is reproduced. That is, the user can automatically reproduce the output adjustment according to the adjustment history without operating the operation menu 140, and can view the moving image in the same state as when viewing the past (when recording the adjustment history).

なお、一時データベースに調整履歴が存在しない場合は、出力調整を再現させることができないため、調整再現ボタン182は無効化された状態で表示される。   Note that if there is no adjustment history in the temporary database, the output adjustment cannot be reproduced, so the adjustment reproduction button 182 is displayed in a disabled state.

報知ツール起動ボタン190〜196は、電子メールやSNS等の報知ツールを起動し、ユーザがこの動画に対し行った出力調整を他のユーザがこの動画を視聴する際に再現可能とするためのURLを本文としてセットする。例えば、電子メール起動ボタン190を選択すると、ユーザ端末50にインストールされているメールクライアントが起動してメッセージ作成画面が表示される。このとき、メッセージの本文として、この動画と出力調整を行ったユーザとを識別可能な情報(例えば、動画IDとユーザID)がクエリとして指定されたURLがセットされる。このメッセージを受信した他のユーザは、本文中に記載されたURLにアクセスするだけで、送信ユーザが視聴した時と全く同じ状態、すなわち送信ユーザが行った操作を再現させた状態で、動画を視聴することができる。   Notification tool activation buttons 190 to 196 are URLs for activating notification tools such as e-mail and SNS so that output adjustments made by the user to this video can be reproduced when other users view this video. Is set as the text. For example, when the e-mail activation button 190 is selected, a mail client installed in the user terminal 50 is activated and a message creation screen is displayed. At this time, a URL in which information (for example, a moving image ID and a user ID) that can identify the moving image and the user who has adjusted the output is specified as a query is set as the body of the message. Other users who have received this message simply access the URL described in the text, and in the same state as when the transmitting user viewed, that is, in a state where the operation performed by the transmitting user is reproduced, Can watch.

なお、ユーザの調整履歴がサーバ側に記録されていない場合は、この調整履歴を他のユーザに参照させることができないため、報知ツール起動ボタン190〜196は無効化された状態で表示される。   When the user's adjustment history is not recorded on the server side, the notification tool activation buttons 190 to 196 are displayed in a disabled state because the adjustment history cannot be referred to by other users.

図3は、複数の映像及び音声が多重化される態様を示す模式図である。   FIG. 3 is a schematic diagram showing an aspect in which a plurality of video and audio are multiplexed.

まず、カメラVC1〜VC4で撮影された4本の映像V1〜V4は、各々が映像信号として合成多重化装置10に入力される。4本の映像V1〜V4は、1つのマルチ画面映像MVに合成される。例えば、各映像V1〜V4が960×540の解像度を有する映像であるとした場合、マルチ画面映像MVは映像V1〜V4が縦横2本ずつ配列状に配置された1920×1080(HDTV)の解像度を有するマルチ画面状に構成された映像に合成される。こうした合成処理を経て、4つの映像信号は1つにまとめられる。
なお、マルチ画面映像MVの配置はこの態様に限定されない。例えば、映像V1〜V4を縦横の何れか一方に一列に配置してもよい。縦一列に配置した場合、マルチ画面映像MVは960×2160の解像度を有する映像に合成されることとなる。
First, four videos V1 to V4 photographed by the cameras VC1 to VC4 are each input to the synthesis and multiplexing apparatus 10 as video signals. The four videos V1 to V4 are combined into one multi-screen video MV. For example, assuming that each of the videos V1 to V4 is a video having a resolution of 960 × 540, the multi-screen video MV is a resolution of 1920 × 1080 (HDTV) in which the videos V1 to V4 are arranged in two rows and columns. Are combined into a video image having a multi-screen shape. Through such synthesis processing, the four video signals are combined into one.
Note that the arrangement of the multi-screen video MV is not limited to this mode. For example, the videos V1 to V4 may be arranged in a line in either the vertical or horizontal direction. When arranged in a vertical row, the multi-screen video MV is combined with a video having a resolution of 960 × 2160.

また、マイクMC1〜MC4で集音された4本の音声A1〜A4は、各々が音声信号として合成多重化装置10に入力される。4本の音声A1〜A4は、個々が分離独立したチャンネルとして構成された複数チャネルを有するマルチトラック音声MAに多重化される。こうした処理を経て、4つの音声信号は1つにまとめられる。   The four voices A1 to A4 collected by the microphones MC1 to MC4 are each input to the synthesis and multiplexing apparatus 10 as voice signals. The four voices A1 to A4 are multiplexed into a multi-track voice MA having a plurality of channels each configured as a separate and independent channel. Through these processes, the four audio signals are combined into one.

さらに、映像信号と音声信号とが時間軸で同期される。このようにして、合成多重化装置10では、複数の映像素材が合成されてなる1つのマルチ画面映像MVと複数の音声素材により多重化されたマルチトラック音声MAとから、多重化された1つの映像信号と1つの音声信号が生成される。   Further, the video signal and the audio signal are synchronized on the time axis. In this way, in the multiplexing / multiplexing apparatus 10, one multi-screen video MV obtained by synthesizing a plurality of video materials and a multi-track audio MA multiplexed by a plurality of audio materials are multiplexed into one. A video signal and one audio signal are generated.

合成多重化装置10で多重化されたマルチ画面映像MVの映像信号とマルチトラック音声MAの音声信号は、エンコーダ20に入力される。エンコーダ20は、入力された映像信号と音声信号をそれぞれデータとしてインターネット70に配信可能な帯域および形式に符号化し、1つのビットストリームを生成する。符号化(圧縮)形式としては、一般に普及した形式のいずれかが採用される。例えば、映像信号はH.264形式の映像データに符号化され、音声信号はAAC形式の音声データに符号化される。符号化された映像データと音声データはまとめられて、1つのビットストリームBSが生成される。ビットストリームBSは、そのままネットワークに配信可能な形態である。   The video signal of the multi-screen video MV and the audio signal of the multi-track audio MA multiplexed by the synthesizer / multiplexer 10 are input to the encoder 20. The encoder 20 encodes the input video signal and audio signal as data into a band and format that can be distributed to the Internet 70, and generates one bit stream. As the encoding (compression) format, any one of popular formats is adopted. For example, the video signal is H.264. H.264 format video data is encoded, and the audio signal is encoded into AAC format audio data. The encoded video data and audio data are combined to generate one bit stream BS. The bit stream BS is a form that can be delivered to the network as it is.

エンコーダ20で生成されたビットストリームBSは、動画データベース32に格納される。動画データベース32には、動画配信システム100で配信される各動画に対応したビットストリームBSが格納されている。配信サーバ40は、ユーザ端末50から動画の配信要求を受信すると、動画データベース32を参照して対応するビットストリームBSを取得し、ユーザ端末50に配信することとなる。   The bit stream BS generated by the encoder 20 is stored in the moving image database 32. The video database 32 stores a bitstream BS corresponding to each video distributed by the video distribution system 100. When the distribution server 40 receives the moving image distribution request from the user terminal 50, the distribution server 40 refers to the moving image database 32 to acquire the corresponding bit stream BS and distributes it to the user terminal 50.

図4及び図5は、動画配信システム100の機能ブロック図である。動画配信システム100は、サーバ側(データベースサーバ30及び配信サーバ40)とクライアント側(ユーザ端末50)とに跨って構成されており、サーバ側には主に動画の配信に関わる機能が実装され、クライアント側には主に配信された動画の再生に関わる機能が実装される。   4 and 5 are functional block diagrams of the moving image distribution system 100. FIG. The video distribution system 100 is configured across the server side (database server 30 and distribution server 40) and the client side (user terminal 50), and the server side is mainly equipped with functions related to video distribution, On the client side, functions related to the playback of the distributed video are implemented.

図4は、動画配信システム100がサーバ側に有する機能を示す機能ブロック図である。この図に示されるように、動画配信システム100は、動画格納部110、調整履歴格納部112、ユーザ情報格納部114、要求応答部120、動画配信部122、UI提供部124、調整履歴入出力部126及びユーザ認証部128をサーバ側に有する。   FIG. 4 is a functional block diagram showing functions that the moving image distribution system 100 has on the server side. As shown in this figure, the moving image distribution system 100 includes a moving image storage unit 110, an adjustment history storage unit 112, a user information storage unit 114, a request response unit 120, a moving image distribution unit 122, a UI providing unit 124, an adjustment history input / output. Unit 126 and user authentication unit 128 on the server side.

データベースサーバ30には、動画配信システム100で用いられるデータを格納するための機能が実装される。
動画格納部110は、動画データベース32に相当し、動画配信システム100上で配信される動画のビットストリームや構成情報を格納する。調整履歴格納部112は、履歴データベース34に相当し、配信された動画の再生中にユーザの操作に基づきなされた映像や音声の出力調整の変遷を記録した履歴データを格納する。ユーザ情報格納部114は、ユーザマスタ36に相当し、動画配信システムを利用するユーザの登録情報や認証情報を格納する。
The database server 30 is equipped with a function for storing data used in the moving image distribution system 100.
The moving image storage unit 110 corresponds to the moving image database 32 and stores a moving image bit stream and configuration information distributed on the moving image distribution system 100. The adjustment history storage unit 112 corresponds to the history database 34, and stores history data that records transitions in video and audio output adjustments made based on user operations during playback of distributed video. The user information storage unit 114 corresponds to the user master 36 and stores registration information and authentication information of users who use the moving image distribution system.

配信サーバ40には、ユーザ端末50からの要求に応じた処理を行う機能、具体的には要求応答部120からユーザ認証部128までの機能が実装される。   The distribution server 40 is provided with a function for performing processing in response to a request from the user terminal 50, specifically, a function from the request response unit 120 to the user authentication unit 128.

要求応答部120は、配信サーバ40の窓口としての動作を行う。要求応答部120は、ユーザ端末50から送信された要求を受信してその内容を確認し、要求を適当な機能部に振り分ける。要求応答部120はまた、各機能部で要求が処理されたことにより取得されたデータや通知等を中継し、要求の送信元であるユーザ端末50に対してこれらを送信する。   The request response unit 120 operates as a window for the distribution server 40. The request response unit 120 receives the request transmitted from the user terminal 50, confirms the content, and distributes the request to an appropriate function unit. The request response unit 120 also relays data, notifications, and the like acquired when the request is processed by each functional unit, and transmits these to the user terminal 50 that is the transmission source of the request.

動画配信部122は、要求応答部120による振り分けに応じ、ユーザ端末50から配信を要求された動画のビットストリームを動画格納部110から取得し、これをユーザ端末50に要求応答部120を介して配信する。   In response to the distribution by the request response unit 120, the video distribution unit 122 acquires a bit stream of the video requested to be distributed from the user terminal 50 from the video storage unit 110, and sends this to the user terminal 50 via the request response unit 120. To deliver.

UI提供部124は、要求応答部120により振り分けに応じ、ユーザ端末50から配信を要求された動画の構成情報とともに、その動画の再生に必要となる操作メニューや制御プログラム等のユーザインタフェースをユーザ端末50に要求応答部120を介して提供する。なお、UI提供部124により提供される動画の構成情報は、ユーザ端末50から配信要求とともに送信された端末情報に基づきその画面解像度に合わせて生成される。   The UI providing unit 124 displays the configuration information of the moving image requested to be distributed from the user terminal 50 according to the distribution by the request response unit 120, and a user interface such as an operation menu and a control program necessary for reproducing the moving image. 50 via the request response unit 120. The moving image configuration information provided by the UI providing unit 124 is generated in accordance with the screen resolution based on the terminal information transmitted together with the distribution request from the user terminal 50.

調整履歴入出力部126は、要求応答部120による振り分けに応じ、ユーザ端末50から送信された調整履歴の記録/参照の要求に応じた処理を実行する。具体的には、調整履歴入出力部126は、まず、ユーザ端末50から送信された調整履歴の記録要求への対応として、送信された調整履歴(出力態様の調整内容が記録された履歴データ)を、ユーザと動画を識別可能な状態で調整履歴格納部112に記録させる。また、調整履歴入出力部126は、ユーザ端末50から送信された調整履歴の参照要求への対応として、送信された識別情報に基づいて特定のユーザによる特定の動画に対する調整履歴を調整履歴格納部112から取得し、これをユーザ端末50に要求応答部120を介して配信する。   The adjustment history input / output unit 126 executes processing according to the request for recording / referencing the adjustment history transmitted from the user terminal 50 in accordance with the distribution by the request response unit 120. Specifically, the adjustment history input / output unit 126 first transmits the adjustment history (history data in which adjustment details of the output mode are recorded) in response to the adjustment history recording request transmitted from the user terminal 50. Are recorded in the adjustment history storage unit 112 in a state where the user and the moving image can be identified. Further, the adjustment history input / output unit 126, as a response to the adjustment history reference request transmitted from the user terminal 50, an adjustment history storage unit stores an adjustment history for a specific video by a specific user based on the transmitted identification information. 112, and this is distributed to the user terminal 50 via the request response unit 120.

ユーザ認証部128は、要求応答部120による振り分けに応じ、動画配信システム100を利用するユーザの認証処理を実行する。ユーザ端末50から送信された認証情報が要求応答部120を介して受け渡されると、ユーザ認証部128はこの認証情報の正当性をユーザ情報格納部114に照会してユーザ認証処理を行い、その結果をユーザ端末50に要求応答部120を介して通知する。   The user authentication unit 128 executes an authentication process for a user who uses the moving image distribution system 100 according to the distribution by the request response unit 120. When the authentication information transmitted from the user terminal 50 is passed through the request response unit 120, the user authentication unit 128 inquires the user information storage unit 114 about the validity of the authentication information and performs user authentication processing. The result is notified to the user terminal 50 via the request response unit 120.

図5は、動画配信システム100がクライアント側に有する機能を示す機能ブロック図である。この図に示されるように、動画配信システム100は、配信要求部130、受信部132、再生部136、操作受付部140、調整再現部142、出力調整部144、一時記録部145、記録要求部146、認証要求部147及び報知部148をクライアント側(ユーザ端末50)に有する。これらの機能は、UI提供部124により提供される制御プログラムにより実装される。   FIG. 5 is a functional block diagram showing functions that the moving image distribution system 100 has on the client side. As shown in this figure, the moving image distribution system 100 includes a distribution request unit 130, a reception unit 132, a reproduction unit 136, an operation reception unit 140, an adjustment reproduction unit 142, an output adjustment unit 144, a temporary recording unit 145, and a recording request unit. 146, an authentication request unit 147 and a notification unit 148 are provided on the client side (user terminal 50). These functions are implemented by a control program provided by the UI providing unit 124.

配信要求部130は、配信サーバ40に対し、特定の動画の配信やこれに対応する調整履歴の参照を要求する。配信要求部130は、要求を送信する際に、ユーザ端末50の端末情報(例えば、画面解像度等)を併せて送信する。
受信部132は、配信要求部130が送信した動画配信要求への応答として配信サーバ40から配信される動画のビットストリームやその構成情報、ユーザインタフェース、調整履歴を受信する。
復号部134は、ユーザ端末に標準装備されている復号手段に相当し、受信部132により受信された動画のビットストリームを復号し、映像及び音声を再生可能な状態にする。復号された映像と音声は、再生部136を介した後それぞれ映像出力部138と音声出力部139に出力される。
The distribution request unit 130 requests the distribution server 40 to distribute a specific moving image and to refer to the adjustment history corresponding thereto. When transmitting the request, the distribution request unit 130 also transmits the terminal information of the user terminal 50 (for example, the screen resolution).
The receiving unit 132 receives the bit stream of the moving image distributed from the distribution server 40, the configuration information, the user interface, and the adjustment history as a response to the moving image distribution request transmitted by the distribution request unit 130.
The decoding unit 134 corresponds to decoding means provided as standard on the user terminal, decodes the moving image bit stream received by the receiving unit 132, and makes video and audio reproducible. The decoded video and audio are output to the video output unit 138 and the audio output unit 139 through the playback unit 136, respectively.

再生部136は、復号部134によりデコードされた映像と音声を所定の出力態様で出力させることにより動画を再生する。より具体的には、再生部136は、後述する出力調整部144により指定された出力態様に沿って映像及び音声をそれぞれ映像出力部138及び音声出力部139にそれぞれ出力させることにより、動画の再生を実現させる。   The reproduction unit 136 reproduces the moving image by outputting the video and audio decoded by the decoding unit 134 in a predetermined output mode. More specifically, the reproduction unit 136 reproduces a moving image by causing the video output unit 138 and the audio output unit 139 to output video and audio, respectively, in accordance with output modes specified by the output adjustment unit 144 described later. Is realized.

映像出力部138は、ユーザ端末50に標準装備されている映像出力手段(例えば、ディスプレイ)に相当し、動画を構成する映像(マルチ画面映像)のうち再生部136により指定された所定の領域を出力する。
音声出力部139は、ユーザ端末50に標準装備されている音声出力手段(例えば、スピーカ)に相当し、再生部136により複数チャンネルからダウンミックスされた音声を出力する。
The video output unit 138 corresponds to video output means (for example, a display) provided as standard on the user terminal 50, and a predetermined area designated by the playback unit 136 among videos (multi-screen video) constituting a moving image. Output.
The audio output unit 139 corresponds to audio output means (for example, a speaker) provided as standard on the user terminal 50, and outputs audio that is downmixed from a plurality of channels by the reproduction unit 136.

操作受付部140は、動画の再生中になされるユーザの操作を受け付ける。操作受付部140は、動画配信に伴い受信部132により受信されたユーザインタフェースの一部をなす。言い換えると、操作受付部140は、UI提供部124から提供されユーザ端末50上で生成された操作メニュー140そのものである。
ユーザが操作メニュー140で映像の出力調整(出力映像の切替、拡大/縮小、表示領域の移動、エフェクト挿入等)又は音声の出力調整(ミックスされる各音声の音量、定位、消音等)に関する操作を行うと、操作受付部140はその操作に割り当てられている出力調整を出力調整部144に指示する。
The operation reception unit 140 receives a user operation performed during the reproduction of a moving image. The operation reception unit 140 forms a part of the user interface received by the reception unit 132 along with the moving image distribution. In other words, the operation reception unit 140 is the operation menu 140 itself provided from the UI providing unit 124 and generated on the user terminal 50.
User operation related to video output adjustment (output video switching, enlargement / reduction, display area movement, effect insertion, etc.) or audio output adjustment (volume, localization, mute, etc. of each audio to be mixed) by the operation menu 140 Then, the operation reception unit 140 instructs the output adjustment unit 144 to perform output adjustment assigned to the operation.

調整再現部142は、配信要求部130が送信した動画配信要求への応答として配信サーバ40から送信された調整履歴をローカルの一時データベースに展開し、調整履歴に記録されている出力調整を時間軸に沿って出力調整部144に指示する。調整再現部142がこのように動作することにより、動画配信システム100は、ユーザが過去の視聴時に操作メニュー140を介して行った出力調整を再現させることができる。   The adjustment reproduction unit 142 expands the adjustment history transmitted from the distribution server 40 in response to the moving image distribution request transmitted by the distribution request unit 130 in a local temporary database, and adjusts the output adjustment recorded in the adjustment history to the time axis. Is instructed to the output adjustment unit 144. As the adjustment reproduction unit 142 operates in this way, the moving image distribution system 100 can reproduce the output adjustment performed by the user via the operation menu 140 during past viewing.

出力調整部144は、操作受付部140や調整再現部142により指示された出力調整を現在の出力態様に反映させて全体としての新たな出力態様を決定し、これに沿った映像及び音声の出力を再生部136に指示する。より具体的には、出力調整部144は、映像の新たな出力態様(今回の出力調整を反映させた上で決定される主映像表示エリア150への表示領域)及び音声の新たな出力態様(今回の出力調整を反映させた上で決定されるミックス後のLRの各音量)を再生部136に指定する。
なお、再生開始時の出力態様は、動画配信に伴い受信部132により受信された動画の構成情報に基づいて決定される。出力調整部144は、構成情報において再生開始時の主映像として指定されている映像を主映像表示エリア150に出力するよう再生部136に指定する。
The output adjustment unit 144 reflects the output adjustment instructed by the operation reception unit 140 or the adjustment reproduction unit 142 in the current output mode, determines a new output mode as a whole, and outputs video and audio in accordance with this. To the playback unit 136. More specifically, the output adjustment unit 144 includes a new video output mode (a display area for the main video display area 150 determined after reflecting the current output adjustment) and a new audio output mode ( Each volume of LR after mixing determined after reflecting the current output adjustment) is designated to the reproduction unit 136.
The output mode at the start of playback is determined based on the moving image configuration information received by the receiving unit 132 along with moving image distribution. The output adjustment unit 144 instructs the playback unit 136 to output the video specified as the main video at the start of playback in the configuration information to the main video display area 150.

一時記録部145は、出力調整部144により反映されたユーザの操作に基づく出力調整をローカルの一時データベースに追記する。動画を再生可能な状態が整った後にユーザが操作メニュー140で調整記録ボタン180を一度選択すると、一時記録部145は、一時データベースを作成して出力調整の記録を開始し、これ以降になされる出力調整を一時データベースに逐一追記する。これにより、動画再生中になされた出力調整の履歴が一時データベース上に蓄積される。
なお、一時データベースは、ユーザ端末50のローカルディスク53又はRAM52等に作業領域として作成され、所定のタイミングでクリアされる。
The temporary recording unit 145 appends the output adjustment based on the user operation reflected by the output adjustment unit 144 to the local temporary database. When the user selects the adjustment record button 180 on the operation menu 140 after the state in which the moving image can be played back is prepared, the temporary recording unit 145 creates a temporary database and starts recording output adjustment. Add output adjustments to the temporary database one by one. As a result, a history of output adjustments made during moving image reproduction is accumulated on the temporary database.
The temporary database is created as a work area in the local disk 53 or the RAM 52 of the user terminal 50, and is cleared at a predetermined timing.

記録要求部146は、一時データベース上に蓄積された出力調整の履歴を配信サーバ40に対して送信し、調整履歴の記録を要求する。上述したように、動画が再生可能な状態が整った後に調整記録ボタン180を一度選択すると、一時記録部145がローカルでの調整履歴の記録を開始する。その後、動画の再生が終了した後にユーザが調整記録ボタン180を再び選択すると、記録要求部146は、一時データベースに蓄積された調整履歴を配信サーバ40に対して送信する。   The recording request unit 146 transmits the output adjustment history stored in the temporary database to the distribution server 40 and requests recording of the adjustment history. As described above, when the adjustment recording button 180 is selected once after the state in which the moving image can be reproduced is prepared, the temporary recording unit 145 starts recording the adjustment history locally. Thereafter, when the user selects the adjustment recording button 180 again after the reproduction of the moving image is completed, the recording request unit 146 transmits the adjustment history stored in the temporary database to the distribution server 40.

認証要求部147は、ユーザにより入力された認証情報を配信サーバ40に対して送信し、認証処理の実行を要求する。
報知部148は、動画とこれに対する調整履歴とを一意に識別可能な情報を電子メールやSNS等の報知ツールに受け渡す。より具体的には、操作メニュー140に設けられた報知ツール起動ボタン190〜196に割り当てられた処理を実行する。
The authentication request unit 147 transmits authentication information input by the user to the distribution server 40 and requests execution of authentication processing.
The notification unit 148 passes information that can uniquely identify the moving image and the adjustment history for the moving image to a notification tool such as an e-mail or an SNS. More specifically, the process assigned to the notification tool activation buttons 190 to 196 provided in the operation menu 140 is executed.

図6は、動画の構成情報を説明する図である。図6中(A)は、動画の構成情報の具体例を示しており、図6中(B)は、構成情報から解釈されるマルチ画面映像MVのサイズと座標情報の具体例を示している。   FIG. 6 is a diagram for explaining the configuration information of a moving image. 6A shows a specific example of the moving image configuration information, and FIG. 6B shows a specific example of the size and coordinate information of the multi-screen video MV interpreted from the configuration information. .

構成情報は、配信サーバ40からユーザ端末50に対し動画に付随して配信され、ユーザインタフェースに含まれる制御プログラムにより用いられる。
構成情報には、動画の構成に関わる情報(例えば、映像数、音声数、各映像の解像度と座標情報、初期主映像、圧縮形式、フレームレート、総再生時間、言語、動画タイトル等)が構成情報に関する属性情報(例えば、構成情報ID、作成日等)とともに記されている。このうち、構成情報の一部(例えば、各映像の解像度と座標情報)は、ユーザ端末50の画面解像度に合わせて生成されている。
The configuration information is distributed along with the moving image from the distribution server 40 to the user terminal 50, and is used by a control program included in the user interface.
The configuration information includes information related to the configuration of the video (for example, the number of videos, the number of audio, resolution and coordinate information of each video, initial main video, compression format, frame rate, total playback time, language, video title, etc.) It is described together with attribute information related to information (for example, configuration information ID, creation date, etc.). Among these, a part of the configuration information (for example, resolution and coordinate information of each video) is generated in accordance with the screen resolution of the user terminal 50.

例えば、図6中(A)に示される構成情報には、ID「5618」で識別される動画についての、構成映像本数(4本)、各映像の幅(960ピクセル)と高さ(540ピクセル)及びマルチ画面映像における各映像領域の左上の座標、再生開始時の主映像(映像01)、映像の圧縮形式(H.264)、映像のフレームレート(24fps)、音声チャンネル数(4チャンネル)、音声の圧縮形式(AAC)、総再生時間(1時間3分22秒)、言語(日本語)、動画タイトル(インド人もびっくり!うきうきマジックショー)、構成情報の作成日時(2016/5/21)等が記されている。   For example, the configuration information shown in FIG. 6A includes the number of configuration videos (4), the width (960 pixels) and the height (540 pixels) of the video identified by the ID “5618”. ) And upper left coordinates of each video area in the multi-screen video, main video at the start of playback (video 01), video compression format (H.264), video frame rate (24 fps), number of audio channels (4 channels) , Audio compression format (AAC), total playback time (1 hour 3 minutes 22 seconds), language (Japanese), video title (Indian people are surprised! Ukiuki Magic Show), creation date and time of composition information (2016/5 / 21) etc.

この構成情報から、幅wが960ピクセルで高さhが540ピクセルの、すなわち960×540の解像度を有する4本の映像V1〜V4が縦横に2つずつ配置されて1920×1080の解像度を有するマルチ画面映像MVが合成されていることが分かる。したがって、図6中(B)に示されるように、マルチ画面映像MVにおける横方向の位置をx、縦方向の位置をyとして座標(x,y)と表す場合に、座標(0,0)を左上の起点とする幅wかつ高さhの領域が映像V1に対応し、座標(960,0)を左上の起点とする幅wかつ高さhの領域が映像V2に対応し、座標(0,540)を左上の起点とする幅wかつ高さhの領域が映像V3に対応し、座標(960,540)を左上の起点とする幅wかつ高さhの領域が映像V4に対応していることが分かる。   From this configuration information, four images V1 to V4 having a width w of 960 pixels and a height h of 540 pixels, that is, a resolution of 960 × 540, are arranged two by two vertically and horizontally, and have a resolution of 1920 × 1080. It can be seen that the multi-screen video MV is synthesized. Therefore, as shown in FIG. 6B, when the horizontal position in the multi-screen video MV is represented as x and the vertical position is represented as y (coordinate (x, y)), the coordinate (0, 0). A region of width w and height h starting from the top left corresponds to the video V1, a region of width w and height h starting from the upper left corner of the coordinates (960, 0) corresponds to the video V2, and coordinates ( An area having a width w and height h starting from 0,540) corresponds to the video V3, and an area having a width w and height h starting from coordinates (960,540) corresponds to the video V4. You can see that

また、各映像の解像度と座標情報との関係から、この構成情報は横長の画面用に生成されていることが分かる。上述したように、ユーザ端末50は配信サーバ40に対して動画の配信要求とともに自身の端末情報を送信しており、これを受信した配信サーバ40は要求元の画面解像度に合わせた構成情報を配信する。例えば、ユーザ端末50がコンピュータやインターネット対応テレビ等のように横長の画面を有する場合は、配信サーバ40から配信される動画の構成情報には、横長の画面への表示に適した座標情報が指定される。仮に、ユーザ端末50がスマートフォンやタブレットPC等のように縦長の画面を有する場合には、配信サーバ40からは縦長の画面への表示に適した座標情報が指定された構成情報が配信される。したがって、その場合には、図6中(B)に示される図のうちマルチ画面映像MVを左に90度回転させ左下の頂点を(0,0)とした場合の座標情報が指定される。   Further, it can be seen from the relationship between the resolution of each video and the coordinate information that this configuration information is generated for a horizontally long screen. As described above, the user terminal 50 transmits its own terminal information together with the distribution request for the moving image to the distribution server 40, and the distribution server 40 that has received the distribution distributes the configuration information according to the screen resolution of the request source. To do. For example, when the user terminal 50 has a horizontally long screen such as a computer or an Internet-compatible TV, coordinate information suitable for display on the horizontally long screen is specified in the configuration information of the moving image distributed from the distribution server 40. Is done. If the user terminal 50 has a vertically long screen such as a smartphone or tablet PC, the distribution server 40 distributes configuration information in which coordinate information suitable for display on the vertically long screen is designated. Therefore, in that case, coordinate information is specified when the multi-screen video MV is rotated 90 degrees to the left in the diagram shown in FIG. 6B and the lower left vertex is (0, 0).

制御プログラムは、構成情報をこのように解釈し、配信された動画の再生制御を行う。例えば、この動画は再生開始時には映像01、すなわち映像V1を主映像とすると指定されているため、制御プログラムは、再生開始時にマルチ画面映像MVから映像V1の領域のみを抜き出して主映像表示エリア150に表示する。動画の再生開始後にユーザが操作メニュー140で映像又は音声の出力に関する操作を行うと、制御プログラム(より具体的には、ユーザ端末50に実装された各機能部)がこれを検知して、ユーザの操作に割り当てられた出力の調整を行うことにより、ユーザが指定した出力態様で動画を再生する。   The control program interprets the configuration information in this way, and performs playback control of the distributed moving image. For example, since the moving image is designated to have the video 01, that is, the video V1 as the main video at the start of reproduction, the control program extracts only the area of the video V1 from the multi-screen video MV at the start of reproduction. To display. When the user performs an operation related to the output of video or audio from the operation menu 140 after the reproduction of the moving image starts, the control program (more specifically, each functional unit mounted on the user terminal 50) detects this, and the user By adjusting the output assigned to the operation, the moving image is reproduced in the output mode designated by the user.

なお、説明の便宜のため、これ以降に例示する動画は全て、図6に示した構成情報を有する動画とする。但し、この構成はあくまで一例であり、動画配信システム100で配信される動画はこの構成に限定されない。例えば、マルチ画面映像MVを構成する映像本数を増減したり、ユーザ端末50の画面解像度に応じてより小さな(又はより大きな)解像度を有する構成映像を採用したりすることも可能である。   For convenience of explanation, all the moving images exemplified below are moving images having the configuration information shown in FIG. However, this configuration is merely an example, and the moving image distributed by the moving image distribution system 100 is not limited to this configuration. For example, it is possible to increase or decrease the number of videos constituting the multi-screen video MV, or to adopt a configuration video having a smaller (or larger) resolution according to the screen resolution of the user terminal 50.

〔映像の出力調整の具体例〕
図7から図9は、動画配信システム100で提供される操作メニュー140を介した映像の出力調整例を示す図である。このうち、図7は主映像表示エリア150に表示する映像を切り替える場合の例を、図8は主映像表示エリア150に表示された映像を拡大しさらにその表示領域を移動する場合の例を、図9は主映像表示エリア150に表示される映像の表示領域を移動しさらにその映像を縮小する場合の例を、それぞれ示している。なお、これらの図においては、操作メニュー140の一部を簡略化して示すこととする。
[Specific example of video output adjustment]
FIGS. 7 to 9 are diagrams illustrating examples of video output adjustment via the operation menu 140 provided in the moving image distribution system 100. FIG. Of these, FIG. 7 shows an example in which the video displayed in the main video display area 150 is switched, and FIG. 8 shows an example in which the video displayed in the main video display area 150 is expanded and the display area is moved. FIG. 9 shows an example of moving the display area of the video displayed in the main video display area 150 and further reducing the video. In these drawings, a part of the operation menu 140 is simplified.

図7は、主映像表示エリア150に表示する映像を切り替える場合の例を示している。図7に示される動画は、ホールで開催されたマジックショーを異なる位置に設置した複数のカメラで撮影した4本の映像V1〜V4と、各カメラの近傍に配置したマイクで集音した4本の音声とで構成された多視点動画である。マルチ画面映像MVは、客席の一部を捉えた映像V1と、会場内を客席後方から捉えた映像V2と、マジックの鍵を握る人物を捉えた映像V3と、マジックが実演されているステージを捉えた映像V4とが縦横に2本ずつ配置された状態で合成されている。   FIG. 7 shows an example of switching the video to be displayed in the main video display area 150. The moving image shown in FIG. 7 includes four videos V1 to V4 taken by a plurality of cameras set at different positions of the magic show held in the hall, and four collected by microphones arranged in the vicinity of each camera. It is a multi-view video composed of audio. The multi-screen video MV consists of a video V1 that captures a part of the audience seats, a video V2 that captures the interior of the venue from behind the audience seats, a video V3 that captures the person holding the key to Magic, and a stage where Magic is being demonstrated. The captured video V4 is synthesized in a state where two images are arranged vertically and horizontally.

この動画の再生を開始する時点では、構成情報に基づいた映像出力がなされる。例示した構成情報においては、映像1(映像V1)が再生開始時の主映像として指定されている。したがって、再生を開始する時点では、図7に示されるように、主映像表示エリア150には客席の一部を捉えた映像V1の領域のみがマルチ画面映像MVから抜き出されて表示される。この後でユーザが操作メニュー140で映像又は音声の出力調整に関する何らかの操作を行うまでの間は、この態様による映像出力が継続される。
ここでユーザが映像4への主映像切替ボタン160dを選択すると、主映像として表示さえる映像が映像4(V4)に切り替わり、主映像表示エリア150にはステージを捉えた映像V4の領域のみがマルチ画面映像MVから抜き出されて表示される。
At the time when reproduction of this moving image is started, video output based on the configuration information is performed. In the illustrated configuration information, video 1 (video V1) is designated as the main video at the start of playback. Therefore, at the time of starting playback, as shown in FIG. 7, only the area of the video V1 that captures a part of the passenger seat is extracted from the multi-screen video MV and displayed in the main video display area 150. The video output according to this aspect is continued until the user performs some operation related to the video or audio output adjustment on the operation menu 140 thereafter.
Here, when the user selects the main video switching button 160d for video 4, the video to be displayed as the main video is switched to video 4 (V4), and only the area of video V4 capturing the stage is displayed in the main video display area 150. It is extracted from the screen image MV and displayed.

図8は、主映像表示エリア150に表示された映像を拡大しその表示領域を移動する場合の例を示している。
図8中(A):映像V4が主映像として表示されている状態で、ユーザが拡大ボタン152を数回選択すると、主映像表示エリア150に表示される映像V4内の対象領域が狭められる。その結果、主映像表示エリア150には、映像V4のうち同じアスペクト比で狭められた中央の領域のみが抜き出されて表示される。したがって、この領域より外側に収められているマジシャンの身体の一部やバニーガール、帽子から現れた鳩の頭部等は対象領域から外れ、主映像表示エリア150には表示されない。
FIG. 8 shows an example of enlarging the video displayed in the main video display area 150 and moving the display area.
8A: When the user selects the enlargement button 152 several times while the video V4 is displayed as the main video, the target area in the video V4 displayed in the main video display area 150 is narrowed. As a result, in the main video display area 150, only the central area narrowed with the same aspect ratio in the video V4 is extracted and displayed. Accordingly, a part of the magician's body, a bunny girl, a head of a pigeon appearing from a hat, and the like that are stored outside this area are out of the target area and are not displayed in the main video display area 150.

図8中(B):図8中(A)に示される態様により映像出力がなされている状態で、ユーザが移動ボタン156のうち右/下の部品(図中に黒塗り三角で示した部位)を選択すると、主映像表示エリア150に表示される映像V4内の対象領域の位置が右下方向に移動する。その結果、図8中(A)で示した表示対象領域がサイズを維持したまま位置が右下に変わり、主映像表示エリア150には映像V4の右下の領域のみが抜き出されて表示される。したがって、主映像表示エリア150には、表示対象領域内に収まっているマジシャンが持つ帽子とバニーガールの両脚のみが表示される。   (B) in FIG. 8: In the state in which video is output according to the mode shown in FIG. 8A, the user moves the right / bottom part of the movement button 156 (the part indicated by the black triangle in the figure). ) Is selected, the position of the target area in the video V4 displayed in the main video display area 150 moves in the lower right direction. As a result, the display target area shown in FIG. 8A changes its position to the lower right while maintaining the size, and only the lower right area of the video V4 is extracted and displayed in the main video display area 150. The Therefore, in the main video display area 150, only the hat and bunny girl's legs of the magician within the display target area are displayed.

図9は、主映像表示エリア150に表示された映像の表示領域を移動して縮小する場合の例を示している。   FIG. 9 shows an example in which the video display area displayed in the main video display area 150 is moved and reduced.

図9中(A):図8中(B)に示される態様により映像出力がなされている状態で、ユーザが拡大ボタン152を再び選択し、さらに移動ボタン156のうち左/上の部品(図中に黒塗り三角で示した部位)を選択すると、主映像表示エリア150に表示される映像V4の対象領域が一層狭められた後で、表示される対象領域の位置が左上方向に移動する。その結果、表示対象領域は図8中(B)で示した表示対象領域よりやや狭められた状態で位置が左上に変わり、主映像表示エリア150には映像V4の左上の領域のみが抜き出されて表示される。したがって、主映像表示エリア150には、表示対象領域内に収まっているマジシャンの顔がアップで表示される。   9A: In the state where the video is output in the mode shown in FIG. 8B, the user selects the enlargement button 152 again, and the left / upper part of the move button 156 (see FIG. 9). When the part indicated by a black triangle is selected, the target area of the video V4 displayed in the main video display area 150 is further narrowed, and then the position of the displayed target area moves in the upper left direction. As a result, the display target area is slightly narrower than the display target area shown in FIG. 8B, and the position changes to the upper left. Only the upper left area of the video V4 is extracted from the main video display area 150. Displayed. Therefore, in the main video display area 150, the magician's face that is within the display target area is displayed in an up position.

図9中(B):図9中(A)に示される態様により映像出力がなされている状態で、ユーザが縮小ボタン154を数回選択すると、主映像表示エリア150に表示される映像V4の対象領域が広げられる。その結果、主映像表示エリア150には、映像V4のうち同じアスペクト比で図9中(A)の対象領域より範囲が広げられた左上の領域のみが抜き出されて表示される。したがって、主映像表示エリア150には、表示対象領域内に収まっているマジシャンの上半身とマジック道具が表示され、ユーザはマジックの実演風景を程よく視聴することができる。   9B: When the user selects the reduction button 154 several times in a state where the video is output in the mode shown in FIG. 9A, the video V4 displayed in the main video display area 150 is displayed. The target area is expanded. As a result, in the main video display area 150, only the upper left area whose range is wider than the target area in FIG. 9A with the same aspect ratio is extracted from the video V4 and displayed. Accordingly, the main image display area 150 displays the upper body of the magician and the magic tool within the display target area, and the user can view the magic demonstration scene moderately.

このように、ユーザは、操作メニュー140を介して主映像表示エリア150に表示させる映像を切り替えたり、映像を拡大又は縮小しその表示領域を移動したりすることにより、主映像表示エリア140に表示される映像の出力態様を調整する。   As described above, the user can switch the video to be displayed in the main video display area 150 via the operation menu 140, or can display the main video display area 140 by enlarging or reducing the video and moving the display area. The output mode of the video to be adjusted is adjusted.

なお、主映像表示エリア150及び各主映像切替ボタン160a〜160dには、いずれもマルチ画面映像MVの一部が抜き出されて表示されるが、本実施形態においては、これらの操作部品150,160a〜160dをそれぞれ一定の大きさで形成し固定された位置に配置した。操作性や映像の視認性を高めるために、主映像表示エリア150及び各主映像切替ボタン160a〜160dの大きさや位置をユーザが自由に変更できるように実装してもよい。   In the main video display area 150 and each of the main video switching buttons 160a to 160d, a part of the multi-screen video MV is extracted and displayed. In the present embodiment, these operation components 150, Each of 160a to 160d was formed in a fixed size and arranged at a fixed position. In order to enhance operability and video visibility, the main video display area 150 and the main video switching buttons 160a to 160d may be mounted so that the user can freely change the size and position thereof.

〔サーバ側での処理〕
図10は、サーバ側で実行される要求応答処理の手順例を示すフローチャートである。このフローチャートに示される各ステップは、動画配信システム100がサーバ側に有する各機能部110〜128により実行されるが、各機能部を動作させる主体はこれらが実装される各サーバのCPU、すなわち配信サーバ40のCPU41及びデータベースサーバ30のCPU31である。つまり、CPU31,41が各ステップを各機能部に実行させることにより、動画配信システム100がサーバ側で機能する。
[Processing on the server side]
FIG. 10 is a flowchart illustrating a procedure example of request response processing executed on the server side. Each step shown in this flowchart is executed by each function unit 110 to 128 that the moving image distribution system 100 has on the server side. The main body that operates each function unit is the CPU of each server on which these function units are mounted, that is, distribution. These are the CPU 41 of the server 40 and the CPU 31 of the database server 30. That is, the CPU 31 and 41 cause each function unit to execute each step, so that the moving image distribution system 100 functions on the server side.

ステップS100:CPU31は、要求応答部120にユーザ端末50から送信された要求を受信させる。
ステップS102:CPU31は、要求応答部120に前ステップS100で受信した要求が動画配信の要求であるか否かを確認させる。動画配信の要求である場合(Yes)、CPU31は次にステップS104を実行する。動画配信の要求でない場合(No)、CPU31は次にステップS114を実行する。
Step S100: The CPU 31 causes the request response unit 120 to receive a request transmitted from the user terminal 50.
Step S102: The CPU 31 causes the request response unit 120 to check whether or not the request received in the previous step S100 is a request for moving image distribution. When it is a request for moving image distribution (Yes), the CPU 31 next executes step S104. If it is not a request for moving image distribution (No), the CPU 31 next executes step S114.

ステップS104:CPU31は、要求応答部120に要求の具体的な指定内容(配信すべき動画、調整履歴の配信指定、端末情報等)を確認させる。
ステップS106:CPU31は、動画配信部122に要求で指定された動画のビットストリームに加え、その構成情報を動画格納部110から取得させる。
Step S104: The CPU 31 causes the request response unit 120 to confirm specific designation contents of the request (moving image to be delivered, delivery designation of adjustment history, terminal information, etc.).
Step S106: The CPU 31 causes the moving image distribution unit 122 to acquire the configuration information from the moving image storage unit 110 in addition to the bit stream of the moving image specified by the request.

ステップS108:CPU31は、要求応答部120に動画配信の要求とともに調整履歴の配信が指定されているか否かを確認させる。調整履歴の指定がある場合(No)、CPU31は次にステップS110を実行する。調整履歴の指定がない場合(Yes)、CPU31は次にステップS112を実行する。
ステップS110:CPU31は、調整履歴入出力部126に動画配信の要求とともに配信指定された調整履歴を調整履歴格納部112から取得させる。
Step S108: The CPU 31 causes the request response unit 120 to confirm whether or not the distribution of the adjustment history is specified together with the moving image distribution request. When the adjustment history is designated (No), the CPU 31 next executes step S110. When the adjustment history is not designated (Yes), the CPU 31 next executes step S112.
Step S <b> 110: The CPU 31 causes the adjustment history input / output unit 126 to acquire the adjustment history designated for distribution together with the moving image distribution request from the adjustment history storage unit 112.

ステップS112:CPU31は、要求応答部120にこれまでのステップで取得されたデータ、すなわち動画のビットストリーム及びその構成情報、調整履歴(指定された場合のみ)と、UI提供部124により提供される再生制御用のユーザインタフェースを、要求送信元のユーザ端末50に送信させる。   Step S112: The CPU 31 provides the request response unit 120 with the data acquired in the previous steps, that is, the moving image bitstream and its configuration information, the adjustment history (if specified), and the UI providing unit 124. A user interface for reproduction control is transmitted to the user terminal 50 that is the request transmission source.

ステップS114:CPU31は、要求応答部120にステップS100で受信した要求が調整履歴の記録の要求であるか否かを確認させる。調整履歴の記録の要求である場合(Yes)、CPU31は次にステップS116を実行する。調整履歴の記録の要求でない場合(No)、CPU31は次にステップS120を実行する。   Step S114: The CPU 31 causes the request response unit 120 to confirm whether or not the request received in step S100 is a request for recording the adjustment history. If it is a request to record the adjustment history (Yes), the CPU 31 next executes step S116. If it is not a request for recording the adjustment history (No), the CPU 31 next executes step S120.

ステップS116:CPU31は、ユーザ認証部128に要求送信元のユーザ端末50を利用しているユーザが現在のセッションにおいて既に認証済みであるか否かを確認させる。ユーザ認証済みである場合(Yes)、CPU31は次にステップS118を実行する。ユーザ認証済みでない場合(No)、CPU31は次にステップS120を実行する。   Step S116: The CPU 31 causes the user authentication unit 128 to confirm whether or not the user using the user terminal 50 as the request transmission source has already been authenticated in the current session. If the user has been authenticated (Yes), the CPU 31 next executes step S118. If the user has not been authenticated (No), the CPU 31 next executes step S120.

ステップS118:CPU31は、調整履歴入出力部126に調整履歴記録処理を実行させる。調整履歴記録処理では、ユーザ端末50から送信された調整履歴が調整履歴格納部112に格納される。   Step S118: The CPU 31 causes the adjustment history input / output unit 126 to execute an adjustment history recording process. In the adjustment history recording process, the adjustment history transmitted from the user terminal 50 is stored in the adjustment history storage unit 112.

ステップS120:CPU31は、ユーザ認証部128にユーザ認証処理を実行させる。ユーザ認証処理では、ユーザ端末50から送信された認証情報がユーザ情報格納部114に照会され、その正当性がチェックされる。   Step S120: The CPU 31 causes the user authentication unit 128 to execute user authentication processing. In the user authentication process, the authentication information transmitted from the user terminal 50 is inquired of the user information storage unit 114, and its validity is checked.

以上の処理を終えると、クライアント側(ユーザ端末50)から送信された1つの要求に対しサーバ側(配信サーバ40及びデータベースサーバ30)で実行される要求応答処理が終了する。要求応答処理は、動画配信システム100のサービス起動に伴って実行が開始され、サービスが停止されるまで継続される。   When the above processing is completed, the request response processing executed on the server side (distribution server 40 and database server 30) with respect to one request transmitted from the client side (user terminal 50) ends. The request response process is started when the service of the moving image distribution system 100 is started, and is continued until the service is stopped.

〔クライアント側での処理〕
図11及び図12は、クライアント側で実行される処理の手順例を示すフローチャートである。これらのフローチャートに示される各ステップは、動画配信システム100がクライアント側に有する各機能部130〜148により実行されるが、各機能部を動作させる主体はこれらが実装されるユーザ端末50のCPU51である。つまり、CPU51が各ステップを各機能部に実行させることにより、動画配信システム100がクライアント側で機能する。
[Processing on the client side]
FIG. 11 and FIG. 12 are flowcharts illustrating an example of a procedure of processing executed on the client side. Each step shown in these flowcharts is executed by each function unit 130 to 148 provided on the client side of the moving image distribution system 100. The main body that operates each function unit is the CPU 51 of the user terminal 50 on which these functions are mounted. is there. That is, when the CPU 51 causes each function unit to execute each step, the moving image distribution system 100 functions on the client side.

図11中(A)は、動画受信再生処理の手順例を示すフローチャートである。動画受信再生処理は、ユーザ端末50によりなされた動画配信要求への応答として配信サーバ40から配信されるデータに対しCPU51が実行する処理である。   (A) in FIG. 11 is a flowchart showing an example of a procedure for moving image reception / playback processing. The moving image receiving / reproducing process is a process executed by the CPU 51 for data distributed from the distribution server 40 in response to a moving image distribution request made by the user terminal 50.

ステップS200:CPU51は、受信部132に配信サーバ40から配信されたデータを受信させる。
ステップS202:CPU51は、受信部132にステップS200で受信したデータに調整履歴が含まれるか否かを確認させる。調整履歴が含まれない場合(Yes)、CPU51は次にステップS206を実行する。調整履歴が含まれる場合(No)、CPU51は次にステップS204を実行する。
Step S200: The CPU 51 causes the receiving unit 132 to receive data distributed from the distribution server 40.
Step S202: The CPU 51 causes the receiving unit 132 to check whether the adjustment history is included in the data received in step S200. When the adjustment history is not included (Yes), the CPU 51 next executes step S206. When the adjustment history is included (No), the CPU 51 next executes step S204.

ステップS206:CPU51は、復号部134に前ステップS200で受信したデータのうち動画のビットストリームを復号させる。
ステップS208:CPU51は、再生部136にステップS202で復号された動画を再生させ、復号された映像及び音声を映像出力部138及び音声出力部139にそれぞれ出力させる。
Step S206: The CPU 51 causes the decoding unit 134 to decode the bit stream of the moving image out of the data received in the previous step S200.
Step S208: The CPU 51 causes the reproduction unit 136 to reproduce the moving image decoded in step S202, and causes the video output unit 138 and the audio output unit 139 to output the decoded video and audio, respectively.

ステップS204:CPU51は、調整再現部142に調整履歴を利用するための事前準備として一時データベースを作成させ、ステップS200で受信した調整履歴を一時データベース上に展開する。   Step S204: The CPU 51 causes the adjustment reproduction unit 142 to create a temporary database as advance preparation for using the adjustment history, and develops the adjustment history received in step S200 on the temporary database.

図11中(B)は、動画再生処理の手順例を示すフローチャートである。動画再生処理は、動画の再生を開始してから終了するまでの間、CPU51が継続して実行する処理である。   (B) in FIG. 11 is a flowchart showing a procedure example of the moving image reproduction process. The moving image reproduction process is a process that is continuously executed by the CPU 51 from the start to the end of reproduction of a moving image.

ステップS220:CPU51は、出力調整部144に出力調整処理を実行させる。この処理において、映像又は音声の出力調整がなされた場合は、この出力調整が反映された新たな出力態様が決定される。   Step S220: The CPU 51 causes the output adjustment unit 144 to execute output adjustment processing. In this process, when video or audio output adjustment is made, a new output mode reflecting this output adjustment is determined.

ステップS222:CPU51は、再生部136に映像及び音声を映像出力部138及び音声出力部139にそれぞれ出力させて動画を再生する。このとき、前ステップS220により新たなに決定された出力態様が返された場合は、CPU51は再生部136にこの出力態様に沿って映像及び音声を出力させる。一方、前ステップS220により新たな出力態様が返されなかった場合は、出力調整がなされていない(出力態様が変更されていない)ため、CPU51は再生部136に直前と同じ出力態様のままで映像及び音声を出力させる。   Step S222: The CPU 51 causes the reproduction unit 136 to output video and audio to the video output unit 138 and audio output unit 139, respectively, and reproduces a moving image. At this time, if the newly determined output mode is returned in the previous step S220, the CPU 51 causes the playback unit 136 to output video and audio along this output mode. On the other hand, if a new output mode is not returned in the previous step S220, the output is not adjusted (the output mode is not changed), so the CPU 51 causes the playback unit 136 to output the video in the same output mode as before. And output audio.

ステップS224:CPU51は、再生部136に動画の再生が終了したか否かを確認する。再生が終了した場合(Yes)、CPU51は動画再生処理を終了する。再生が終了していない場合(No)、CPU51は最初のステップS220に戻ってこれ以降の処理を繰り返し実行する。   Step S224: The CPU 51 confirms with the playback unit 136 whether or not the playback of the moving image has ended. When the reproduction is finished (Yes), the CPU 51 finishes the moving image reproduction process. If the reproduction has not ended (No), the CPU 51 returns to the first step S220 and repeats the subsequent processing.

図12は、出力調整処理の手順例を示すフローチャートである。出力調整処理は、動画の再生に伴い映像及び音声の出力を調整するためにCPU51が実行する処理である。   FIG. 12 is a flowchart illustrating an exemplary procedure of output adjustment processing. The output adjustment process is a process executed by the CPU 51 in order to adjust the output of video and audio as the moving image is reproduced.

ステップS240:CPU51は、操作受付部140に映像又は音声の出力調整に関する操作を検知したか(受け付けたか)を確認させる。操作を検知した場合(Yes)、CPU51は次にステップS242を実行する。操作を検知していない場合(No)、CPU51は次にステップS248を実行する。   Step S240: The CPU 51 causes the operation reception unit 140 to check whether an operation related to video or audio output adjustment has been detected (received). When the operation is detected (Yes), the CPU 51 next executes step S242. When the operation is not detected (No), the CPU 51 next executes step S248.

ステップS242:CPU51は、操作受付部140に前ステップS210で受け付けた操作に応じた出力調整を出力調整部144に対し指示させる。
ステップS244:CPU51は、一時記録部145に一時データベースが作成されているかを確認させる。一時データベースが作成されている場合(Yes)、CPU51は次にステップS246を実行する。一時データベースが作成されていない場合(No)、CPU51は次にステップS252を実行する。
ステップS246:CPU51は、一時記録部145にステップS242で反映させた出力調整の内容を一時データベースに追記させる。
Step S242: The CPU 51 causes the operation receiving unit 140 to instruct the output adjusting unit 144 to perform output adjustment according to the operation received in the previous step S210.
Step S244: The CPU 51 causes the temporary recording unit 145 to check whether a temporary database has been created. When the temporary database has been created (Yes), the CPU 51 next executes step S246. When the temporary database has not been created (No), the CPU 51 next executes step S252.
Step S246: The CPU 51 causes the temporary recording unit 145 to add the contents of the output adjustment reflected in step S242 to the temporary database.

ステップS248:CPU51は、調整再現部142に現在の再生時間に対応する調整履歴が存在するかを確認させる。調整履歴が存在する場合(Yes)、CPU51は次にステップS250を実行する。調整履歴が存在しない場合(No)、何も実行せずに動画再生処理(図11中(B))に復帰する。
ステップS250:CPU51は、調整再現部142に前ステップS248で確認した調整履歴に記録されている出力調整を出力調整部144に対し指示させる。
Step S248: The CPU 51 causes the adjustment reproduction unit 142 to check whether there is an adjustment history corresponding to the current reproduction time. If there is an adjustment history (Yes), the CPU 51 next executes step S250. When there is no adjustment history (No), nothing is executed and the process returns to the moving image reproduction process ((B) in FIG. 11).
Step S250: The CPU 51 causes the adjustment reproduction unit 142 to instruct the output adjustment unit 144 to perform output adjustment recorded in the adjustment history confirmed in the previous step S248.

ステップS252:CPU51は、出力調整部144にステップS242又はステップS250で指示された出力調整を現在の出力態様に反映させ、新たな出力態様を決定させる。以上の処理を終えると、CPU51は、ステップS252で決定された新たな出力態様を出力調整処理の呼び出し元である図11中(B)のステップS220に返し、動画再生処理に復帰する。   Step S252: The CPU 51 causes the output adjustment unit 144 to reflect the output adjustment instructed in Step S242 or Step S250 in the current output mode and determine a new output mode. When the above processing is completed, the CPU 51 returns the new output mode determined in step S252 to step S220 in FIG. 11B, which is the caller of the output adjustment processing, and returns to the moving image playback processing.

一方、出力調整に関する操作がなされず(ステップS240:No)、再現すべき調整履歴も存在しない場合(ステップS244:No)、CPU51は呼び出し元に何も返さずに動画再生処理に復帰する。   On the other hand, when an operation relating to output adjustment is not performed (step S240: No) and there is no adjustment history to be reproduced (step S244: No), the CPU 51 returns to the moving image reproduction process without returning anything to the caller.

なお、本実施形態においては、調整履歴に記録された出力調整を再現しながら動画を再生している間に操作受付部140が出力調整に関わるユーザの操作を受け付けた場合には、出力調整部144は、ユーザの操作に基づく出力調整を優先して処理する。   In this embodiment, when the operation receiving unit 140 receives a user operation related to output adjustment while reproducing a moving image while reproducing the output adjustment recorded in the adjustment history, the output adjusting unit 144 preferentially processes output adjustment based on the user's operation.

例えば、動画の再生を開始してから10分後に初めて、ユーザが操作メニュー140に設けられた出力調整用の操作部品のうち何れか(例えば、拡大ボタン152)を操作した場合を想定する。このとき、出力調整部144は、調整再現部142によりなされる調整履歴に基づく指示を無視して操作受付部140が受け付けたユーザの操作に基づく指示を優先し、ユーザの操作に対応付けられた出力調整を反映させる(例えば、主映像表示エリアに表示された映像を拡大表示させる。)。したがって、この場合は、動画が再生開始から10分までは調整履歴に記録された通りに出力態様が再現された状態で再生され、再生開始から10分後以降はユーザの操作により操作メニュー140を介してなされる出力調整が反映された状態で再生されることとなる。   For example, it is assumed that the user operates any one of the operation components for output adjustment provided in the operation menu 140 (for example, the enlarge button 152) for the first time after 10 minutes from the start of the reproduction of the moving image. At this time, the output adjustment unit 144 ignores the instruction based on the adjustment history made by the adjustment reproduction unit 142 and gives priority to the instruction based on the user's operation received by the operation receiving unit 140, and is associated with the user's operation. The output adjustment is reflected (for example, the video displayed in the main video display area is enlarged and displayed). Therefore, in this case, the moving image is played back in the state where the output mode is reproduced as recorded in the adjustment history until 10 minutes from the start of playback, and after 10 minutes from the start of playback, the operation menu 140 is operated by the user's operation. Thus, the reproduction is performed in a state in which the output adjustment made via this is reflected.

なお、このようにしてユーザの操作による割込みが発生した場合に、割込みにより生じる作用の有効期間、すなわち調整履歴に基づく出力調整を行わない期間を一時的なものとするか、再生終了までとするかは、システムの要件等に応じて適宜選択可能である。例えば、ユーザの操作が割り込んでから一定の期間(例えば、3分間)継続してユーザの操作が一切なされなかった場合に、再び調整履歴に基づく出力調整を行って動画を再生するように実装してもよい。   In addition, when an interruption due to a user operation occurs in this way, the effective period of the action caused by the interruption, that is, the period in which output adjustment based on the adjustment history is not performed is temporary or until the end of playback. This can be appropriately selected according to the requirements of the system. For example, when the user's operation is interrupted and the user's operation is not performed at all for a certain period (for example, 3 minutes), the output adjustment based on the adjustment history is performed again to reproduce the moving image. May be.

図13は、調整履歴データの具体例を示す図である。図13中(A)はヘッダ情報テーブルの一例を示しており、図13中(B)は調整履歴テーブルの一例を示している。   FIG. 13 is a diagram illustrating a specific example of the adjustment history data. (A) in FIG. 13 shows an example of the header information table, and (B) in FIG. 13 shows an example of the adjustment history table.

これらのテーブルはいずれも、ユーザによる調整記録ボタン180の選択を契機として作成される。このうち、ヘッダ情報テーブルは、調整履歴の記録に関する管理情報を記録するテーブルであり、動画配信システム100におけるセッションID、現在のユーザを識別するユーザID、調整履歴が記録される動画(再生中の動画)を識別する動画IDとともに、調整履歴の記録日とその開始日時が記録される。   All of these tables are created when the user selects the adjustment record button 180. Among them, the header information table is a table for recording management information related to the recording of the adjustment history, and the session ID in the moving image distribution system 100, the user ID for identifying the current user, and the moving image (the current reproduction) The recording date of the adjustment history and the start date / time thereof are recorded together with the moving image ID for identifying the moving image).

また、調整履歴テーブルは、動画の再生中に映像又は音声の出力に関してなされた調整内容の詳細を記録するテーブルであり、操作メニュー140に設けられた出力調整用の各操作部品に内部的な割り当てられた部品ID、その操作部品のパラメータとともに、出力調整がなされた再生タイムライン上での時刻がミリ秒単位で記録される。ここでいうパラメータとは、各操作部品に対し予め定められた数値に対応する操作量である。   The adjustment history table is a table for recording details of adjustment contents regarding the output of video or audio during playback of a moving image, and is internally assigned to each operation component for output adjustment provided in the operation menu 140. Along with the component ID and the parameter of the operation component, the time on the reproduction timeline where the output adjustment has been made is recorded in milliseconds. The parameter here is an operation amount corresponding to a numerical value predetermined for each operation component.

例えば、図13中(B)の1レコード目には、調整時刻「00:10:04.236」に対し、部品ID「005」、パラメータ「3」と記録されている。部品ID「005」は拡大ボタン152に割り当てられており、パラメータ「3」は拡大ボタン152が連続して3回(或はこれに相当する時間継続して)選択されたことを示す数値である。したがって、1レコード目に記録された調整履歴に基づいて出力調整が再現された場合、動画ID「5618」で識別される動画の再生が開始されてから00:10:04.236のタイミングで、主映像表示エリア150に表示されている映像が3段階拡大した状態で表示されることとなる。   For example, in the first record in FIG. 13B, the component ID “005” and the parameter “3” are recorded for the adjustment time “00: 10: 04.236”. The component ID “005” is assigned to the enlargement button 152, and the parameter “3” is a numerical value indicating that the enlargement button 152 has been selected three times in succession (or continuously for a time corresponding to this). . Therefore, when the output adjustment is reproduced based on the adjustment history recorded in the first record, the reproduction of the moving image identified by the moving image ID “5618” is started at the timing of 00: 10: 04.236. The video displayed in the main video display area 150 is displayed in a state where it is enlarged by three stages.

また2レコード目には、調整時刻「00:11:35.001」に対し、部品ID「011」、パラメータ「15」と記録されている。部品ID「011」は音量スライダ162aに割り当てられており、パラメータ「16」は音量スライダ162aが15メモリ目にスライドされたことを示す数値である。したがって、2レコード目に記録された調整履歴に基づいて出力調整が再現された場合、動画ID「5618」で識別される動画の再生が開始されてから00:11:35.001のタイミングで、音声1が15メモリ目に相当する音量で他の音声2〜4とミックスされ出力されることとなる。   In the second record, the component ID “011” and the parameter “15” are recorded for the adjustment time “00: 11: 35.001”. The component ID “011” is assigned to the volume slider 162a, and the parameter “16” is a numerical value indicating that the volume slider 162a has been slid to the 15th memory. Therefore, when the output adjustment is reproduced based on the adjustment history recorded in the second record, the reproduction of the moving image identified by the moving image ID “5618” is started at the timing of 00: 11: 35.001. The sound 1 is mixed with the other sounds 2 to 4 and output at a volume corresponding to the 15th memory.

図14は、動画配信システム100を利用して動画を視聴し調整履歴を記録する際の動作例を示すシーケンス図である。コンピュータ間でパケットを送受信する際に事前に行われるプロトコルのネゴシエーションやセッション確立に相当するステップについては一般的事項であるため記載を省略する。また、説明の便宜のため、ここではユーザ端末50が無料動画の配信を要求することとする。以下、動作例に沿って説明する。   FIG. 14 is a sequence diagram illustrating an operation example when a moving image is viewed using the moving image distribution system 100 and an adjustment history is recorded. Steps corresponding to protocol negotiation and session establishment that are performed in advance when packets are transmitted and received between computers are general matters and are not described here. Further, for convenience of explanation, it is assumed here that the user terminal 50 requests delivery of a free video. Hereinafter, it demonstrates along an operation example.

ユーザAがユーザ端末50でウェブブラウザを起動して動画配信システム100の配信メニューURLにアクセスし(S11)、表示された配信動画リストの中から視聴したい動画を選択すると、ユーザ端末50はこれを契機として配信サーバ40に対し選択した動画の配信要求を送信する(S12)。これを配信サーバ40が受信し、要求の内容を確認する(S13)。そして、動画データベース32を参照して(S14)要求された動画のビットストリームやその構成情報を取得し(S15)、再生制御用のユーザインタフェースとともに要求元のユーザ端末50に配信する(S16)。   When the user A starts a web browser on the user terminal 50 to access the distribution menu URL of the moving image distribution system 100 (S11) and selects a moving image to be viewed from the displayed distributed moving image list, the user terminal 50 As a trigger, a distribution request for the selected moving image is transmitted to the distribution server 40 (S12). The distribution server 40 receives this and confirms the content of the request (S13). Then, referring to the moving image database 32 (S14), the requested moving image bit stream and its configuration information are acquired (S15), and delivered to the requesting user terminal 50 together with the user interface for reproduction control (S16).

ユーザ端末50は、配信された動画のビットストリームを復号し、復号された映像及び音声を再生制御用のユーザインタフェースを介して出力させて動画を再生する(S17)。ここで、ユーザAが操作メニュー140に設けられた調整記録ボタン180を選択すると、ユーザ端末50はこの操作を検知し(S18)、ローカルディスク上に一時データベースを作成して出力調整の記録を開始する(S18a)。動画の再生中にユーザAが操作メニュー140で映像又は音声の出力調整に関する操作を行うと、ユーザ端末50はこの操作を検知し(S19)、操作に対応付けられた出力調整を行うと同時に(S20)、その出力調整の内容を一時データベースに調整履歴として追記する(S21)。その後もユーザAが何らかの操作を行う毎に、ユーザ端末50は上述したS19〜S21の処理を繰り返す。   The user terminal 50 decodes the distributed moving image bit stream, and outputs the decoded video and audio via a user interface for reproduction control to reproduce the moving image (S17). Here, when the user A selects the adjustment record button 180 provided in the operation menu 140, the user terminal 50 detects this operation (S18), creates a temporary database on the local disk, and starts recording output adjustments. (S18a). When the user A performs an operation relating to the output adjustment of the video or audio using the operation menu 140 during the reproduction of the moving image, the user terminal 50 detects this operation (S19), and simultaneously performs the output adjustment associated with the operation ( S20), the contents of the output adjustment are added to the temporary database as an adjustment history (S21). Thereafter, whenever the user A performs some operation, the user terminal 50 repeats the processes of S19 to S21 described above.

動画の再生終了後に、ユーザAが再び調整記録ボタン180を選択すると、ユーザ端末50はこれを契機として配信サーバ40に対し調整履歴の記録要求を送信する(S22)。これを配信サーバ40が受信し、要求の内容を確認する(S23)。調整履歴を記録するにはユーザの識別が必要となるため、配信サーバ40は現在のセッション状態からこの要求を送信したユーザが認証済みであるか否かを確認する(S24)。その結果、ユーザが未認証(匿名アクセス)状態であることが判ると、ユーザ端末50に対し認証情報を要求する(S25)。この要求に応じユーザAが認証情報を入力して送信すると(S26)、配信サーバ40がこれを受信し(S27)、ユーザマスタ36に照会して認証情報の正当性を確認する(S28)。認証情報が正当なものであれば認証処理が正常に完了し(S29)、配信サーバ40はユーザ端末50に対しその旨を通知する(S30)。これを受け、ユーザ端末50は配信サーバ40に対し一時データに記録された調整履歴を送信すると(S31)、配信サーバ40がこれを受信し(S32)、履歴データベース34に格納する(S33)。調整履歴が正常に格納されると(S34)、配信サーバ40はユーザ端末50に対しその旨を通知する(S35)。   When the user A selects the adjustment recording button 180 again after the reproduction of the moving image, the user terminal 50 transmits an adjustment history recording request to the distribution server 40 in response to this (S22). The distribution server 40 receives this and confirms the content of the request (S23). Since the user identification is required to record the adjustment history, the distribution server 40 confirms whether or not the user who transmitted this request has been authenticated from the current session state (S24). As a result, if it is found that the user is in an unauthenticated (anonymous access) state, authentication information is requested from the user terminal 50 (S25). In response to this request, when the user A inputs authentication information and transmits it (S26), the distribution server 40 receives it (S27) and inquires of the user master 36 to confirm the validity of the authentication information (S28). If the authentication information is valid, the authentication process is normally completed (S29), and the distribution server 40 notifies the user terminal 50 to that effect (S30). In response to this, when the user terminal 50 transmits the adjustment history recorded in the temporary data to the distribution server 40 (S31), the distribution server 40 receives this (S32) and stores it in the history database 34 (S33). When the adjustment history is stored normally (S34), the distribution server 40 notifies the user terminal 50 to that effect (S35).

図15は、動画配信システム100を利用してユーザBが他のユーザ、例えば友人のユーザAによりなされた出力調整を再現しながら動画の視聴を行う際の動作例を示すシーケンス図である。説明の便宜のため、ここでは他のユーザから案内された動画が無料動画である場合を想定することとする。以下、動作例に沿って説明する。   FIG. 15 is a sequence diagram illustrating an operation example when the user B uses the moving image distribution system 100 to view the moving image while reproducing the output adjustment made by another user, for example, the friend user A. For convenience of explanation, it is assumed here that the moving image guided by another user is a free moving image. Hereinafter, it demonstrates along an operation example.

ユーザBがユーザ端末50でユーザAから電子メールを受信する。この電子メールの本文にはユーザAの嗜好に合わせて出力調整を行った動画を視聴できるURLが案内されている。ユーザBがこのURLを選択すると、ユーザ端末50はウェブブラウザが起動させてこのURLにアクセスすると同時に、配信サーバ40に対しURLで指定された動画の配信要求を送信する(S51)。これを配信サーバ40が受信し、動画とともにユーザAにより記録された調整履歴の配信が要求されていることを確認する(S52)。そこで、まず動画データベース32を参照して(S53)要求された動画のビットストリームやその構成情報を取得し(S54)、さらに履歴データベース34を参照して(S55)要求された動画に対応するユーザAの調整履歴データを取得する(S56)。配信サーバ40は、取得したこれらのデータを再生制御用のユーザインタフェースとともにユーザ端末50に配信する(S57)。   User B receives an e-mail from user A at user terminal 50. In the body of this e-mail, a URL for viewing a moving image whose output has been adjusted according to user A's preference is provided. When the user B selects this URL, the user terminal 50 activates the web browser to access the URL, and at the same time transmits a distribution request for the moving image specified by the URL to the distribution server 40 (S51). The distribution server 40 receives this, and confirms that distribution of the adjustment history recorded by the user A together with the moving image is requested (S52). Therefore, the user first refers to the moving image database 32 (S53) to acquire the requested moving image bit stream and its configuration information (S54), and further refers to the history database 34 (S55) to correspond to the requested moving image. The adjustment history data of A is acquired (S56). The distribution server 40 distributes the acquired data to the user terminal 50 together with the user interface for reproduction control (S57).

ユーザ端末50は、まず配信された調整履歴をローカルの一時データベースに展開する(S58)。その上で、ユーザ端末50は、配信された動画のビットストリームを復号し、一時データベースを参照しながら調整履歴に記録された出力態様で映像と音声を再生制御用のユーザインタフェースを介して出力させて動画を再生する(S59)。これにより、ユーザAがこの動画を視聴した際に行ったのと同じ出力調整が再現される。つまり、ユーザBは、操作メニュー140を一切操作することなく、ユーザAと全く同じ状態でこの動画を視聴することができる。   The user terminal 50 first develops the distributed adjustment history in a local temporary database (S58). Then, the user terminal 50 decodes the distributed video bit stream, and outputs video and audio via the user interface for playback control in the output mode recorded in the adjustment history while referring to the temporary database. The moving image is reproduced (S59). As a result, the same output adjustment as that performed when the user A viewed this moving image is reproduced. That is, the user B can view the moving image in exactly the same state as the user A without operating the operation menu 140 at all.

動画の再生中に、ユーザBが操作メニュー140で映像又は音声の出力調整に関する操作を行うと、ユーザ端末50はこの操作を検知し(S60)、操作に対応付けられた出力調整を行うと同時に(S61)、その出力調整の内容を一時データベースに調整履歴として追記する(S62)。これ以降は、ユーザAの調整履歴に記録された出力調整は再現されず、ユーザBが操作メニュー140で行う操作に基づいて出力調整がなされる。   When the user B performs an operation related to the video or audio output adjustment with the operation menu 140 during the reproduction of the moving image, the user terminal 50 detects this operation (S60), and simultaneously performs the output adjustment associated with the operation. (S61) The contents of the output adjustment are added to the temporary database as an adjustment history (S62). Thereafter, the output adjustment recorded in the adjustment history of the user A is not reproduced, and the output adjustment is performed based on the operation performed by the user B using the operation menu 140.

動画の再生終了後に、ユーザBが調整記録ボタン180を選択すると、ユーザ端末はこれを契機として配信サーバに対し調整履歴の記録要求を送信する(S63)。これを配信サーバ40が受信して要求の内容を確認し(S64)、現在のセッション状態からこの要求を送信したユーザが認証済みであるか否かを確認する(S65)。これ以降は、図12に示したシーケンス図の流れと同様に、配信サーバ40がユーザ認証を行い調整履歴の記録を行うユーザを識別した上で、調整履歴データを受け付けて履歴データベース34に格納することとなる。   When the user B selects the adjustment recording button 180 after the reproduction of the moving image, the user terminal transmits an adjustment history recording request to the distribution server in response to this (S63). The distribution server 40 receives this and confirms the content of the request (S64), and confirms whether or not the user who transmitted this request from the current session state has been authenticated (S65). Thereafter, similar to the flow of the sequence diagram shown in FIG. 12, the distribution server 40 identifies the user who performs user authentication and records the adjustment history, receives the adjustment history data, and stores it in the history database 34. It will be.

〔第2実施形態:ライブ配信〕
図16は、異なる実施形態の動画配信システム200が動作する環境の構成図である。第2実施形態としての動画配信システム200は、動画のライブ配信を想定した環境であり、上述した第1実施形態とはデータベースサーバ30が介在しない点で異なっている。
[Second Embodiment: Live Distribution]
FIG. 16 is a configuration diagram of an environment in which the moving image distribution system 200 according to another embodiment operates. The moving image distribution system 200 as the second embodiment is an environment assuming live distribution of moving images, and differs from the first embodiment described above in that the database server 30 is not interposed.

動画配信システム200において配信対象となる動画を構成する映像及び音声は、撮影及び集音と同時に合成多重化装置10に入力される。合成多重化装置10で映像の合成と音声の多重化がなされると、生成された各1本の映像・音声信号が符号化装置20に入力され、これらがリアルタイムで符号化される。符号化装置20で符号化されたビットストリームは、配信サーバ40に直接送信される。配信サーバ40に送信されたビットストリームは、逐次、ユーザ端末50に対し配信される。   The video and audio constituting the moving image to be distributed in the moving image distribution system 200 are input to the synthesis and multiplexing apparatus 10 simultaneously with shooting and sound collection. When the synthesis and multiplexing apparatus 10 synthesizes video and multiplexes audio, each generated video / audio signal is input to the encoding apparatus 20 and is encoded in real time. The bit stream encoded by the encoding device 20 is directly transmitted to the distribution server 40. The bit stream transmitted to the distribution server 40 is sequentially distributed to the user terminal 50.

このように、動画配信システム200においては、符号化装置20で符号化された動画のビットストリームがデータベースサーバ30に蓄積されない。また、配信サーバ40は、リアルタイムで合成多重化され符号化された動画のビットストリームを、ユーザ端末50に配信する。   As described above, in the moving image distribution system 200, the bit stream of the moving image encoded by the encoding device 20 is not accumulated in the database server 30. In addition, the distribution server 40 distributes the bit stream of the moving image synthesized and multiplexed in real time to the user terminal 50.

〔第3実施形態:ハイブリッドキャスト〕
図17、異なる実施形態の動画配信システム300が動作する環境の構成図である。第3実施形態としての動画配信システム300は、ハイブリッドキャストを想定した環境である。動画配信システム300は、第1実施形態とは異なり、動画やこれに付随するデータ等をユーザ端末に配信するための手段(放送装置42、データ配信サーバ44)が複数に分かれている。
[Third Embodiment: Hybrid Cast]
FIG. 17 is a configuration diagram of an environment in which the moving image distribution system 300 according to a different embodiment operates. The moving image distribution system 300 as the third embodiment is an environment assuming a hybrid cast. Unlike the first embodiment, the moving image distribution system 300 includes a plurality of means (broadcasting device 42 and data distribution server 44) for distributing moving images, data associated therewith, and the like to user terminals.

動画配信システム300において配信される動画は、放送局に設置された放送装置42から出力され、放送波として、電波塔80を経由しインターネット対応テレビ55(テレビ電波受信機としてのユーザ端末)に送信される。また、放送装置42から送信される動画に付随するデータ等(例えば、動画の構成情報、ユーザインタフェース等)は、放送局又はサービス事業者等に設置されたデータ配信サーバ44から、インターネット70を経由しインターネット対応テレビ55(通信機器としてのユーザ端末)に送信される。
このように、動画配信システム300においては、放送と通信を利用して配信を行う。また、インターネット対応テレビ55(以下、「テレビ55」と略称する。)は、これら2つの経路から動画及びこれに付随するデータ等を受信し、テレビ55の画面上に展開されたユーザインタフェースを介して動画の再生を実現させる。
The moving image distributed in the moving image distribution system 300 is output from the broadcasting device 42 installed in the broadcasting station, and is transmitted as a broadcast wave to the Internet-compatible television 55 (user terminal as a TV signal receiver) via the radio tower 80. Is done. In addition, data associated with the moving image transmitted from the broadcasting device 42 (for example, moving image configuration information, user interface, etc.) is transmitted from the data distribution server 44 installed in the broadcasting station or service provider via the Internet 70. And transmitted to the Internet-compatible television 55 (a user terminal as a communication device).
Thus, in the moving image distribution system 300, distribution is performed using broadcasting and communication. Further, the Internet-compatible television 55 (hereinafter, abbreviated as “TV 55”) receives a moving image and data accompanying it from these two routes, and via a user interface developed on the screen of the television 55. To achieve video playback.

さらに、家庭内ネットワーク等を介しテレビ55に接続されたデバイス55aが、テレビ55とのペアリング設定がなされており、テレビ55に送信される動画に連動したアプリが予めインストールされている場合、動画配信システム300はデバイス55aを補助的に機能させることができる。このとき、デバイス55aは、データ配信サーバ44から配信されたデータをテレビ55から必要に応じて受信し、例えば自身のディスプレイ上にユーザインタフェースを展開させてテレビ55を操作することが可能となる。   Further, when the device 55a connected to the television 55 via a home network or the like is set to be paired with the television 55 and an application linked to the movie transmitted to the television 55 is installed in advance, The distribution system 300 can make the device 55a function auxiliary. At this time, the device 55a can receive the data distributed from the data distribution server 44 from the television 55 as necessary, and can operate the television 55 by developing a user interface on its own display, for example.

なお、図17に示されるように、本実施形態においては放送装置42とデータ配信サーバ44がいずれもデータベースサーバ30に接続されており、テレビ55に配信する動画及び付随するデータを同じサーバから取得する構成としたが、動画データベース32とその他のデータベース34,36は異なるサーバ上に配置してもよい。つまり、放送装置42とデータ配信サーバ44とは、同一のサーバに接続されている必要はなく、利用環境に応じて適宜変更可能である。また、ハイブリッドキャストでの配信においても、第2実施形態の環境と同様に、データベースサーバ30を介することなく動画をリアルタイムでライブ配信することも可能である。   As shown in FIG. 17, in this embodiment, both the broadcasting device 42 and the data distribution server 44 are connected to the database server 30, and the moving image distributed to the television 55 and the accompanying data are acquired from the same server. The moving image database 32 and the other databases 34 and 36 may be arranged on different servers. That is, the broadcasting device 42 and the data distribution server 44 do not need to be connected to the same server, and can be appropriately changed according to the use environment. Also, in the distribution by hybrid cast, it is also possible to distribute a moving image live in real time without using the database server 30 as in the environment of the second embodiment.

本発明は、上述した実施形態に制約されることなく、種々に変形して実施することが可能である。   The present invention can be implemented in various modifications without being limited to the above-described embodiments.

例えば、上述した実施形態においては、動画配信システム100で用いられる各データベース32,34,26をデータベースサーバ30に設け、配信サーバ40とは異なるサーバ上で管理しているが、この形態に限定されず、運用環境に応じ最適な形態を採ることが可能である。例えば、各データベース32,34,26を全て配信サーバ40内に同居させてもよいし、一部のデータベースを適宜用途の異なるサーバ上に配置してもよい。こうすることにより、サーバの運用コストを抑制することが可能となる。   For example, in the above-described embodiment, the databases 32, 34, and 26 used in the video distribution system 100 are provided in the database server 30 and managed on a server different from the distribution server 40. However, the present invention is limited to this form. It is possible to adopt an optimum form according to the operating environment. For example, all the databases 32, 34, and 26 may coexist in the distribution server 40, or some databases may be appropriately arranged on different servers. By doing so, it is possible to reduce the operating cost of the server.

また、操作メニュー140において、6種類のエフェクト選択ボタン168〜178、4種類の報知ツール起動ボタン190〜196を設けているが、これらはあくまで例示であり、更に異なる種類のボタンを追加してもよい。   Further, in the operation menu 140, six types of effect selection buttons 168 to 178 and four types of notification tool activation buttons 190 to 196 are provided. However, these are merely examples, and different types of buttons may be added. Good.

調整履歴の記録に関しては、通信の遅延等による動画再生への影響を避けるため、一旦ローカルの一時データベースに蓄積した上で、動画の再生終了後に調整記録ボタン180が選択されるのを契機としてサーバ側に記録させる形態としている。ネットワークの帯域等を考慮し、動画再生への深刻な影響が生じない場合には、ローカルの記録を経由せずその都度サーバ側に直接記録させるよう実装することも可能である。   Regarding the recording of the adjustment history, in order to avoid the influence on the video playback due to the communication delay or the like, the server is triggered once the adjustment recording button 180 is selected after the video playback is completed after being temporarily stored in the local temporary database. The form is recorded on the side. In consideration of the network bandwidth and the like, if there is no serious influence on the reproduction of the moving image, it is possible to mount the recording directly on the server side each time without going through the local recording.

また、調整履歴は各ユーザが1つの動画に対して1パターンのみ記録可能とし、この動画に対する調整履歴のサーバ側への記録を複数回実行した場合には直近の調整履歴を残す形態としているが、各回の調整履歴を残ることができる形態としてもよい。このような形態とする場合には、操作メニュー140をこれに応じて適宜変更しつつ、サーバ側に記録された各回の調整履歴には各々を識別可能な情報を割り当てる。ユーザによる出力調整を反映させた動画を視聴できるURLを報知部148が生成する際には、動画と出力調整を行ったユーザに加え、どの回の出力調整を利用させるのかを識別可能な情報(例えば、動画IDとユーザIDと回数ID)をクエリとして指定したURLを報知ツールの本文にセットするよう実装すればよい。   Further, the adjustment history can be recorded only by one pattern for each moving image for each user, and when the adjustment history for this moving image is recorded on the server side a plurality of times, the latest adjustment history is left. It is also possible to adopt a form in which the adjustment history of each time can be left. In such a form, the operation menu 140 is appropriately changed according to this, and information that can identify each is assigned to each adjustment history recorded on the server side. When the notification unit 148 generates a URL that allows viewing of a moving image reflecting the output adjustment by the user, in addition to the moving image and the user who performed the output adjustment, information that can identify which output adjustment is to be used ( For example, a URL that specifies a moving image ID, user ID, and number of times ID) as a query may be set in the body of the notification tool.

10 合成多重化装置
20 符号化装置
30 データベースサーバ
40 配信サーバ (動画配信手段、UI提供手段、調整記録手段)
50 ユーザ端末 (再生手段、出力調整手段、調整再現手段、報知手段)
100 動画配信システム
140 操作メニュー (ユーザインタフェース)
150 主映像表示エリア
160 主映像切替ボタン
161 音声調整メニュー
180 調整記録ボタン
182 調整再現ボタン
DESCRIPTION OF SYMBOLS 10 Synthesis | combination multiplexing apparatus 20 Encoding apparatus 30 Database server 40 Distribution server (Video distribution means, UI provision means, adjustment recording means)
50 user terminals (reproduction means, output adjustment means, adjustment reproduction means, notification means)
100 video distribution system 140 operation menu (user interface)
150 Main video display area 160 Main video switching button 161 Audio adjustment menu 180 Adjustment record button 182 Adjustment reproduction button

Claims (5)

複数の映像が予め配列状に合成されてなる1つの合成映像と前記複数の映像に関連する複数の音声とで多重化された動画のビットストリームを配信する動画配信手段と、
前記動画配信手段による前記ビットストリームの配信に付随し、前記合成映像に関する構成情報とこの構成情報に連動させたユーザインタフェースを提供するUI提供手段と、
前記UI提供手段により提供される前記ユーザインタフェースを介して、前記1つの合成映像のうち選択された所定の領域を映像出力部に出力させつつ前記複数の音声をダウンミックスして音声出力部に出力させることにより前記動画の再生を実現させる再生手段と
を備えた動画配信システム。
A moving image distribution means for distributing a bit stream of a moving image multiplexed by one synthesized image obtained by combining a plurality of images in advance in an array and a plurality of sounds related to the plurality of images;
UI providing means for providing configuration information related to the synthesized video and a user interface linked to the configuration information accompanying the delivery of the bitstream by the moving image delivery means;
Via the user interface provided by the UI providing means, the plurality of audios are downmixed and output to the audio output unit while outputting a predetermined area selected from the one synthesized video to the video output unit. A moving image distribution system comprising: a reproducing unit that realizes reproduction of the moving image.
請求項1に記載の動画配信システムにおいて、
前記動画配信手段は、
同一の対象物又は相互に関連性のある複数の対象物を撮影した複数の映像と、前記対象物から発せられる音声を集音し又は前記対象物に関連付けて付加した複数の音声とで多重化されたビットストリームを配信することを特徴とする動画配信システム。
The video distribution system according to claim 1,
The video delivery means
Multiple images obtained by photographing the same object or a plurality of mutually related objects and a plurality of sounds collected from or added to the object in association with the object are multiplexed. A video distribution system that distributes a bitstream that has been processed.
請求項1又は2に記載の動画配信システムにおいて、
前記映像出力部により出力される映像の出力態様及び前記音声出力部により出力される音声の出力態様を調整する出力調整手段をさらに備え、
前記UI提供手段は、
ユーザの操作に基づいて前記出力調整手段に前記映像及び前記音声の出力態様を調整させるためのユーザインタフェースを提供することを特徴とする動画配信システム。
In the moving image distribution system according to claim 1 or 2,
An output adjusting means for adjusting an output mode of the video output by the video output unit and an output mode of the audio output by the audio output unit;
The UI providing means includes:
A video distribution system, characterized in that a user interface is provided for causing the output adjustment means to adjust an output mode of the video and audio based on a user operation.
請求項3に記載の動画配信システムにおいて、
前記動画の再生中にユーザの操作に基づき前記ユーザインタフェースを介してなされた前記出力調整手段による前記映像及び前記音声の出力態様の変遷である調整履歴を記録する調整記録手段と、
前記動画の再生にあたり、求めに応じて、前記ユーザの操作に基づきなされた映像及び音声の出力態様の調整を前記調整記録手段により記録された前記調整履歴に沿って前記出力調整手段に再現させる調整再現手段と
をさらに備えた動画配信システム。
In the moving image distribution system according to claim 3,
An adjustment recording means for recording an adjustment history which is a transition of the video and audio output modes by the output adjustment means made through the user interface based on a user operation during reproduction of the moving image;
Upon reproduction of the moving image, an adjustment that causes the output adjustment unit to reproduce the adjustment of the video and audio output mode made based on the operation of the user according to the request along the adjustment history recorded by the adjustment recording unit. A video distribution system further comprising reproduction means.
請求項4に記載の動画配信システムにおいて、
前記動画と前記調整記録手段により記録された前記調整履歴との組合せを一意に定める識別情報を前記ユーザとは異なるユーザに報知する報知手段をさらに備え、
前記報知手段により報知された前記識別情報を伴う配信要求がなされた場合、
前記動画配信手段は、
前記識別情報により識別される前記動画のビットストリーム及びこの動画に対する前記調整履歴を配信し、
前記調整再現手段は、
前記動画の再生にあたり、前記調整履歴に沿って前記ユーザの操作に基づきなされた映像及び音声の出力態様の調整を再現させることを特徴とする動画配信システム。
The video distribution system according to claim 4,
A notification unit for notifying a user different from the user of identification information that uniquely defines a combination of the moving image and the adjustment history recorded by the adjustment recording unit;
When a distribution request with the identification information notified by the notification means is made,
The video delivery means
Deliver the video bitstream identified by the identification information and the adjustment history for the video,
The adjustment reproduction means includes
When reproducing the moving image, the moving image distribution system reproduces the adjustment of the video and audio output mode made based on the user's operation along the adjustment history.
JP2016120192A 2016-06-16 2016-06-16 Video distribution system Active JP6024002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016120192A JP6024002B2 (en) 2016-06-16 2016-06-16 Video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016120192A JP6024002B2 (en) 2016-06-16 2016-06-16 Video distribution system

Publications (2)

Publication Number Publication Date
JP2016165162A JP2016165162A (en) 2016-09-08
JP6024002B2 true JP6024002B2 (en) 2016-11-09

Family

ID=56876768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016120192A Active JP6024002B2 (en) 2016-06-16 2016-06-16 Video distribution system

Country Status (1)

Country Link
JP (1) JP6024002B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6853632B2 (en) * 2016-08-25 2021-03-31 株式会社Adeka Salty enhancer
JP6473469B2 (en) * 2017-02-28 2019-02-20 株式会社ピクセラ Video distribution system
JP7319228B2 (en) * 2020-06-26 2023-08-01 MasterVisions株式会社 Image distribution device, image generation device and program
JP7344610B2 (en) * 2020-12-22 2023-09-14 株式会社エイリアンミュージックエンタープライズ Management server
JP7339999B2 (en) * 2021-12-16 2023-09-06 ソフトバンク株式会社 Distribution system, distribution server, distribution method, communication terminal, reproduction method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104556A (en) * 2002-09-11 2004-04-02 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for reproducing video, and recording medium for video reproduction program
JP2007104540A (en) * 2005-10-07 2007-04-19 Open Interface Inc Device, program and method for distributing picked-up image

Also Published As

Publication number Publication date
JP2016165162A (en) 2016-09-08

Similar Documents

Publication Publication Date Title
JP6024002B2 (en) Video distribution system
JP6267961B2 (en) Image providing method and transmitting apparatus
JP6992789B2 (en) Playback equipment and methods, as well as programs
RU2744969C1 (en) Method and device for effective delivery and use of audio communications for high quality of perception
US11481983B2 (en) Time shifting extended reality media
TW200913711A (en) Method and system for customizing live media content
KR20080058009A (en) Method for displaying contents and apparatus therefor
WO2014044059A1 (en) Method, device and system for video conference recording and playing
JP6131053B2 (en) Information playback terminal
CN108449632A (en) A kind of real-time synthetic method of performance video and terminal
JP2006041886A (en) Information processor and method, recording medium, and program
JP5359199B2 (en) Comment distribution system, terminal, comment output method and program
JP7290260B1 (en) Servers, terminals and computer programs
JP7153143B2 (en) Video providing system and program
KR102166054B1 (en) Method and Apparatus for Displaying Streaming Video Transmitted from Network
JP6324829B2 (en) Video providing system and program
JP5581437B1 (en) Video providing system and program
JP2009224818A (en) Content reproducing unit and content reproducing method
JP2006303610A (en) Recording and reproducing device, server device, and vod system
JP2015037290A (en) Video control device, video display device, video control system, and method
WO2018142515A1 (en) Content delivery method, content acquisition method and information processing terminal
KR20100055662A (en) Client terminal apparatus, performance impression service system and its method
JP6473469B2 (en) Video distribution system
JP4791906B2 (en) Content management server, content presentation device, content management program, and content presentation program
Thomas et al. State‐of‐the‐Art and Challenges in Media Production, Broadcast and Delivery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160620

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160829

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160914

R150 Certificate of patent or registration of utility model

Ref document number: 6024002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250