JP6805341B2 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP6805341B2
JP6805341B2 JP2019520460A JP2019520460A JP6805341B2 JP 6805341 B2 JP6805341 B2 JP 6805341B2 JP 2019520460 A JP2019520460 A JP 2019520460A JP 2019520460 A JP2019520460 A JP 2019520460A JP 6805341 B2 JP6805341 B2 JP 6805341B2
Authority
JP
Japan
Prior art keywords
video
shortened
image
unit
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019520460A
Other languages
Japanese (ja)
Other versions
JPWO2019155695A1 (en
Inventor
知敬 湯浅
知敬 湯浅
基 田村
基 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2019155695A1 publication Critical patent/JPWO2019155695A1/en
Application granted granted Critical
Publication of JP6805341B2 publication Critical patent/JP6805341B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像を配信する技術に関する。 The present invention relates to a technique for delivering video.

特許文献1には、無人航空機(ドローン)が撮影した映像をリアルタイムで仮想現実端末に配信する技術が開示されている。 Patent Document 1 discloses a technique for delivering an image taken by an unmanned aerial vehicle (drone) to a virtual reality terminal in real time.

特表2017−504863号公報Special Table 2017-504863

ライブ映像を視聴するサービスを提供するにあたっては、例えばユーザが所用でライブ映像の視聴を一時的に中断するなどして、ライブ映像の一部を見逃すことが考えられる。その場合に、見逃したライブ映像の内容も把握できるとユーザにとって便利であるが、そのために時間を要すると、例えばその間にライブ映像の配信が終了してしまうといったことが起こり得る。
そこで、本発明は、ライブ映像の内容を短時間でユーザに把握させることを目的とする。
In providing a service for viewing live video, it is conceivable that a part of the live video is overlooked, for example, when the user temporarily suspends viewing of the live video. In that case, it is convenient for the user to be able to grasp the contents of the missed live video, but if it takes time for that, for example, the distribution of the live video may end in the meantime.
Therefore, an object of the present invention is to make the user grasp the contents of the live video in a short time.

上記目的を達成するために、本発明は、ライブ映像を取得する映像取得部と、取得されたライブ映像を表示装置に配信する配信部であって、配信先の表示装置から中断及び再開の指示を受け取ると、ライブ映像を短縮した短縮映像として、前記中断から前記再開までに取得されたライブ映像の前記短縮映像である第1短縮映像を配信する配信部とを備える情報処理装置を提供する。 In order to achieve the above object, the present invention is a video acquisition unit that acquires live video and a distribution unit that distributes the acquired live video to a display device, and gives instructions for interruption and resumption from the display device of the distribution destination. Is received, an information processing device including a distribution unit for distributing the first shortened video which is the shortened video of the live video acquired from the interruption to the restart is provided as a shortened video of the live video.

また、前記配信部は、前記短縮映像を配信しているときに取得されたライブ映像の前記短縮映像である第2短縮映像を配信してもよい。
さらに、前記配信部は、前記短縮映像を配信しているときに中断の指示を受け取り、その後再開の指示を受け取ると、当該短縮映像のうち当該中断以降の配信部分と、当該中断から当該再開までに取得されたライブ映像を短縮した映像とを合わせた前記短縮映像である第3短縮映像を配信してもよい。
また、前記ライブ映像の配信には終了時刻があり、前記配信部は、短縮対象のライブ映像の終了時刻から前記配信の終了時刻までの期間の長さに応じた時間で表示される映像を前記短縮映像として配信してもよい。
Further, the distribution unit may distribute the second shortened video which is the shortened video of the live video acquired while the shortened video is being delivered.
Further, when the distribution unit receives an instruction for interruption while distributing the shortened video and then receives an instruction for resumption, the distribution portion of the shortened video after the interruption and from the interruption to the resumption The third shortened video, which is the shortened video combined with the shortened video of the live video acquired in the above, may be distributed.
Further, the distribution of the live video has an end time, and the distribution unit displays the video displayed in a time corresponding to the length of the period from the end time of the live video to be shortened to the end time of the distribution. It may be delivered as a shortened video.

また、前記映像取得部は、複数の表示装置に配信されるライブ映像を取得し、静止画像の保存を指示する機能を有する表示装置から当該保存が指示されると、当該表示装置に表示されていた映像を静止画像として保存する保存部を備え、前記配信部は、表示装置から指示された中断から再開までに又は当該表示装置への前記短縮映像の配信中に、当該表示装置とは異なる表示装置からの指示により保存された静止画像を含む映像を前記短縮映像として配信してもよい。
さらに、保存された前記静止画像を評価する評価部を備え、前記配信部は、前記評価部による評価が高いものを当該評価が低いものよりも優先して含む映像を前記短縮映像として配信してもよい。
Further, when the video acquisition unit acquires live video distributed to a plurality of display devices and is instructed to save the still image by a display device having a function of instructing the storage of the still image, the video acquisition unit is displayed on the display device. The distribution unit includes a storage unit that stores the video as a still image, and the distribution unit displays a display different from that of the display device from the interruption to the restart instructed by the display device or during the distribution of the shortened video to the display device. An image including a still image saved according to an instruction from the device may be distributed as the shortened image.
Further, the evaluation unit for evaluating the stored still image is provided, and the distribution unit distributes a video including the one having a high evaluation by the evaluation unit with priority over the one having a low evaluation as the shortened video. May be good.

また、前記複数の表示装置のそれぞれのユーザの嗜好を示す嗜好情報を取得する第1嗜好取得部を備え、前記配信部は、取得された嗜好情報に基づき、前記短縮映像の配信先の表示装置のユーザと嗜好が類似するユーザの表示装置を特定し、当該表示装置から行われた保存の指示により保存された前記静止画像を他の前記静止画像よりも優先して含む映像を前記短縮映像として配信してもよい。 In addition, the distribution unit includes a first preference acquisition unit that acquires preference information indicating the preference of each user of the plurality of display devices, and the distribution unit is a display device of a distribution destination of the shortened video based on the acquired preference information. A user's display device having similar tastes to that of the user is specified, and an image containing the still image saved by a storage instruction given by the display device in preference to other still images is defined as the shortened image. It may be delivered.

また、本発明は、ライブ映像を取得する映像取得部と、ユーザの嗜好を示す嗜好情報を取得する第2嗜好取得部と、取得されたライブ映像に映っている対象の属性を判定する属性判定部と、取得されたライブ映像を前記ユーザの表示装置に配信する配信部であって、取得された前記嗜好情報が示す嗜好と関連する属性が判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信部とを備える情報処理装置を提供する。 Further, the present invention has an image acquisition unit for acquiring a live image, a second preference acquisition unit for acquiring preference information indicating a user's preference, and an attribute determination for determining an attribute of an object reflected in the acquired live image. The live image is shortened so as to include a unit and a distribution unit that distributes the acquired live video to the display device of the user, and includes an object for which an attribute related to the preference indicated by the acquired preference information is determined. Provided is an information processing device including a distribution unit for distributing the shortened video.

また、表示装置が表示する映像においてユーザの視線が向いている位置に映っている対象の属性を判定する第1判定部と、ライブ映像を取得する映像取得部と、取得されたライブ映像に映っている対象の属性を判定する第2判定部と、取得されたライブ映像を前記ユーザの表示装置に配信する配信部であって、前記第1判定部によって判定された属性と関連する属性が前記第2判定部によって判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信部とを備える情報処理装置を提供する。 In addition, in the image displayed by the display device, the first determination unit that determines the attribute of the target that is reflected in the position where the user's line of sight is facing, the image acquisition unit that acquires the live image, and the acquired live image. The second determination unit that determines the attributes of the target, and the distribution unit that distributes the acquired live video to the display device of the user, and the attributes related to the attributes determined by the first determination unit are the above. Provided is an information processing device including a distribution unit that distributes a shortened video obtained by shortening the live video so as to include an object determined by the second determination unit.

また、取得されたライブ映像に特定の対象が映っているか否かを判定する対象判定部を備え、前記配信部は、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信してもよい。 Further, a target determination unit for determining whether or not a specific target is reflected in the acquired live video is provided, and the distribution unit uses a moving image and a still image of the video determined to reflect the specific target. The video including one of the moving images and the video including the video determined that the specific target is not reflected on the other of the moving image and the still image may be distributed as the shortened video.

また、本発明は、ライブ映像を取得するステップと、取得されたライブ映像を表示装置に配信するステップであって、配信先の表示装置から中断及び再開の指示を受け取ると、ライブ映像を短縮した短縮映像として、前記中断から前記再開までに取得されたライブ映像の前記短縮映像である第1短縮映像を配信するステップとを有する情報処理方法を提供する。 Further, the present invention is a step of acquiring a live image and a step of distributing the acquired live image to a display device, and shortens the live image when receiving an instruction of interruption and resumption from the display device of the distribution destination. As the shortened video, an information processing method including a step of delivering a first shortened video which is the shortened video of the live video acquired from the interruption to the restart is provided.

また、本発明は、ライブ映像を取得するステップと、ユーザの嗜好を示す嗜好情報を取得するステップと、取得されたライブ映像に映っている対象の属性を判定するステップと、取得されたライブ映像を前記ユーザの表示装置に配信するステップであって、取得された前記嗜好情報が示す嗜好と関連する属性が判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信するステップとを有する情報処理方法を提供する。 Further, the present invention has a step of acquiring a live image, a step of acquiring preference information indicating a user's preference, a step of determining an attribute of an object reflected in the acquired live image, and an acquired live image. Is a step of delivering the live video to the display device of the user, and a step of delivering a shortened video obtained by shortening the live video so as to include an object for which an attribute related to the taste indicated by the acquired taste information is determined. Provide an information processing method to have.

また、本発明は、表示装置が表示する映像においてユーザの視線が向いている位置に映っている対象の属性を判定する第1判定ステップと、ライブ映像を取得する映像取得ステップと、取得されたライブ映像に映っている対象の属性を判定する第2判定ステップと、取得されたライブ映像を前記ユーザの表示装置に配信する配信ステップであって、前記第1判定ステップによって判定された属性と関連する属性が前記第2判定ステップによって判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信ステップとを有する情報処理方法を提供する。 Further, the present invention has acquired a first determination step of determining an attribute of an object displayed at a position where the user's line of sight is facing in an image displayed by a display device, and an image acquisition step of acquiring a live image. A second determination step for determining the attribute of the target displayed in the live image and a distribution step for distributing the acquired live image to the display device of the user, which is related to the attribute determined by the first determination step. Provided is an information processing method including a distribution step of delivering a shortened video obtained by shortening the live video so that the attribute to be processed includes an object determined by the second determination step.

本発明によれば、ライブ映像の内容を短時間でユーザに把握させることができる。 According to the present invention, the user can grasp the content of the live video in a short time.

実施例に係る仮想旅行システムの全体構成を表す図Diagram showing the overall configuration of the virtual travel system according to the embodiment 代理人端末のハードウェア構成を表す図Diagram showing the hardware configuration of the proxy terminal 参加人端末のハードウェア構成を表す図Diagram showing the hardware configuration of the participant terminal 配信サーバ装置のハードウェア構成を表す図Diagram showing the hardware configuration of the distribution server device 仮想旅行システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the virtual travel system 指定範囲の例を表す図Diagram showing an example of a specified range 生成される短縮映像の例を表す図Diagram showing an example of the generated shortened video 生成される短縮映像の別の例を表す図Diagram showing another example of the generated shortened video 生成される短縮映像の別の例を表す図Diagram showing another example of the generated shortened video 提供処理における各装置の動作手順の一例を表す図The figure which shows an example of the operation procedure of each apparatus in the provision process 変形例の短縮映像の例を表す図Diagram showing an example of a shortened video of a modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例の短縮映像の例を表す図Diagram showing an example of a shortened video of a modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例の短縮映像の例を表す図Diagram showing an example of a shortened video of a modified example 変形例で生成される短縮映像の一例を表す図Diagram showing an example of a shortened video generated by a modified example 変形例の仮想旅行システムの全体構成を表す図Diagram showing the overall configuration of the virtual travel system of the modified example

1…仮想旅行システム、10…代理人端末、20…参加人端末、30…配信サーバ装置、101…映像撮影部、102…周辺音録音部、103…カメラ向き測定部、104…撮影データ送信部、201…端末向き測定部、202…指定範囲決定部、203…コンテンツ出力部、204…中断・再開指示部、205…静止画像保存指示部、206…視線位置通知部、301…元データ取得部、302…映像切出部、303…指定範囲取得部、304…ライブコンテンツ生成部、305…コンテンツデータ蓄積部、306…コンテンツデータ送信部、307…短縮コンテンツ生成部、308…コンテンツ配信部、309…静止画像保存部、310…静止画像評価部、311…嗜好情報取得部、312…属性判定部、313…元データ蓄積部、314…特定対象判定部。 1 ... Virtual travel system, 10 ... Agent terminal, 20 ... Participant terminal, 30 ... Distribution server device, 101 ... Video shooting unit, 102 ... Peripheral sound recording unit, 103 ... Camera orientation measurement unit, 104 ... Shooting data transmission unit , 201 ... Terminal orientation measurement unit, 202 ... Designated range determination unit, 203 ... Content output unit, 204 ... Suspend / resume instruction unit, 205 ... Still image storage instruction unit, 206 ... Line-of-sight position notification unit, 301 ... Original data acquisition unit , 302 ... Video cutting unit, 303 ... Designated range acquisition unit, 304 ... Live content generation unit, 305 ... Content data storage unit, 306 ... Content data transmission unit, 307 ... Short content generation unit, 308 ... Content distribution unit, 309 ... Still image storage unit, 310 ... Still image evaluation unit, 311 ... Preference information acquisition unit, 312 ... Attribute determination unit, 313 ... Original data storage unit, 314 ... Specific target determination unit.

[1]実施例
図1は実施例に係る仮想旅行システム1の全体構成を表す。仮想旅行システム1は、観光地等の旅行先に行かなくても仮想的に旅行を楽しむ仮想旅行サービスを提供するためのシステムである。仮想旅行システム1は、旅行先の映像を撮影する代理人と、仮想旅行に参加する参加人という2種類のユーザによって主に利用される。
[1] Example FIG. 1 shows the overall configuration of the virtual travel system 1 according to the embodiment. The virtual travel system 1 is a system for providing a virtual travel service for virtually enjoying a trip without going to a travel destination such as a tourist spot. The virtual travel system 1 is mainly used by two types of users, an agent who shoots a video of a travel destination and a participant who participates in a virtual trip.

仮想旅行システム1は、ネットワーク2と、代理人端末10と、参加人端末20−1、20−2、20−3、・・・(以下それぞれを区別しない場合は「参加人端末20」という)と、配信サーバ装置30とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、配信サーバ装置30が有線通信でアクセスしており、代理人端末10及び参加人端末20が無線通信でアクセスしている。なお、ネットワーク2とのアクセスは有線通信及び無線通信のどちらでもよい。 The virtual travel system 1 includes a network 2, an agent terminal 10, participant terminals 20-1, 20-2, 20-3, ... (Hereinafter, when they are not distinguished, they are referred to as "participant terminal 20"). And the distribution server device 30. The network 2 is a communication system including a mobile communication network, the Internet, and the like, and relays data exchange between devices accessing the own system. The distribution server device 30 accesses the network 2 by wired communication, and the agent terminal 10 and the participant terminal 20 access by wireless communication. The access to the network 2 may be either wired communication or wireless communication.

代理人端末10は、旅行先にいる代理人によって持ち運ばれ、旅行先の映像を撮影する撮影装置である。本実施例では、代理人端末10は、例えば代理人の頭上に装着され、代理人の前後左右と上下を含んだ動画像であるいわゆる360度映像(全方位画像、全天球画像ともいう)を撮影する。代理人端末10は、自機が備えるマイクロフォンで音も録音し、撮影した360度映像とともに配信サーバ装置30に送信する。 The agent terminal 10 is a photographing device that is carried by an agent at the travel destination and captures an image of the travel destination. In this embodiment, the agent terminal 10 is mounted on the agent's head, for example, and is a so-called 360-degree image (also referred to as an omnidirectional image or an omnidirectional image) which is a moving image including the agent's front, back, left, right, and up and down. To shoot. The agent terminal 10 also records a sound with a microphone provided in the own unit and transmits the captured 360-degree image to the distribution server device 30.

配信サーバ装置30は、代理人端末10によって撮影された旅行先の映像及び録音された音等を含む仮想旅行のコンテンツを参加人端末20(本実施例では複数の参加人端末20)に配信する配信装置である。なお、コンテンツには映像だけが含まれていて音は含まれていなくてもよい。配信サーバ装置30は、360度映像のうち参加人端末20から指定された範囲の映像を切り出して配信する。参加人端末20は、配信サーバ装置30によって配信されたコンテンツを出力する出力装置であり、例えば、コンテンツに含まれる映像を表示し、コンテンツに含まれる音を放音する。 The distribution server device 30 distributes the virtual travel content including the video of the travel destination taken by the agent terminal 10 and the recorded sound to the participant terminal 20 (in this embodiment, the plurality of participant terminals 20). It is a distribution device. It should be noted that the content does not have to include only the video and not the sound. The distribution server device 30 cuts out and distributes a video in a range specified from the participant terminal 20 out of the 360-degree video. The participant terminal 20 is an output device that outputs the content distributed by the distribution server device 30, and for example, displays a video included in the content and emits a sound included in the content.

本実施例では、参加人端末20は、参加人の頭に装着するHMD(Head Mounted Display:ヘッドマウントディスプレイ)である。参加人端末20は、自端末の正面が向いている方向(方位及び仰俯角)を測定し、測定した方向に対応する映像の範囲を配信サーバ装置30に対して指定する。これにより、例えば参加人が東を向けば代理人端末10の位置から東を向いた映像が配信され、参加人が上を向けば代理人端末10の鉛直上方の映像が配信される。 In this embodiment, the participant terminal 20 is an HMD (Head Mounted Display) worn on the participant's head. The participant terminal 20 measures the direction (direction and elevation / depression angle) in which the front of the own terminal is facing, and designates the range of the image corresponding to the measured direction to the distribution server device 30. As a result, for example, if the participant turns east, the image facing east from the position of the agent terminal 10 is delivered, and if the participant turns upward, the image vertically above the agent terminal 10 is delivered.

図2は代理人端末10のハードウェア構成を表す。代理人端末10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、360度カメラ17と、センサ装置18と、バス19という各装置を備えるコンピュータである。なお、ここでいう「装置」という文言は、回路、デバイス及びユニット等に読み替えることができる。また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。 FIG. 2 shows the hardware configuration of the agent terminal 10. The agent terminal 10 includes a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, a 360-degree camera 17, a sensor device 18, and a bus 19. It is a computer equipped. The word "device" here can be read as a circuit, a device, a unit, or the like. Further, each device may be included one or more, or some devices may not be included.

プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を、ストレージ13及び/又は通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。 The processor 11 operates, for example, an operating system to control the entire computer. The processor 11 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. Further, the processor 11 reads a program (program code), a software module, data, and the like from the storage 13 and / or the communication device 14 into the memory 12, and executes various processes according to these.

各種処理を実行するプロセッサ11は1つでもよいし、2以上であってもよく、2以上のプロセッサ11は、同時又は逐次に各種処理を実行してもよい。また、プロセッサ11は、1以上のチップで実装されてもよい。プログラムは、電気通信回線を介してネットワークから送信されてもよい。 The number of processors 11 that execute various processes may be one, two or more, and two or more processors 11 may execute various processes simultaneously or sequentially. Further, the processor 11 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ12は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ12は、レジスタ、キャッシュ及びメインメモリ(主記憶装置)等と呼ばれてもよい。メモリ12は、前述したプログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を保存することができる。 The memory 12 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 12 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 12 can store the above-mentioned program (program code), software module, data, and the like.

ストレージ13は、コンピュータが読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。 The storage 13 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, or a magneto-optical disk (for example, a compact disk, a digital versatile disk, Blu-). It may consist of at least one such as a ray® disk), a smart card, a flash memory (eg, a card, stick, key drive), a floppy (registered trademark) disk, a magnetic strip, and the like.

ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及び/又はストレージ13を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The storage 13 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing the memory 12 and / or the storage 13. The communication device 14 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置15は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチ、ボタン、センサなど)である。また、入力装置15は、自端末の周辺で発生して自端末に到達する音(周辺音)を収集するマイクロフォンを入力デバイスとして備えている。出力装置16は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカ、LEDランプなど)である。 The input device 15 is an input device (for example, a keyboard, a mouse, a switch, a button, a sensor, etc.) that receives an input from the outside. Further, the input device 15 includes a microphone as an input device that collects sounds (peripheral sounds) generated around the own terminal and reaching the own terminal. The output device 16 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside.

360度カメラ17は、上述した360度映像を撮影する撮影デバイスである。360度カメラ17は、例えば2以上の広角カメラを備え、それらの広角カメラを異なる方向に向けて全ての方向を撮影範囲に収めることで360度映像を撮影する(なお、完全に全ての方向を撮影するものである必要はなく、例えば足元などに死角があってもよい)。センサ装置18は、360度カメラ17の向きを測定するセンサ(磁気センサ等)を備える。 The 360-degree camera 17 is a photographing device that captures the 360-degree image described above. The 360-degree camera 17 includes, for example, two or more wide-angle cameras, and shoots a 360-degree image by pointing the wide-angle cameras in different directions and keeping all directions within the shooting range (note that all directions are completely set). It doesn't have to be something to shoot, for example, there may be a blind spot at your feet). The sensor device 18 includes a sensor (magnetic sensor or the like) that measures the orientation of the 360-degree camera 17.

360度カメラ17には正面が定められており、センサ装置18は、その正面が向いている方向(カメラの正面方向)の方位及び仰俯角を測定する。代理人が移動したり向きを変えたりするとカメラの正面方向の向きが変化するので、センサ装置18がその向きを表す測定値を出力する。この測定値により、撮影された360度映像のうち、例えばどの部分が自端末から見て東向きの映像で、どの部分が自端末から見て鉛直上方向きの映像であるかといったことが分かるようになっている。 The front of the 360-degree camera 17 is defined, and the sensor device 18 measures the direction and elevation / depression angle in the direction in which the front is facing (front direction of the camera). When the agent moves or changes the direction, the direction of the camera in the front direction changes, and the sensor device 18 outputs a measured value indicating the direction. From this measured value, it is possible to know, for example, which part of the 360-degree image taken is the image facing east when viewed from the own terminal, and which part is the image facing vertically upward when viewed from the own terminal. It has become.

なお、センサ装置18は360度カメラ17に内蔵されていてもよい。また、入力装置15が備えるマイクロフォンも360度カメラ17に内蔵されていてもよい。プロセッサ11及びメモリ12等の各装置は、情報を通信するためのバス19を介して互いにアクセス可能となっている。バス19は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 The sensor device 18 may be built in the 360-degree camera 17. Further, the microphone included in the input device 15 may also be built in the 360-degree camera 17. Each device such as the processor 11 and the memory 12 is accessible to each other via the bus 19 for communicating information. The bus 19 may be composed of a single bus, or may be composed of different buses between the devices.

また、代理人端末10等は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the agent terminal 10 and the like are hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured to include hardware, and a part or all of each functional block may be realized by the hardware. For example, the processor 11 may be implemented on at least one of these hardware.

図3は参加人端末20のハードウェア構成を表す。参加人端末20は、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、入力装置25と、出力装置26と、センサ装置27と、バス28という各装置を備えるコンピュータである。これらの装置は、図2に表す同名の装置と性能又は仕様等の違いはあるが同種の装置である。ただし、全てが同じではないので、図2の各装置と特に重要な相違点について説明する。センサ装置27は、自端末の正面方向の向きを測定するセンサ(磁気センサ等)を備え、その正面方向が向く方位及び仰俯角を測定する。 FIG. 3 shows the hardware configuration of the participant terminal 20. The participant terminal 20 is a computer including a processor 21, a memory 22, a storage 23, a communication device 24, an input device 25, an output device 26, a sensor device 27, and a bus 28. These devices are of the same type as the devices of the same name shown in FIG. 2, although there are differences in performance or specifications. However, not all of them are the same, so a particularly important difference from each device of FIG. 2 will be described. The sensor device 27 includes a sensor (magnetic sensor or the like) that measures the orientation of the terminal in the front direction, and measures the orientation and elevation / depression angle that the front direction faces.

図4は配信サーバ装置30のハードウェア構成を表す。配信サーバ装置30は、プロセッサ31と、メモリ32と、ストレージ33と、通信装置34と、バス35という各装置を備えるコンピュータである。これらの装置は、図2に表す同名の装置と性能又は仕様等の違いはあるが同種の装置である。 FIG. 4 shows the hardware configuration of the distribution server device 30. The distribution server device 30 is a computer including a processor 31, a memory 32, a storage 33, a communication device 34, and a bus 35. These devices are of the same type as the devices of the same name shown in FIG. 2, although there are differences in performance or specifications.

仮想旅行システム1が備える代理人端末10、参加人端末20及び配信サーバ装置30には、本システムで提供されるプログラムが記憶されており、各装置のプロセッサがプログラムを実行して各部を制御することで以下に述べる機能群が実現される。
図5は仮想旅行システム1が実現する機能構成を表す。代理人端末10は、映像撮影部101と、周辺音録音部102と、カメラ向き測定部103と、撮影データ送信部104とを備える。
A program provided by this system is stored in the agent terminal 10, the participant terminal 20, and the distribution server device 30 included in the virtual travel system 1, and the processor of each device executes the program to control each unit. As a result, the function group described below is realized.
FIG. 5 shows a functional configuration realized by the virtual travel system 1. The agent terminal 10 includes a video shooting unit 101, a peripheral sound recording unit 102, a camera orientation measurement unit 103, and a shooting data transmission unit 104.

参加人端末20は、端末向き測定部201と、指定範囲決定部202と、コンテンツ出力部203と、中断・再開指示部204とを備える。図5には参加人端末20が1台しか表されていないが、複数の参加人端末20はいずれも図5に表す機能構成を実現する。配信サーバ装置30は、元データ取得部301と、映像切出部302と、指定範囲取得部303と、ライブコンテンツ生成部304と、コンテンツデータ蓄積部305と、コンテンツデータ送信部306と、短縮コンテンツ生成部307とを備える。 The participant terminal 20 includes a terminal orientation measurement unit 201, a designated range determination unit 202, a content output unit 203, and an interruption / restart instruction unit 204. Although only one participant terminal 20 is shown in FIG. 5, each of the plurality of participant terminals 20 realizes the functional configuration shown in FIG. The distribution server device 30 includes the original data acquisition unit 301, the video cutout unit 302, the designated range acquisition unit 303, the live content generation unit 304, the content data storage unit 305, the content data transmission unit 306, and the shortened content. A generation unit 307 is provided.

仮想旅行システム1においては、配信サーバ装置30が、各参加人端末20を識別する端末ID(Identification)と、それらの参加人端末20に映像を配信する際の宛先情報(IP(Internet Protocol)アドレス等)を対応付けて記憶している。また、代理人端末10及び各参加人端末20は、配信サーバ装置30の宛先情報を記憶しており、必要に応じて配信サーバ装置30とデータのやり取りを行えるようになっている。 In the virtual travel system 1, the distribution server device 30 identifies a terminal ID (Identification) that identifies each participant terminal 20, and destination information (IP (Internet Protocol) address) when the distribution server device 30 distributes video to the participant terminals 20. Etc.) are associated and stored. Further, the agent terminal 10 and each participant terminal 20 store the destination information of the distribution server device 30, and can exchange data with the distribution server device 30 as needed.

代理人端末10の映像撮影部101は、代理人の周囲の映像を撮影する。映像撮影部101は、本実施例では、図2に表す360度カメラ17を制御して、360度映像(詳細には360度映像を連続させた動画像)を撮影する。映像撮影部101は、仮想旅行サービスの提供期間(サービス開始時刻からサービス終了時刻までの期間)の間、360度映像を連続して撮影しながら、並行して、撮影した360度映像を撮影データ送信部104に供給する。 The video shooting unit 101 of the proxy terminal 10 shoots a video around the proxy. In this embodiment, the video capturing unit 101 controls the 360-degree camera 17 shown in FIG. 2 to shoot a 360-degree video (specifically, a moving image in which 360-degree video is continuous). The video shooting unit 101 continuously shoots 360-degree video during the virtual travel service provision period (the period from the service start time to the service end time), and simultaneously shoots 360-degree video as shooting data. It is supplied to the transmission unit 104.

周辺音録音部102は、図2に表す入力装置15が備えるマイクロフォンを制御して、上述した周辺音(自端末の周辺で発生して自端末に到達する音)を録音する。周辺音録音部102は、仮想旅行サービスの提供期間の間、周辺音を録音しながら、並行して、録音した周辺音を撮影データ送信部104に供給する。 The peripheral sound recording unit 102 controls the microphone included in the input device 15 shown in FIG. 2 to record the above-mentioned peripheral sound (sound generated around the own terminal and reaching the own terminal). The peripheral sound recording unit 102 supplies the recorded peripheral sound to the shooting data transmission unit 104 in parallel while recording the peripheral sound during the provision period of the virtual travel service.

カメラ向き測定部103は、図2に表すセンサ装置18を制御して、360度カメラ17について定められた正面が向いている方位及び仰俯角を測定する。これらの方位及び仰俯角は、360度カメラ17の正面の向きを示す情報であり、以下では「カメラ向き情報」という。カメラ向き測定部103は、仮想旅行サービスの提供期間の間、このカメラ向き情報(方位及び仰俯角)の測定を繰り返し行い、並行して、測定したカメラ向き情報を撮影データ送信部104に繰り返し供給する。 The camera orientation measuring unit 103 controls the sensor device 18 shown in FIG. 2 to measure the front-facing orientation and elevation / depression angle defined for the 360-degree camera 17. These orientations and elevation / depression angles are information indicating the front orientation of the 360-degree camera 17, and are hereinafter referred to as "camera orientation information". The camera orientation measuring unit 103 repeatedly measures the camera orientation information (direction and elevation / depression angle) during the virtual travel service provision period, and in parallel, repeatedly supplies the measured camera orientation information to the photographing data transmission unit 104. To do.

撮影データ送信部104は、自端末が撮影した映像に関するデータである撮影データを配信サーバ装置30に送信する。具体的には、撮影データ送信部104は、映像撮影部101から供給された360度映像と、周辺音録音部102から供給された周辺音と、カメラ向き測定部103から供給されたカメラ向き情報と、360度映像の撮影時刻(連続して撮影される各360度映像の撮影時刻)とを示すデータを撮影データとして生成し、配信サーバ装置30に送信する。 The shooting data transmission unit 104 transmits shooting data, which is data related to the video shot by the own terminal, to the distribution server device 30. Specifically, the shooting data transmission unit 104 includes 360-degree video supplied from the video shooting unit 101, peripheral sound supplied from the peripheral sound recording unit 102, and camera orientation information supplied from the camera orientation measurement unit 103. And the data indicating the shooting time of the 360-degree video (the shooting time of each 360-degree video shot continuously) is generated as shooting data and transmitted to the distribution server device 30.

配信サーバ装置30の元データ取得部301は、自装置が配信するコンテンツ(仮想旅行のコンテンツ)の元になるデータ(元データ)を取得する。元データとは、代理人端末10から送信されてくる撮影データである。元データ取得部301は、代理人端末10から送信されてくる撮影データをコンテンツの元データとして取得することで、その撮影データが示す映像、すなわち代理人端末10により撮影されたライブ映像(本実施例では360度映像)を取得する。元データ取得部301は本発明の「映像取得部」の一例である。 The original data acquisition unit 301 of the distribution server device 30 acquires the data (original data) that is the source of the content (content of the virtual tour) distributed by the own device. The original data is shooting data transmitted from the agent terminal 10. The original data acquisition unit 301 acquires the shooting data transmitted from the agent terminal 10 as the original data of the content, and the video indicated by the shooting data, that is, the live video shot by the proxy terminal 10 (this implementation). In the example, a 360-degree image) is acquired. The original data acquisition unit 301 is an example of the "video acquisition unit" of the present invention.

また、元データ取得部301は、撮影データを取得することで、その撮影データが示す音、すなわち代理人端末10に到達する音(周辺音)を取得する。元データ取得部301は、撮影データをコンテンツの元データとして取得する度に、取得した元データを映像切出部302に供給する。映像切出部302は、供給された元データが示す360度映像から、参加人端末20によって指定された範囲の映像を切り出す。 Further, the original data acquisition unit 301 acquires the shooting data, that is, the sound indicated by the shooting data, that is, the sound (ambient sound) reaching the agent terminal 10. The original data acquisition unit 301 supplies the acquired original data to the video cutting unit 302 each time the shooting data is acquired as the original data of the content. The video cutting unit 302 cuts out a video in a range specified by the participant terminal 20 from the 360-degree video indicated by the supplied original data.

範囲の指定は次のように行われる。参加人端末20の端末向き測定部201は、自端末の向きを示す情報(以下「端末向き情報」という)として、自端末について定められた正面が向く方位及び仰俯角を測定する。端末向き測定部201は、端末向き情報を一定時間の間隔で繰り返し測定し、測定した端末向き情報を指定範囲決定部202に繰り返し供給する。 The range is specified as follows. The terminal orientation measuring unit 201 of the participant terminal 20 measures the front-facing orientation and elevation / depression angle defined for the own terminal as information indicating the orientation of the own terminal (hereinafter referred to as “terminal orientation information”). The terminal orientation measuring unit 201 repeatedly measures the terminal orientation information at regular time intervals, and repeatedly supplies the measured terminal orientation information to the designated range determination unit 202.

指定範囲決定部202は、端末向き測定部201により測定された端末向き情報に基づいて、自端末に表示させる映像の範囲として指定する指定範囲を決定する。指定範囲決定部202は、例えば、供給された端末向き情報が示す向きを所定の画角(例えば縦25度、横45度など)を有するカメラで撮影した場合の映像の範囲を指定範囲として決定する。 The designated range determination unit 202 determines the designated range to be designated as the range of the image to be displayed on the own terminal based on the terminal orientation information measured by the terminal orientation measuring unit 201. The designated range determining unit 202 determines, for example, the range of the image when the direction indicated by the supplied terminal orientation information is taken by a camera having a predetermined angle of view (for example, 25 degrees in height, 45 degrees in width, etc.) as a designated range. To do.

図6は指定範囲の例を表す。図6では、映像撮影部101により撮影された360度映像A1が表されている。360度映像A1は、360度カメラ17が真北を向いて傾きが0度の状態(カメラの正面方向を水平に向けた状態)で撮影した映像である。そのため、360度映像A1では、水平線が映像の縦方向の中央(0度)に位置し、真北の方位が映像の横方向の中央に位置している。映像の上辺は360度カメラ17から見て鉛直上方(90度)の映像を表し、映像の下辺は360度カメラ17から見て鉛直下方(−90度)の映像を表している。 FIG. 6 shows an example of a specified range. In FIG. 6, a 360-degree video A1 shot by the video shooting unit 101 is shown. The 360-degree image A1 is an image taken with the 360-degree camera 17 facing true north and having an inclination of 0 degrees (a state in which the front direction of the camera is oriented horizontally). Therefore, in the 360-degree image A1, the horizontal line is located at the center (0 degree) in the vertical direction of the image, and the true north direction is located at the center in the horizontal direction of the image. The upper side of the image represents the image vertically above (90 degrees) when viewed from the 360-degree camera 17, and the lower side of the image represents the image vertically below (-90 degrees) when viewed from the 360-degree camera 17.

例えば指定範囲決定部202が、北向き且つ仰角20度を撮影した映像の範囲を指定範囲として決定した場合、360度映像A1における北向き且つ仰角20度の位置を示す撮影方向B1を中心とした指定範囲C1が決定されたことになる。また、指定範囲決定部202が、南東向き且つ俯角45度を撮影した映像の範囲を指定範囲として決定した場合、360度映像A1における南東向き且つ俯角45度の位置を示す撮影方向B2を中心とした指定範囲C2が決定されたことになる。 For example, when the designated range determination unit 202 determines the range of the image shot northward and the elevation angle of 20 degrees as the designated range, the shooting direction B1 indicating the position of the 360-degree image A1 facing north and the elevation angle of 20 degrees is centered. The designated range C1 has been determined. Further, when the designated range determination unit 202 determines the range of the image that faces southeast and has a depression angle of 45 degrees as the designated range, the center is the shooting direction B2 that indicates the position of the image facing southeast and the depression angle of 45 degrees in the 360-degree image A1. This means that the designated range C2 has been determined.

指定範囲決定部202は、決定した指定範囲を示す範囲情報として、撮影方向を示す方位及び仰俯角と、画角と、自端末の端末IDとを示す情報を生成して配信サーバ装置30に送信する。配信サーバ装置30の指定範囲取得部303は、送信されてきた範囲情報を受け取ることで、その範囲情報が示す端末IDにより識別される参加人端末20によって指定された映像の範囲、すなわち指定範囲を取得する。指定範囲取得部303は、取得した指定範囲を示す範囲情報を映像切出部302に供給する。 The designated range determination unit 202 generates information indicating the direction and elevation / depression angle indicating the shooting direction, the angle of view, and the terminal ID of the own terminal as the range information indicating the determined designated range, and transmits the information to the distribution server device 30. To do. By receiving the transmitted range information, the designated range acquisition unit 303 of the distribution server device 30 sets the range of the video designated by the participant terminal 20 identified by the terminal ID indicated by the range information, that is, the designated range. get. The designated range acquisition unit 303 supplies the image cutting unit 302 with range information indicating the acquired designated range.

映像切出部302は、元データ取得部301からコンテンツの元データが供給されると、供給された元データが示す360度映像から、指定範囲取得部303から供給された範囲情報が示す指定範囲の映像(図6の例では指定範囲C1の映像又は指定範囲C2の映像)を切り出す。なお、360度カメラ17の正面が水平方向に対して傾いていると、図6に表す360度映像A1が縦方向にずれた映像になる(水平線が縦方向にずれる)。 When the original data of the content is supplied from the original data acquisition unit 301, the image cutting unit 302 has a designated range indicated by the range information supplied from the designated range acquisition unit 303 from the 360-degree video indicated by the supplied original data. (In the example of FIG. 6, the image of the designated range C1 or the image of the designated range C2) is cut out. If the front surface of the 360-degree camera 17 is tilted with respect to the horizontal direction, the 360-degree image A1 shown in FIG. 6 becomes an image shifted in the vertical direction (the horizontal line is shifted in the vertical direction).

映像切出部302は、例えば、元データに含まれるカメラ向き情報が示す正面の向きに基づいてこの傾きを補正して360度映像A1のような映像にしてから指定範囲の映像を切り出す。この補正には、VR(Virtual Reality)又はAR(Augmented Reality)等で用いられている周知の技術が用いられればよい。なお、映像切出部302は、360度映像を補正するのではなく、傾いた360度映像における方位及び仰俯角に対応した位置を算出して指定範囲の映像を切り出してもよい。 For example, the image cutting unit 302 corrects this inclination based on the front orientation indicated by the camera orientation information included in the original data to obtain an image such as the 360-degree image A1, and then cuts out an image in a specified range. For this correction, a well-known technique used in VR (Virtual Reality), AR (Augmented Reality), or the like may be used. The image cutting unit 302 may not correct the 360-degree image, but may calculate a position corresponding to the azimuth and elevation / depression angle in the tilted 360-degree image and cut out the image in the specified range.

映像切出部302は、こうして切り出した映像を、範囲情報及び元データと共にライブコンテンツ生成部304に供給する。仮想旅行システム1においては、こうして切り出されたライブ映像をそのまま示すコンテンツと、ライブ映像を短縮したコンテンツとが配信される。以下では前者のコンテンツを「ライブコンテンツ」といい、後者のコンテンツを「短縮コンテンツ」という。また、両者を区別しない場合は単に「コンテンツ」という。 The video cutting unit 302 supplies the video cut out in this way to the live content generation unit 304 together with the range information and the original data. In the virtual travel system 1, the content showing the live image cut out in this way as it is and the content obtained by shortening the live image are distributed. In the following, the former content will be referred to as "live content" and the latter content will be referred to as "shortened content". When the two are not distinguished, they are simply called "content".

ライブコンテンツ生成部304は、ライブコンテンツを生成する機能である。ライブコンテンツ生成部304は、映像切出部302から供給された映像、すなわち参加人端末20から指定された範囲で切り出されたライブ映像と、元データが示す周辺音とを示すライブコンテンツを生成する。ライブコンテンツ生成部304は、生成したライブコンテンツと、供給された範囲情報が示す端末IDとを示すコンテンツデータを生成する。 The live content generation unit 304 is a function of generating live content. The live content generation unit 304 generates live content indicating the video supplied from the video cutting unit 302, that is, the live video cut out from the participant terminal 20 in a range specified, and the ambient sound indicated by the original data. .. The live content generation unit 304 generates content data indicating the generated live content and the terminal ID indicated by the supplied range information.

ライブコンテンツ生成部304は、生成したコンテンツデータをコンテンツデータ蓄積部305及びコンテンツデータ送信部306に供給する。コンテンツデータ蓄積部305は、ライブコンテンツ生成部304から供給されたコンテンツデータを蓄積する。コンテンツデータ送信部306は、ライブコンテンツ生成部304から供給されたコンテンツデータを、そのコンテンツデータが示す端末IDにより識別される参加人端末20に送信する。 The live content generation unit 304 supplies the generated content data to the content data storage unit 305 and the content data transmission unit 306. The content data storage unit 305 stores the content data supplied from the live content generation unit 304. The content data transmission unit 306 transmits the content data supplied from the live content generation unit 304 to the participant terminal 20 identified by the terminal ID indicated by the content data.

参加人端末20のコンテンツ出力部203は、配信サーバ装置30から送信されてきたコンテンツデータが示すコンテンツを出力する。送信されてきたコンテンツデータがライブコンテンツを示す場合には、コンテンツ出力部203は、コンテンツデータが示すライブ映像を出力装置26のディスプレイに出力して表示させ、コンテンツデータが示す周辺音を出力装置26のスピーカに出力して放音させる。 The content output unit 203 of the participant terminal 20 outputs the content indicated by the content data transmitted from the distribution server device 30. When the transmitted content data indicates live content, the content output unit 203 outputs the live image indicated by the content data to the display of the output device 26 and displays it, and outputs the ambient sound indicated by the content data to the output device 26. Output to the speaker of and emit sound.

参加人端末20を装着した参加人は、こうして出力されたコンテンツを視聴する。コンテンツの視聴とは、表示されたコンテンツの映像を見て、放音されたコンテンツの音を聞くことである。なお、音が含まれていない映像だけのコンテンツを見る場合でも「コンテンツの視聴」と言うものとする。上記の例では、参加人端末20は、コンテンツの映像として、元データ取得部301によって取得されたライブ映像(詳細にはそこから切り出された映像)を表示している。参加人端末20は本発明の「表示装置」の一例である。 Participants wearing the participant terminal 20 view the content output in this way. Viewing content means watching the video of the displayed content and listening to the sound of the released content. It should be noted that even when viewing only video content that does not contain sound, it is referred to as "viewing content". In the above example, the participant terminal 20 displays a live video (specifically, a video cut out from the video) acquired by the original data acquisition unit 301 as a video of the content. The participant terminal 20 is an example of the "display device" of the present invention.

参加人端末20の中断・再開指示部204は、配信サーバ装置30にコンテンツの視聴を中断する指示(中断指示)と、中断した視聴を再開する指示(再開指示)とを行う。例えば参加人端末20の入力装置25は中断操作用の操作子と再開操作用の操作子とを有している。中断・再開指示部204は、それらの操作子が操作された場合に、中断指示又は再開指示と現在時刻(指示した時刻を表す)とを示す指示データを配信サーバ装置30に送信することで、中断指示及び再開指示を行う。 The interruption / restart instruction unit 204 of the participant terminal 20 gives an instruction to interrupt the viewing of the content (interruption instruction) and an instruction to resume the interrupted viewing (restart instruction) to the distribution server device 30. For example, the input device 25 of the participant terminal 20 has an operator for the interrupt operation and an operator for the restart operation. When the suspend / resume instruction unit 204 is operated, the suspend / resume instruction unit 204 transmits instruction data indicating the suspend instruction or restart instruction and the current time (representing the instructed time) to the distribution server device 30. Give a suspend instruction and a restart instruction.

なお、中断操作及び再開操作はこれに限らない。例えば参加人端末20が自端末の参加人への装着の有無を検知するセンサ(近接センサ等)を備えている場合に、中断・再開指示部204は、自端末が参加人に装着されている状態から外された状態になった場合に中断を指示し、自端末が外された状態から参加人に装着された状態になった場合に再開を指示してもよい。 The suspend operation and the restart operation are not limited to this. For example, when the participant terminal 20 is provided with a sensor (proximity sensor or the like) for detecting whether or not the own terminal is attached to the participant, the interruption / restart instruction unit 204 is equipped with the own terminal attached to the participant. You may instruct the interruption when the state is removed from the state, and instruct the restart when the terminal is attached to the participant from the state where the terminal is removed.

中断・再開指示部204が送信した指示データは、配信サーバ装置30のコンテンツデータ送信部306及び短縮コンテンツ生成部307に供給される。コンテンツデータ送信部306は、本実施例では、中断指示を示す指示データを受け取ると、その指示データの送信元の参加人端末20へのコンテンツデータの送信を中断する。その後、コンテンツデータ送信部306は、再開指示を示す指示データを受け取ると、その指示データの送信元の参加人端末20へのコンテンツデータの送信を再開する。 The instruction data transmitted by the suspend / resume instruction unit 204 is supplied to the content data transmission unit 306 and the shortened content generation unit 307 of the distribution server device 30. In this embodiment, when the content data transmission unit 306 receives the instruction data indicating the interruption instruction, the content data transmission unit 306 interrupts the transmission of the content data to the participant terminal 20 of the transmission source of the instruction data. After that, when the content data transmission unit 306 receives the instruction data indicating the resumption instruction, the content data transmission unit 306 resumes the transmission of the content data to the participant terminal 20 of the transmission source of the instruction data.

なお、コンテンツデータ送信部306は、中断指示を受け取ってから再開指示を受け取るまでもコンテンツデータの送信を継続してもよい。その場合、参加人端末20はコンテンツを出力し続けるが、参加人は参加人端末20を外しているので、視聴は中断された状態になり、参加人が参加人端末20を装着することで視聴が再開される。なお、上記操作子で中断と再開が指示される場合に仮に参加人が中断の指示の後も視聴を続けていたとしても、配信サーバ装置30の各部は、中断指示から再開指示までは視聴が中断されているものとして動作すればよい。 The content data transmission unit 306 may continue transmitting the content data from the time when the interruption instruction is received until the time when the restart instruction is received. In that case, the participant terminal 20 continues to output the content, but since the participant has removed the participant terminal 20, the viewing is interrupted, and the participant wears the participant terminal 20 to view the content. Is restarted. In addition, even if the participant continues to watch after the interruption instruction when the interruption and the restart are instructed by the above-mentioned operator, each part of the distribution server device 30 can watch from the interruption instruction to the restart instruction. It may operate as if it were interrupted.

コンテンツデータ送信部306は、送信を再開する際には、本実施例では、ライブコンテンツを示すコンテンツデータを送信する前に、前述した短縮コンテンツ(ライブ映像を短縮したコンテンツ)を示すコンテンツデータを送信する。短縮コンテンツ生成部307は、この短縮コンテンツを生成し、生成した短縮コンテンツと配信先の参加人端末20の端末IDとを示すコンテンツデータを生成する。 When resuming transmission, the content data transmission unit 306 transmits the content data indicating the shortened content (content obtained by shortening the live video) described above before transmitting the content data indicating the live content in this embodiment. To do. The shortened content generation unit 307 generates the shortened content, and generates content data indicating the generated shortened content and the terminal ID of the participant terminal 20 of the distribution destination.

短縮コンテンツ生成部307は、映像切出部302により切り出されたライブ映像を短縮した短縮映像を生成し、生成した短縮映像を示す短縮コンテンツを生成する。短縮コンテンツ生成部307は、第1短縮映像、第2短縮映像及び第3短縮映像という3通りの短縮映像を生成する。それらの短縮映像について図7、図8を参照して説明する。 The shortened content generation unit 307 generates a shortened video obtained by shortening the live video cut out by the video cutting unit 302, and generates shortened content indicating the generated shortened video. The shortened content generation unit 307 generates three types of shortened video, that is, a first shortened video, a second shortened video, and a third shortened video. These shortened images will be described with reference to FIGS. 7 and 8.

図7は生成される短縮映像の例を表す。図7では、参加人端末20に表示されるライブ映像D1が360度映像の一部として撮影される期間が表され、その下にライブ映像D1が配信される参加人端末20で映像が表示される表示期間が表されている。また、表示期間の途中には、中断指示が行われた時刻と再開指示が行われた時刻が表されている。なお、本実施例では、ライブ映像D1の元データが撮影されてからライブ映像D1が切り出され、切り出されたライブ映像D1が参加人端末20に表示されるまでの時間差は無視できるほど小さいものとする。 FIG. 7 shows an example of the generated shortened video. FIG. 7 shows a period during which the live image D1 displayed on the participant terminal 20 is shot as a part of the 360-degree image, and the image is displayed on the participant terminal 20 to which the live image D1 is distributed below the period. The display period is shown. Further, in the middle of the display period, the time when the interruption instruction is given and the time when the restart instruction is given are shown. In this embodiment, the time difference between the time when the original data of the live image D1 is captured and the time when the live image D1 is cut out and the cut out live image D1 is displayed on the participant terminal 20 is negligibly small. To do.

参加人端末20(コンテンツ出力部203)は、中断指示が行われるまではライブ映像D1を表示し、中断指示が行われてから再開指示が行われるまではコンテンツの出力を中断している。参加人端末20は、再開指示が行われると、まず、ライブ映像D1のうち中断指示から再開指示までに撮影されたライブ映像D1−1を短縮した短縮映像E11を表示している。 The participant terminal 20 (content output unit 203) displays the live video D1 until the interruption instruction is given, and interrupts the output of the content from the interruption instruction to the restart instruction. When the restart instruction is given, the participant terminal 20 first displays a shortened video E11 which is a shortened version of the live video D1-1 shot from the interrupt instruction to the restart instruction in the live video D1.

参加人端末20は、次に、ライブ映像D1のうち短縮映像E11の表示中に撮影されたライブ映像D1−2を短縮した短縮映像E12を表示している。続いて、参加人端末20は、ライブ映像D1のうち短縮映像E12の表示中に撮影されたライブ映像D1−3を短縮した短縮映像E13を表示している。次に、参加人端末20は、ライブ映像D1のうち短縮映像E13の表示中に撮影されたライブ映像D1−4を短縮した短縮映像E14を表示している。 The participant terminal 20 next displays the shortened video E12, which is a shortened version of the live video D1-2 taken during the display of the shortened video E11 of the live video D1. Subsequently, the participant terminal 20 displays the shortened video E13, which is a shortened version of the live video D1-3 taken during the display of the shortened video E12 of the live video D1. Next, the participant terminal 20 displays the shortened video E14, which is a shortened version of the live video D1-4 taken during the display of the shortened video E13 of the live video D1.

そして、参加人端末20は、ライブ映像D1のうち短縮映像E14の表示中に撮影されたライブ映像D1−5を短縮した短縮映像E15を表示した後に、再びライブ映像D1を表示している。短縮映像E11のように中断指示から再開指示までに撮影されたライブ映像を短縮した映像のことを上述した「第1短縮映像」というものとする。また、短縮映像E12〜E15のように短縮映像の表示中に撮影されたライブ映像を短縮した映像のことを上述した「第2短縮映像」というものとする。 Then, the participant terminal 20 displays the live video D1 again after displaying the shortened video E15 which is a shortened version of the live video D1-5 taken during the display of the shortened video E14 of the live video D1. The video obtained by shortening the live video shot from the interruption instruction to the restart instruction, such as the shortened video E11, is referred to as the above-mentioned “first shortened video”. Further, the video obtained by shortening the live video shot during the display of the shortened video such as the shortened video E12 to E15 is referred to as the above-mentioned "second shortened video".

本実施例では、映像切出部302が、中断指示がされたときに指定されていた範囲でライブ映像の切り出しを継続する。ライブコンテンツ生成部304は、視聴が中断されている期間中も、そうして切り出されたライブ映像を示すライブコンテンツを生成する。コンテンツデータ蓄積部305は、そうして生成されたコンテンツを示すコンテンツデータを蓄積する。 In this embodiment, the video cutting unit 302 continues to cut out the live video within the range specified when the interruption instruction is given. The live content generation unit 304 generates live content indicating the live video cut out in this way even during the period in which viewing is interrupted. The content data storage unit 305 stores content data indicating the content thus generated.

短縮コンテンツ生成部307は、参加人端末20から中断指示を受け取った後に再開指示を受け取った場合に、コンテンツデータ蓄積部305からその指示の送り元の参加人端末20の端末IDを示すコンテンツデータを読み出す。短縮コンテンツ生成部307は、詳細には、中断指示が行われた時刻(指示データが示す時刻)から再開指示が行われた時刻までのライブ映像(図7の例ではライブ映像D1−1)を示すコンテンツデータを読み出す。 When the shortened content generation unit 307 receives the interruption instruction from the participant terminal 20 and then receives the restart instruction, the content data storage unit 305 generates content data indicating the terminal ID of the participant terminal 20 from which the instruction is sent. read out. In detail, the shortened content generation unit 307 displays a live image (live image D1-1 in the example of FIG. 7) from the time when the interruption instruction is given (the time indicated by the instruction data) to the time when the restart instruction is given. Read the indicated content data.

短縮コンテンツ生成部307は、例えば、読み出したコンテンツデータが示す時間的に連続する映像のうちから所定の割合の映像を均等に省いて短縮した短縮映像(図7の例では短縮映像E11)を生成する。また、短縮コンテンツ生成部307は、読み出したコンテンツデータが示す周辺音を、例えば短縮映像と同じ時間で放音するよう短縮した短縮音を生成し、短縮映像及び短縮音を重ねた短縮コンテンツを生成する。 The shortened content generation unit 307 generates, for example, a shortened video (shortened video E11 in the example of FIG. 7) by evenly omitting a predetermined ratio of videos from the temporally continuous video indicated by the read content data. To do. Further, the shortened content generation unit 307 generates a shortened sound obtained by emitting the ambient sound indicated by the read content data in the same time as, for example, the shortened video, and generates a shortened content in which the shortened video and the shortened sound are superimposed. To do.

なお、短縮コンテンツの生成方法はこれに限らない。短縮コンテンツ生成部307は、例えば盛り上がったシーンや特定のシーンを検知して抽出する周知のダイジェスト映像の生成技術を用いて短縮コンテンツを生成してもよい。以上のとおり、短縮コンテンツ生成部307は、中断指示により視聴が中断されてから再開指示により視聴が再開されるまでに元データ取得部301により取得されたライブ映像を短縮して前述した第1短縮映像(図7の例では短縮映像E11)を生成する。 The method of generating shortened content is not limited to this. The shortened content generation unit 307 may generate shortened content by using, for example, a well-known digest video generation technique for detecting and extracting a raised scene or a specific scene. As described above, the shortened content generation unit 307 shortens the live video acquired by the original data acquisition unit 301 from the time when the viewing is interrupted by the interruption instruction until the viewing is resumed by the restart instruction, and the first shortening described above. An image (shortened image E11 in the example of FIG. 7) is generated.

また、短縮コンテンツ生成部307は、短縮コンテンツを示すコンテンツデータが送信されている期間、すなわち短縮コンテンツが配信されている期間に取得されたライブ映像から切り出された映像(図7の例ではライブ映像D1−2、D1−3、D1−4、D1−5)を示すコンテンツデータを読み出す。短縮コンテンツ生成部307は、読み出したコンテンツデータが示すライブ映像を短縮した短縮映像(図7の例では短縮映像E12、E13、E14、E15)を生成する。 Further, the shortened content generation unit 307 is a video cut out from a live video acquired during a period in which content data indicating the shortened content is transmitted, that is, a period in which the shortened content is distributed (live video in the example of FIG. 7). Read the content data indicating D1-2, D1-3, D1-4, D1-5). The shortened content generation unit 307 generates a shortened video (shortened video E12, E13, E14, E15 in the example of FIG. 7) obtained by shortening the live video indicated by the read content data.

そして、短縮コンテンツ生成部307は、短縮映像E11の場合と同様に短縮音を生成して短縮コンテンツも生成する。このように、短縮コンテンツ生成部307は、短縮映像を配信しているときに元データ取得部301により取得された360度映像から切り出されたライブ映像を短縮して前述した第2短縮映像(図7の例では短縮映像E12、E13、E14、E15)を生成する。短縮コンテンツ生成部307は、本実施例では、第2短縮映像の表示時間が所定の時間未満になったときに、短縮コンテンツの生成を終了する。 Then, the shortened content generation unit 307 generates the shortened sound and also generates the shortened content as in the case of the shortened video E11. In this way, the shortened content generation unit 307 shortens the live video cut out from the 360-degree video acquired by the original data acquisition unit 301 when the shortened video is being distributed, and shortens the live video cut out from the 360-degree video described above (FIG. In the example of 7, the shortened images E12, E13, E14, E15) are generated. In this embodiment, the shortened content generation unit 307 ends the generation of the shortened content when the display time of the second shortened video becomes less than a predetermined time.

以上のとおり、映像切出部302、指定範囲取得部303、ライブコンテンツ生成部304、コンテンツデータ蓄積部305、コンテンツデータ送信部306及び短縮コンテンツ生成部307は、元データ取得部301により取得されたライブ映像を参加人端末20に配信するコンテンツ配信部308として機能する。コンテンツ配信部308は本発明の「配信部」の一例である。コンテンツ配信部308は、ライブ映像の他に、上記のとおり生成された第1短縮映像(例えば短縮映像E11)及び第2短縮映像(短縮映像E12等)も配信する。 As described above, the video cutting unit 302, the designated range acquisition unit 303, the live content generation unit 304, the content data storage unit 305, the content data transmission unit 306, and the shortened content generation unit 307 were acquired by the original data acquisition unit 301. It functions as a content distribution unit 308 that distributes live video to the participant terminal 20. The content distribution unit 308 is an example of the “distribution unit” of the present invention. In addition to the live video, the content distribution unit 308 also distributes the first shortened video (for example, shortened video E11) and the second shortened video (shortened video E12, etc.) generated as described above.

図8は生成される短縮映像の別の例を表す。図8では、図7と同様にライブ映像D2が撮影される期間とその下に参加人端末20で映像が表示される表示期間が表されている。また、表示期間の途中には、中断指示が行われた時刻及び再開指示が行われた時刻が2回ずつ表されている。この例では、第1短縮映像が配信されている途中に2回目の中断指示が行われている。 FIG. 8 shows another example of the generated shortened video. In FIG. 8, similarly to FIG. 7, a period in which the live image D2 is captured and a display period in which the image is displayed on the participant terminal 20 are shown below the period. Further, in the middle of the display period, the time when the interruption instruction is given and the time when the restart instruction is given are shown twice. In this example, the second interruption instruction is given while the first shortened video is being distributed.

参加人端末20(コンテンツ出力部203)は、1回目の再開指示が行われると、ライブ映像D2のうち中断指示から再開指示までに撮影されたライブ映像D2−1を短縮した短縮映像E21の表示を開始している。しかし、この短縮映像E21の配信中に2回目の中断指示が行われたため、参加人端末20は、短縮映像E21のうち中断指示までの短縮映像E211を表示し、中断指示以降の短縮映像E212の表示を一旦中断している。 When the first restart instruction is given, the participant terminal 20 (content output unit 203) displays a shortened video E21 which is a shortened version of the live video D2-1 taken from the interrupt instruction to the restart instruction in the live video D2. Has started. However, since the second interruption instruction was given during the distribution of the shortened image E21, the participant terminal 20 displays the shortened image E211 up to the interruption instruction among the shortened images E21, and the shortened image E212 after the interruption instruction is displayed. The display is temporarily interrupted.

参加人端末20は、2回目の再開指示が行われると、短縮映像E21のうち中断指示以降の配信部分であった短縮映像E212と、ライブ映像D2のうち1回目の再開指示から2回目の中断指示までに撮影されたライブ映像D2−2及び2回目の中断指示から2回目の再開指示までに撮影されたライブ映像D2−3を短縮した短縮映像E222とを合わせた短縮映像E22を表示している。参加人端末20は、以降は図7の例と同様に、ライブ映像D2のうち短縮映像E22、E23、E24の表示中に撮影されたライブ映像D2−4、D2−5、D2−6を短縮した短縮映像E23、E24、E25を表示している。 When the second restart instruction is given, the participant terminal 20 interrupts the shortened video E212, which is the distribution part after the interruption instruction in the shortened video E21, and the second interruption from the first restart instruction in the live video D2. Display the shortened video E22 that combines the live video D2-2 shot up to the instruction and the shortened video E222 that is a shortened version of the live video D2-3 shot from the second interruption instruction to the second restart instruction. There is. After that, the participant terminal 20 shortens the live images D2-4, D2-5, and D2-6 taken during the display of the shortened images E22, E23, and E24 of the live images D2, as in the example of FIG. The shortened images E23, E24, and E25 are displayed.

以上のとおり、短縮コンテンツ生成部307は、第1短縮映像(図8の例では短縮映像E21)を配信しているときに中断指示を受け取り、その後再開指示を受け取ると、その第1短縮映像のうち中断以降の配信部分(図8の例では短縮映像E212)と、第1短縮映像の表示開始からその再開指示を受け取るまでに取得されたライブ映像を短縮した映像(図8の例では短縮映像E222)とを合わせた短縮映像(図8の例では短縮映像E22)を生成する。 As described above, when the shortened content generation unit 307 receives the interruption instruction while delivering the first shortened video (shortened video E21 in the example of FIG. 8) and then receives the restart instruction, the shortened content generation unit 307 receives the first shortened video. Of these, the distribution part after the interruption (shortened video E212 in the example of FIG. 8) and the shortened video of the live video acquired from the start of displaying the first shortened video to the reception of the restart instruction (shortened video in the example of FIG. 8). A shortened image (shortened image E22 in the example of FIG. 8) combined with E222) is generated.

図9は生成される短縮映像の別の例を表す。図9では、図7と同様にライブ映像D3が撮影される期間とその下に参加人端末20で映像が表示される表示期間が表されている。また、図8と同様に、表示期間の途中に中断指示が行われた時刻及び再開指示が行われた時刻が2回ずつ表されている。ただし、この例では、第2短縮映像が配信されている途中に2回目の中断指示が行われている。 FIG. 9 shows another example of the generated shortened video. In FIG. 9, similarly to FIG. 7, a period in which the live image D3 is captured and a display period in which the image is displayed on the participant terminal 20 are shown below the period. Further, as in FIG. 8, the time when the interruption instruction is given and the time when the restart instruction is given are shown twice in the middle of the display period. However, in this example, the second interruption instruction is given while the second shortened video is being distributed.

参加人端末20(コンテンツ出力部203)は、まず、1回目の中断中に撮影されたライブ映像D3−1を短縮した短縮映像E31を表示している。次に、参加人端末20は、短縮映像E31の表示中に撮影されたライブ映像D3−2を短縮した短縮映像E32の表示を開始している。しかし、この短縮映像E32の配信中に2回目の中断指示が行われたため、参加人端末20は、短縮映像E32のうち中断指示までの短縮映像E321を表示し、中断指示以降の短縮映像E322の表示を一旦中断している。 The participant terminal 20 (content output unit 203) first displays a shortened video E31 that is a shortened version of the live video D3-1 taken during the first interruption. Next, the participant terminal 20 has started to display the shortened video E32, which is a shortened version of the live video D3-2 captured while the shortened video E31 is being displayed. However, since the second interruption instruction was given during the distribution of the shortened video E32, the participant terminal 20 displayed the shortened video E321 up to the interruption instruction among the shortened video E32, and the shortened video E322 after the interruption instruction. The display is temporarily interrupted.

参加人端末20は、2回目の再開指示が行われると、短縮映像E32のうち中断指示以降の配信部分であった短縮映像E322と、ライブ映像D3のうち短縮映像E32の表示開始から2回目の中断指示までに撮影されたライブ映像D3−3及び2回目の中断指示から2回目の再開指示までに撮影されたライブ映像D3−4を短縮した短縮映像E332とを合わせた短縮映像E33を表示している。参加人端末20は、以降は図7の例と同様に、ライブ映像D3のうち短縮映像E33、E34の表示中に撮影されたライブ映像D3−5、D3−6を短縮した短縮映像E34、E35を表示している。 When the second restart instruction is given, the participant terminal 20 is the second time from the start of display of the shortened video E322, which is the distribution portion of the shortened video E32 after the interruption instruction, and the shortened video E32 of the live video D3. A shortened video E33 is displayed, which is a combination of a live video D3-3 shot up to the interruption instruction and a shortened video E332 that is a shortened version of the live video D3-4 shot from the second interruption instruction to the second restart instruction. ing. After that, the participant terminal 20 is a shortened video E34, E35 obtained by shortening the live video D3-5, D3-6 taken while displaying the shortened video E33, E34 of the live video D3, as in the example of FIG. Is displayed.

以上のとおり、短縮コンテンツ生成部307は、第2短縮映像(図9の例では短縮映像E32)を配信しているときに中断指示を受け取り、その後再開指示を受け取ると、その第2短縮映像のうち中断以降の配信部分(図9の例では短縮映像E322)と、第2短縮映像の表示開始からその再開指示を受け取るまでに取得されたライブ映像を短縮した映像(図9の例では短縮映像E332)とを合わせた短縮映像(図9の例では短縮映像E33)を生成する。 As described above, when the shortened content generation unit 307 receives the interruption instruction while delivering the second shortened video (shortened video E32 in the example of FIG. 9) and then receives the restart instruction, the shortened content generation unit 307 receives the second shortened video. Of these, the distribution part after the interruption (shortened video E322 in the example of FIG. 9) and the shortened video of the live video acquired from the start of displaying the second shortened video to the reception of the restart instruction (shortened video in the example of FIG. 9). A shortened image (shortened image E33 in the example of FIG. 9) combined with E332) is generated.

コンテンツ配信部308は、短縮映像を配信しているときに中断の指示を受け取り、その後再開の指示を受け取ると、図8の例では上記のとおり生成された短縮映像E22を配信し、図9の例では上記のとおり生成された短縮映像E33を配信する。短縮映像E22、E33のように、配信していた短縮映像のうち中断以降の配信部分と、その中断から再開までに取得されたライブ映像を短縮した映像とを合わせた短縮映像のことを上述した「第3短縮映像」というものとする。 When the content distribution unit 308 receives the interruption instruction during the distribution of the shortened video and then the restart instruction, the content distribution unit 308 distributes the shortened video E22 generated as described above in the example of FIG. In the example, the shortened video E33 generated as described above is delivered. As described above, the shortened video, such as the shortened video E22 and E33, is a combination of the delivered portion of the delivered shortened video after the interruption and the shortened video of the live video acquired from the interruption to the restart. It shall be called "third shortened video".

仮想旅行システム1が備える各装置は、上記の構成に基づいて、仮想旅行のコンテンツを参加人に提供する提供処理を行う。
図10は提供処理における各装置の動作手順の一例を表す。この動作手順は、例えば、仮想旅行サービスの開始時刻になることを契機に開始される。まず、代理人端末10(映像撮影部101、周辺音録音部102、カメラ向き測定部103)は、代理人の周囲の360度映像(ライブ映像)の撮影と、周辺音の録音と、カメラ向き情報の測定とを行う(ステップS11)。
Each device included in the virtual travel system 1 performs a provision process of providing the contents of the virtual travel to the participants based on the above configuration.
FIG. 10 shows an example of the operation procedure of each device in the providing process. This operation procedure is started, for example, when the start time of the virtual travel service is reached. First, the agent terminal 10 (video shooting unit 101, peripheral sound recording unit 102, camera orientation measuring unit 103) captures a 360-degree image (live image) around the agent, records ambient sound, and is suitable for the camera. Information is measured (step S11).

次に、代理人端末10(撮影データ送信部104)は、ステップS11の各動作で得られる撮影データを配信サーバ装置30に送信する(ステップS12)。配信サーバ装置30(元データ取得部301)は、送信されてくる撮影データを、自装置が配信するコンテンツの元データとして取得する(ステップS13)。次に、参加人端末20(端末向き測定部201)は、自端末の向きを示す情報(端末向き情報)を測定する(ステップS21)。 Next, the agent terminal 10 (shooting data transmission unit 104) transmits the shooting data obtained in each operation of step S11 to the distribution server device 30 (step S12). The distribution server device 30 (original data acquisition unit 301) acquires the transmitted shooting data as the original data of the content distributed by the own device (step S13). Next, the participant terminal 20 (terminal orientation measuring unit 201) measures information indicating the orientation of the own terminal (terminal orientation information) (step S21).

続いて、参加人端末20(指定範囲決定部202)は、測定された端末向き情報に基づいて、自端末に表示させる映像の指定範囲を決定し(ステップS22)、決定した指定範囲を示す範囲情報を配信サーバ装置30に送信する(ステップS23)。配信サーバ装置30(指定範囲取得部303)は、送信されてきた範囲情報を受け取ることで指定範囲を取得する(ステップS24)。 Subsequently, the participant terminal 20 (designated range determination unit 202) determines a designated range of the image to be displayed on the own terminal based on the measured terminal orientation information (step S22), and a range indicating the determined designated range. Information is transmitted to the distribution server device 30 (step S23). The distribution server device 30 (designated range acquisition unit 303) acquires the designated range by receiving the transmitted range information (step S24).

次に、配信サーバ装置30(映像切出部302)は、ステップS13で取得された元データが示す360度映像から、取得された指定範囲の映像を切り出す(ステップS25)。続いて、配信サーバ装置30(ライブコンテンツ生成部304)は、切り出されたライブ映像と、録音された周辺音とを示すライブコンテンツを生成する(ステップS26)。 Next, the distribution server device 30 (video cutting unit 302) cuts out the acquired video in the designated range from the 360-degree video indicated by the original data acquired in step S13 (step S25). Subsequently, the distribution server device 30 (live content generation unit 304) generates live content indicating the cut out live video and the recorded ambient sound (step S26).

そして、配信サーバ装置30(コンテンツデータ送信部306)は、生成されたライブコンテンツを示すコンテンツデータを、映像の範囲を指定してきた参加人端末20に送信する(ステップS27)。参加人端末20(コンテンツ出力部203)は、送信されてきたコンテンツデータが示すライブコンテンツを出力する(ステップS28)。配信サーバ装置30(コンテンツデータ蓄積部305)は、生成されたライブコンテンツを示すコンテンツデータを蓄積する(ステップS29)。 Then, the distribution server device 30 (content data transmission unit 306) transmits the content data indicating the generated live content to the participant terminal 20 that has designated the range of the video (step S27). The participant terminal 20 (content output unit 203) outputs the live content indicated by the transmitted content data (step S28). The distribution server device 30 (content data storage unit 305) stores content data indicating the generated live content (step S29).

ここで、参加人端末20(中断・再開指示部204)が、視聴を中断する中断操作を受け付け(ステップS31)、中断指示を示す指示データを配信サーバ装置30に送信する(ステップS32)。参加人端末20(コンテンツ出力部203)は、中断操作が受け付けられると、コンテンツの出力を中断する(ステップS33)。なお、コンテンツの出力が中断しても、ステップS11からS13までの動作と、ステップS21からS26、S29の動作は引き続き繰り返し行われ、ライブコンテンツを示すコンテンツデータが蓄積されていく。 Here, the participant terminal 20 (interruption / resumption instruction unit 204) accepts the interruption operation for interrupting viewing (step S31), and transmits instruction data indicating the interruption instruction to the distribution server device 30 (step S32). When the interrupt operation is accepted, the participant terminal 20 (content output unit 203) interrupts the output of the content (step S33). Even if the output of the content is interrupted, the operations of steps S11 to S13 and the operations of steps S21 to S26 and S29 are continuously repeated, and the content data indicating the live content is accumulated.

次に、参加人端末20(中断・再開指示部204)が、視聴を再開する再開操作を受け付けると(ステップS34)、再開指示を示す指示データを配信サーバ装置30に送信する(ステップS35)。配信サーバ装置30(短縮コンテンツ生成部307)は、指示データにより再開が指示されると、視聴の中断中に撮影されたライブ映像を短縮した短縮映像を含む短縮コンテンツを生成する(ステップS41)。 Next, when the participant terminal 20 (interruption / resumption instruction unit 204) accepts the resumption operation for resuming viewing (step S34), instruction data indicating the resumption instruction is transmitted to the distribution server device 30 (step S35). When the distribution server device 30 (shortened content generation unit 307) is instructed to restart by the instruction data, the distribution server device 30 generates shortened content including the shortened live video captured during the interruption of viewing (step S41).

次に、配信サーバ装置30(コンテンツデータ送信部306)は、生成された短縮コンテンツを示すコンテンツデータを、再開を指示してきた参加人端末20に送信する(ステップS42)。参加人端末20(コンテンツ出力部203)は、送信されてきたコンテンツデータが示す短縮コンテンツを出力する(ステップS43)。続いて、配信サーバ装置30(短縮コンテンツ生成部307)は、短縮映像の表示中に撮影されたライブ映像を短縮した短縮映像を含む短縮コンテンツを生成する(ステップS51)。 Next, the distribution server device 30 (content data transmission unit 306) transmits the content data indicating the generated shortened content to the participant terminal 20 that has instructed the restart (step S42). The participant terminal 20 (content output unit 203) outputs the shortened content indicated by the transmitted content data (step S43). Subsequently, the distribution server device 30 (shortened content generation unit 307) generates shortened content including the shortened video obtained by shortening the live video captured while displaying the shortened video (step S51).

次に、配信サーバ装置30(コンテンツデータ送信部306)は、生成された短縮コンテンツを示すコンテンツデータを参加人端末20に送信する(ステップS52)。参加人端末20(コンテンツ出力部203)は、送信されてきたコンテンツデータが示す短縮コンテンツを出力する(ステップS53)。以降、ステップS51からS53までの動作が繰り返し行われ、生成される短縮コンテンツに含まれる短縮映像の表示時間が所定の時間未満になったときにこの動作手順が終了し、ステップS11から再び動作が行われる。 Next, the distribution server device 30 (content data transmission unit 306) transmits the content data indicating the generated shortened content to the participant terminal 20 (step S52). The participant terminal 20 (content output unit 203) outputs the shortened content indicated by the transmitted content data (step S53). After that, the operations from steps S51 to S53 are repeated, and when the display time of the shortened video included in the generated shortened content becomes less than a predetermined time, this operation procedure ends, and the operation is performed again from step S11. Will be done.

本実施例では、ライブ映像を短縮した短縮映像が配信されるので、ライブ映像だけが配信される場合に比べて、ライブ映像の内容を短時間でユーザ(本実施例では参加人)に把握させることができる。例えば視聴の中断中に撮影されたライブ映像を短縮した短縮映像である第1短縮映像が配信されることで、視聴の中断中のライブ映像の内容を短時間でユーザに把握させることができる。 In this embodiment, a shortened video that is a shortened version of the live video is delivered, so that the user (participant in this embodiment) can grasp the content of the live video in a shorter time than when only the live video is delivered. be able to. For example, by delivering the first shortened video which is a shortened video of the live video captured during the suspension of viewing, the user can grasp the content of the live video during the suspension of viewing in a short time.

また、短縮映像の表示中に撮影されたライブ映像を短縮した短縮映像である第2短縮映像が配信されることで、短縮映像の表示中のライブ映像の内容を短時間でユーザに把握させることができる。また、短縮映像の表示中に中断が指示された場合でも、その短縮映像のうちの視聴していない部分を含む第3短縮映像が配信されることで、中断された短縮映像の残り部分を含むライブ映像の内容を短時間でユーザに把握させることができる。 In addition, by delivering the second shortened video, which is a shortened live video shot during the display of the shortened video, the user can grasp the content of the live video being displayed in the shortened video in a short time. Can be done. Further, even if the interruption is instructed during the display of the shortened video, the remaining portion of the interrupted shortened video is included by delivering the third shortened video including the portion of the shortened video that has not been viewed. The content of the live video can be grasped by the user in a short time.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。
[2] Modifications The above-mentioned examples are merely examples of the implementation of the present invention, and may be modified as follows.

[2−1]短縮方法その1
ライブ映像を短縮する方法は実施例で述べた方法に限らない。例えば、実施例で述べたように、仮想旅行サービスは提供期間が決まっている。つまり、ライブ映像の配信には終了時刻が決まっている。そこで、短縮コンテンツ生成部307は、短縮対象のライブ映像の終了時刻から配信の終了時刻までの期間の長さに応じた時間で表示される映像を短縮映像として生成する。
[2-1] Shortening method 1
The method of shortening the live image is not limited to the method described in the examples. For example, as described in the examples, the virtual travel service has a fixed period of provision. In other words, the end time is fixed for the distribution of live video. Therefore, the shortened content generation unit 307 generates a video displayed as a shortened video in a time corresponding to the length of the period from the end time of the live video to be shortened to the end time of the distribution.

図11は本変形例の短縮映像の例を表す。図11(a)では、ライブ映像D4のうちの表示される長さがT1のライブ映像D4−1が短縮対象であり、図11(b)では、ライブ映像D4のうちの同じく表示される長さがT1のライブ映像D4−2が短縮対象となっている。ライブ映像D4−1の終了時刻からライブ映像D4の配信の終了時刻までの期間の長さT2は、ライブ映像D4−2の終了時刻からライブ映像D4の配信の終了時刻までの期間の長さT3よりも長い。 FIG. 11 shows an example of a shortened image of this modified example. In FIG. 11 (a), the live video D4-1 having a displayed length of T1 in the live video D4 is to be shortened, and in FIG. 11 (b), the same displayed length of the live video D4 is displayed. The live video D4-2 of T1 is targeted for shortening. The length of the period from the end time of the live video D4-1 to the end time of the distribution of the live video D4 T2 is the length of the period from the end time of the live video D4-2 to the end time of the distribution of the live video D4 T3. Longer than.

短縮コンテンツ生成部307は、ライブ映像D4−1を短縮した短縮映像E41を生成し、ライブ映像D4−2を短縮した短縮映像E42を生成している。短縮映像E41の表示時間T41は、短縮映像E42の表示時間T42よりも長くなっている。このように、短縮コンテンツ生成部307は、短縮対象のライブ映像の終了時刻から配信の終了時刻までの期間が長いほど表示される時間が長い映像を短縮映像として生成する。 The shortened content generation unit 307 generates a shortened video E41 that shortens the live video D4-1 and generates a shortened video E42 that shortens the live video D4-2. The display time T41 of the shortened video E41 is longer than the display time T42 of the shortened video E42. As described above, the shortened content generation unit 307 generates as the shortened video the video that is displayed for a longer time as the period from the end time of the live video to be shortened to the end time of distribution is longer.

コンテンツ配信部308は、こうして生成された短縮映像を参加人端末20に配信する。本変形例では、上記のとおり配信の終了時刻が迫ってくるほど表示される時間が短い短縮映像が生成されるので、短縮映像を表示している間に配信の終了時刻になるという事態を生じにくくすることができる。 The content distribution unit 308 distributes the shortened video generated in this way to the participant terminal 20. In this modification, as described above, the shortened video that is displayed for a shorter time is generated as the delivery end time approaches, so that the delivery end time may be reached while the shortened video is being displayed. It can be made difficult.

[2−2]静止画像の保存
実施例のように動画像(実施例では360度画像)が映像として参加人端末20に表示される場合に、気に入った場面の映像を写真のように撮影して静止画像として保存できるようにしてもよい。
図12は本変形例で実現される機能構成を表す。図12では、図5に表す各部に加えて静止画像保存指示部205を備える参加人端末20aと、図5に表す各部に加えて静止画像保存部309を備える配信サーバ装置30aとが表されている。
[2-2] Saving a still image When a moving image (360-degree image in the example) is displayed as a video on the participant terminal 20 as in the embodiment, a video of a favorite scene is taken like a photograph. It may be possible to save it as a still image.
FIG. 12 shows the functional configuration realized in this modification. In FIG. 12, a participant terminal 20a having a still image storage instruction unit 205 in addition to each unit shown in FIG. 5 and a distribution server device 30a having a still image storage unit 309 in addition to each unit shown in FIG. 5 are shown. There is.

静止画像保存指示部205は、静止画像の保存操作が行われたときに自端末に表示されている映像を静止画像として保存する指示を配信サーバ装置30aに対して行う。保存操作は、入力装置25を用いて行われてもよいし、端末向き情報によって表される所定のジェスチャによって行われてもよい。静止画像保存指示部205は、保存操作が行われた時刻と静止画像の保存を指示する旨とを示す指示データを配信サーバ装置30aに送信する。このように、参加人端末20aは、静止画像の保存を指示する機能を有している。 The still image saving instruction unit 205 gives an instruction to the distribution server device 30a to save the image displayed on the own terminal as a still image when the still image saving operation is performed. The saving operation may be performed using the input device 25, or may be performed by a predetermined gesture represented by the terminal orientation information. The still image saving instruction unit 205 transmits instruction data indicating the time when the saving operation is performed and the instruction to save the still image to the distribution server device 30a. As described above, the participant terminal 20a has a function of instructing the storage of the still image.

配信サーバ装置30aの静止画像保存部309は、送信されてきた指示データを受け取ると、送信元の参加人端末20aの端末IDを示すコンテンツデータをコンテンツデータ蓄積部305から読み出し、読み出したコンテンツデータが示す映像のうち指示データが示す時刻の映像を静止画像として保存する(どの参加人端末20aの指示によるものかが分かるように端末IDを対応付けておく)。こうして、静止画像保存部309は、参加人端末20aから静止画像の保存が指示されると、その参加人端末20aに表示されていた映像を静止画像として保存する。静止画像保存部309は本発明の「保存部」の一例である。 When the still image storage unit 309 of the distribution server device 30a receives the transmitted instruction data, the content data indicating the terminal ID of the participant terminal 20a of the transmission source is read from the content data storage unit 305, and the read content data is generated. Of the indicated images, the image at the time indicated by the instruction data is saved as a still image (the terminal ID is associated so that which participant terminal 20a is instructed can be identified). In this way, when the participant terminal 20a instructs the participant terminal 20a to save the still image, the still image storage unit 309 saves the image displayed on the participant terminal 20a as a still image. The still image storage unit 309 is an example of the "storage unit" of the present invention.

なお、静止画像の保存方法は上記方法に限らない。例えば、静止画像保存指示部205が、保存操作が行われたときにコンテンツ出力部203が出力しているコンテンツの映像をキャプチャし、キャプチャした画像を配信サーバ装置30aに送信することで、静止画像保存部309がその画像を静止画像として保存してもよい。いずれの場合も、静止画像保存部309は、参加人が参加人端末20aの他に例えばスマートフォン等を用いてアクセス可能な記憶場所に静止画像を保存する。これにより、参加人は、自分が気に入った旅行先の風景を撮影し、写真のように保存して楽しむことができる。 The method of saving the still image is not limited to the above method. For example, the still image saving instruction unit 205 captures the image of the content output by the content output unit 203 when the saving operation is performed, and transmits the captured image to the distribution server device 30a to obtain a still image. The storage unit 309 may save the image as a still image. In either case, the still image storage unit 309 stores the still image in a storage location accessible by the participant using, for example, a smartphone or the like in addition to the participant terminal 20a. This allows participants to take pictures of their favorite travel destinations, save them like photographs, and enjoy them.

[2−3]短縮方法その2
上記の静止画像を用いてライブ映像を短縮してもよい。
図13は本変形例の短縮映像の例を表す。図13では、元データ取得部301が取得する元データが示す360度映像D5が表されている。360度映像D5−1は、例えば図12に表す参加人端末20aから中断が指示されてから再開が指示されるまでに取得された映像を表している。
[2-3] Shortening method 2
The live image may be shortened by using the above still image.
FIG. 13 shows an example of a shortened image of this modified example. In FIG. 13, the 360-degree video D5 indicated by the original data acquired by the original data acquisition unit 301 is shown. The 360-degree video D5-1 represents, for example, a video acquired from the participant terminal 20a shown in FIG. 12 from the instruction of interruption to the instruction of resumption.

360度映像D5−1には、静止画像F5−1、F5−2、・・・、F5−9という9つの静止画像が保存されたことが示されている。各静止画像の縦方向の位置の違いは静止画像が示す方向の違いを表し、横方向の位置の違いは保存された時刻の違いを表している。これらの静止画像は、視聴が中断されている参加人端末20aとは異なる他の参加人端末20aからの指示により保存されている。 In the 360-degree video D5-1, it is shown that nine still images, F5-1, F5-2, ..., F5-9, are stored. The difference in the vertical position of each still image represents the difference in the direction indicated by the still image, and the difference in the horizontal position represents the difference in the saved time. These still images are stored according to an instruction from another participant terminal 20a different from the participant terminal 20a whose viewing is interrupted.

短縮コンテンツ生成部307は、これらの静止画像を含む映像を短縮映像として生成する。具体的には、短縮コンテンツ生成部307は、例えば静止画像を所定の時間ずつ表示する短縮映像(例えば表示時間が45秒で9つの静止画像を5秒ずつ表示する短縮画像)を生成する。なお、この場合の短縮映像は静止画像だけを表すことになるが、短縮コンテンツ生成部307は、ライブ映像を短縮した部分と静止画像を表す部分の両方を含む短縮映像を生成してもよい。 The shortened content generation unit 307 generates a video including these still images as a shortened video. Specifically, the shortened content generation unit 307 generates, for example, a shortened video that displays a still image for a predetermined time (for example, a shortened image that displays nine still images for 5 seconds each with a display time of 45 seconds). Although the shortened video in this case represents only a still image, the shortened content generation unit 307 may generate a shortened video including both a shortened portion of the live video and a portion representing the still image.

コンテンツ配信部308は、こうして生成された短縮映像、すなわち、参加人端末20aから指示された中断から再開までにその参加人端末20aとは異なる参加人端末20aからの指示により保存された静止画像を含む映像を短縮映像として配信する。なお、360度映像D5−1は、中断から再開までの映像に限らず、短縮映像の配信中の映像であってもよい。 The content distribution unit 308 displays the shortened video generated in this way, that is, a still image saved by an instruction from the participant terminal 20a different from the participant terminal 20a from the interruption to the restart instructed by the participant terminal 20a. Deliver the included video as a shortened video. The 360-degree video D5-1 is not limited to the video from interruption to resumption, and may be a video during distribution of the shortened video.

その場合、コンテンツ配信部308は、生成された短縮映像、すなわち、参加人端末20aへの短縮映像の配信中にその参加人端末20aとは異なる参加人端末20aからの指示により保存された静止画像を含む映像を短縮映像として配信する。いずれの場合も、他の参加人が保存した静止画像を含む短縮映像が配信されるので、参加人が視聴していない間に他の参加人が注目した映像を把握することができる。 In that case, the content distribution unit 308 delivers the generated shortened video, that is, a still image saved by an instruction from the participant terminal 20a different from the participant terminal 20a during the distribution of the shortened video to the participant terminal 20a. The video including the above is delivered as a shortened video. In either case, since the shortened video including the still image saved by the other participant is delivered, it is possible to grasp the video that the other participant paid attention to while the participant was not watching.

[2−4]静止画像の優先順位
上述した静止画像が多すぎる場合は、それらの静止画像から選択されたものを短縮映像に用いてもよい。
図14は本変形例で実現される機能構成を表す。図14では、図12に表す各部に加えて静止画像評価部310を備える配信サーバ装置30bが表されている。
[2-4] Priority of Still Images If there are too many still images described above, those selected from those still images may be used for the shortened video.
FIG. 14 shows the functional configuration realized in this modification. In FIG. 14, a distribution server device 30b including a still image evaluation unit 310 in addition to the units shown in FIG. 12 is shown.

静止画像評価部310は、静止画像保存部309により保存された静止画像を評価する。静止画像評価部310は本発明の「評価部」の一例である。静止画像評価部310は、例えば特開2008−83892号公報等に開示されている周知の技術を用いて静止画像を評価する。静止画像評価部310は、例えば、静止画像のボケ及びブレが少ないほど高く評価する。なお、評価の基準はこれに限らず、明るさ、ピント、人物の顔の向き、顔の数、顔の映り具合などを基準としてもよい。 The still image evaluation unit 310 evaluates the still image stored by the still image storage unit 309. The still image evaluation unit 310 is an example of the "evaluation unit" of the present invention. The still image evaluation unit 310 evaluates a still image using, for example, a well-known technique disclosed in Japanese Patent Application Laid-Open No. 2008-83892. For example, the still image evaluation unit 310 evaluates the still image as having less blur and blur. The evaluation criteria are not limited to this, and may be based on brightness, focus, orientation of a person's face, number of faces, appearance of a face, and the like.

静止画像評価部310は、静止画像保存部309により保存された静止画像を読み出して評価を行い、その評価結果を例えば静止画像のメタデータとして付与する。短縮コンテンツ生成部307は、図13の説明で述べたように静止画像を含む短縮映像を生成する際に、短縮映像の表示時間の長さに応じた数以下の静止画像を用いるものとする。例えば表示時間が1分で1つの静止画像当たり5秒以上表示するのであれば12個以下の静止画像が用いられる。 The still image evaluation unit 310 reads out the still image saved by the still image storage unit 309 and evaluates it, and gives the evaluation result as, for example, metadata of the still image. As described in the explanation of FIG. 13, the shortened content generation unit 307 uses a number or less of still images according to the length of the display time of the shortened video when generating the shortened video including the still image. For example, if the display time is 1 minute and one still image is displayed for 5 seconds or more, 12 or less still images are used.

短縮コンテンツ生成部307は、静止画像評価部310による評価が高いものをその評価が低いものよりも優先して含む映像を短縮映像として生成する。前述の例において静止画像が13個以上ある場合には、短縮コンテンツ生成部307は、例えば評価が高いものから12個の静止画像を含む短縮映像を生成する。コンテンツ配信部308は、こうして生成された短縮映像、すなわち、評価が高いものをその評価が低いものよりも優先して含む短縮映像を配信する。 The shortened content generation unit 307 generates a video that includes a video that is highly evaluated by the still image evaluation unit 310 over a video that has a low evaluation as a shortened video. When there are 13 or more still images in the above example, the shortened content generation unit 307 generates a shortened video including 12 still images, for example, from the one with the highest evaluation. The content distribution unit 308 distributes the shortened video generated in this way, that is, the shortened video including those having a high evaluation with priority over those having a low evaluation.

本変形例では、例えば見栄えのよい静止画像が高く評価されるようにしておけば、評価が高い、すなわち見栄えのよい映像を優先して参加人に見てもらうことができる。その結果、評価に関係なく選ばれた静止画像が用いられる場合に比べて、参加人の興味を引く短縮映像を配信することができる。なお、静止画像の選択方法は上記の方法に限らない。 In this modified example, for example, if a good-looking still image is highly evaluated, participants can be given priority in viewing a high-evaluated, that is, good-looking image. As a result, it is possible to deliver a shortened video that attracts the interest of the participants as compared with the case where the selected still image is used regardless of the evaluation. The method of selecting a still image is not limited to the above method.

例えば、視聴を中断している参加人と嗜好が類似する他の参加人が保存した静止画像が選択されてもよい。
図15は本変形例で実現される別の機能構成を表す。図15では、図12に表す各部に加えて嗜好情報取得部311を備える配信サーバ装置30cが表されている。嗜好情報取得部311は、複数の参加人端末20aのそれぞれの参加人の嗜好を示す嗜好情報を取得する。嗜好情報取得部311は本発明の「第1嗜好取得部」の一例である。
For example, a still image saved by another participant who has similar tastes to the participant who is interrupting viewing may be selected.
FIG. 15 shows another functional configuration realized in this modification. In FIG. 15, a distribution server device 30c including a preference information acquisition unit 311 in addition to each unit shown in FIG. 12 is shown. The preference information acquisition unit 311 acquires preference information indicating the preference of each participant of the plurality of participant terminals 20a. The preference information acquisition unit 311 is an example of the "first preference acquisition unit" of the present invention.

嗜好情報取得部311は、例えば、参加人が自分の嗜好情報を予め登録しており、登録された嗜好情報を配信サーバ装置30cが記憶している場合に、記憶された嗜好情報を読み出すことで参加人の嗜好情報を取得する。なお、参加人端末20aが嗜好情報を記憶していてもよく、その場合、嗜好情報取得部311は、各参加人端末20aに嗜好情報を要求し、その応答で送信されてくる嗜好情報を取得する。 The preference information acquisition unit 311 reads, for example, the stored preference information when the participant has registered his / her own preference information in advance and the distribution server device 30c stores the registered preference information. Acquire the preference information of participants. The participant terminal 20a may store the preference information. In that case, the preference information acquisition unit 311 requests the preference information from each participant terminal 20a and acquires the preference information transmitted in response to the request. To do.

嗜好情報取得部311は、取得した参加人の嗜好情報を、その参加人の参加人端末20aの端末IDに対応付けて静止画像保存部309に供給する。静止画像保存部309は、同じ端末IDに対応付けられている静止画像と嗜好情報を対応付けて保存する。短縮コンテンツ生成部307は、嗜好情報取得部311により取得された嗜好情報に基づき、短縮映像の配信先の参加人端末20aの参加人と嗜好が類似する参加人の参加人端末20aを特定する。 The preference information acquisition unit 311 supplies the acquired preference information of the participant to the still image storage unit 309 in association with the terminal ID of the participant terminal 20a of the participant. The still image storage unit 309 stores the still image associated with the same terminal ID and the preference information in association with each other. The shortened content generation unit 307 identifies the participant terminal 20a of the participant whose taste is similar to that of the participant terminal 20a to which the shortened video is distributed, based on the preference information acquired by the preference information acquisition unit 311.

短縮コンテンツ生成部307は、例えば予め類似する嗜好のグループ(スポーツ、グルメ、歴史、乗り物等)と各グループに含まれる嗜好(スポーツなら野球、サッカー、バスケ等)を定めておき、同じグループに含まれる嗜好同士を類似すると判断する。短縮コンテンツ生成部307は、特定した参加人端末20aから行われた保存の指示により保存された静止画像を他の静止画像よりも優先して含む映像を短縮映像として生成する。 For example, the shortened content generation unit 307 defines in advance groups of similar tastes (sports, gourmet, history, vehicles, etc.) and tastes included in each group (baseball, soccer, basketball, etc. for sports), and includes them in the same group. Judge that the tastes are similar to each other. The shortened content generation unit 307 generates a video that includes the still image saved by the save instruction given from the specified participant terminal 20a with priority over other still images as the shortened video.

コンテンツ配信部308は、こうして生成された短縮映像を配信する。本変形例では、自分と嗜好が類似する他の参加人が注目した静止画像を含む短縮映像を参加人に見てもらうことができる。この静止画像は、嗜好が類似しない参加人が注目した静止画像よりも参加人の興味を引くものである可能性が高いので、嗜好の類似性に関係なく選ばれた静止画像が用いられる場合に比べて、参加人の興味を引く短縮映像を配信することができる。 The content distribution unit 308 distributes the shortened video generated in this way. In this modified example, the participant can see a shortened video including a still image that is noticed by another participant who has similar tastes to himself / herself. This still image is more likely to be of interest to the participant than the still image of interest to the participants with dissimilar tastes, so when the selected still image is used regardless of the similarity of tastes. In comparison, it is possible to deliver a shortened image that attracts the interest of the participants.

[2−5]短縮方法その3
参加人の嗜好に合った対象が映っている映像を短縮映像としてもよい。
図16は本変形例で実現される機能構成を表す。図16では、図5に表す各部に加えて嗜好情報取得部311と、属性判定部312と、元データ蓄積部313とを備える配信サーバ装置30dが表されている。
[2-5] Shortening method 3
An image showing an object that suits the tastes of the participants may be a shortened image.
FIG. 16 shows the functional configuration realized in this modification. In FIG. 16, a distribution server device 30d including a preference information acquisition unit 311, an attribute determination unit 312, and an original data storage unit 313 in addition to the units shown in FIG. 5 is shown.

本変形例の嗜好情報取得部311は、参加人の嗜好を示す嗜好情報を取得する。この場合の嗜好情報取得部311は本発明の「第2嗜好取得部」の一例である。嗜好情報取得部311は、図15の説明で述べたように嗜好情報を取得する。属性判定部312は、元データ取得部301により取得されたライブ映像に映っている対象の属性を判定する。属性判定部312は本発明の「属性判定部」の一例である。 The preference information acquisition unit 311 of this modified example acquires preference information indicating the preference of the participant. The preference information acquisition unit 311 in this case is an example of the "second preference acquisition unit" of the present invention. The preference information acquisition unit 311 acquires preference information as described in the explanation of FIG. The attribute determination unit 312 determines the attribute of the target reflected in the live video acquired by the original data acquisition unit 301. The attribute determination unit 312 is an example of the "attribute determination unit" of the present invention.

対象とは、例えば乗り物、建物(一般的な建物、歴史的建造物等)、人物、自然物(草花、木、山、海等)、動物などである。属性判定部312は、例えばそれらの対象の画像と、各対象に対応する属性を記憶しておく。属性判定部312は、例えば電車、駅、鉄橋等の画像と「鉄道」という属性を対応付けて記憶し、凱旋門、エッフェル塔、ヴェルサイユ宮殿等の画像と「歴史的建造物」という属性を対応付けて記憶する。 Targets are, for example, vehicles, buildings (general buildings, historic buildings, etc.), people, natural objects (flowers, trees, mountains, sea, etc.), animals, and the like. The attribute determination unit 312 stores, for example, images of those objects and attributes corresponding to each object. The attribute determination unit 312 stores, for example, an image of a train, a station, an iron bridge, etc. in association with an attribute of "railroad", and associates an image of a triumphal arch, the Eiffel Tower, the Palace of Versailles, etc. with an attribute of "historical monument". And remember.

属性判定部312は、例えばコンテンツデータ蓄積部305から、参加人による視聴がされていない期間(中断期間、短縮映像の表示期間)のライブ映像を示すコンテンツデータを読み出し、読み出したコンテンツデータが示すライブ映像に対して予め記憶しておいたマッチング用画像を用いたパターンマッチングの処理を行う。属性判定部312は、マッチング画像と一致した対象に対応付けられた属性を、ライブ映像に映っている対象の属性として判定する。 The attribute determination unit 312 reads, for example, content data indicating a live image during a period during which the participant is not viewing (interruption period, shortened image display period) from the content data storage unit 305, and the read content data indicates the live. Pattern matching processing is performed using the matching image stored in advance for the video. The attribute determination unit 312 determines the attribute associated with the target that matches the matching image as the attribute of the target shown in the live image.

この場合のコンテンツデータは、短縮映像の配信先の参加人端末20の端末IDを示すデータでもよいし、それ以外の参加人端末20の端末IDを示すデータ(つまり他の参加人が見ていた映像を示すコンテンツデータ)でもよい。属性判定部312は、判定した属性と、その属性を判定した対象が映っていた時刻とを判定結果として記憶しておく。 The content data in this case may be data indicating the terminal ID of the participant terminal 20 to which the shortened video is delivered, or data indicating the terminal ID of the other participant terminal 20 (that is, another participant has seen it). Content data indicating an image) may be used. The attribute determination unit 312 stores the determined attribute and the time when the object for which the attribute is determined is displayed as the determination result.

短縮コンテンツ生成部307は、嗜好情報取得部311により取得された嗜好情報が示す嗜好と関連する属性が判定された対象を含むように(詳細にはその対象を映した映像を含むように)短縮映像を生成する。短縮コンテンツ生成部307は、互いに関連する嗜好と属性の組合せとして、例えば、「鉄道好き」、「撮り鉄」及び「乗り鉄」という嗜好と「鉄道」という属性の組合せ、「歴史好き」及び「歴史通」という嗜好と「史跡」、「遺跡」及び「歴史的建造物」という属性との組合せなどを記憶しておく。 The shortened content generation unit 307 is shortened so as to include an object for which an attribute related to the preference indicated by the preference information acquired by the preference information acquisition unit 311 is determined (specifically, a video showing the object is included). Generate video. The abbreviated content generation unit 307 includes, for example, a combination of tastes and attributes related to each other, such as "railroad lover", "shooting iron" and "ride iron", and a combination of attributes "railroad", "history lover" and "history lover". Memorize the combination of the preference of "historical connoisseur" and the attributes of "historic sites", "ruins" and "historical monuments".

短縮コンテンツ生成部307は、短縮映像の配信先の参加人端末20の嗜好情報を嗜好情報取得部311から読み出し、読み出した嗜好情報が示す嗜好との組合せを記憶している(つまり関連している)属性を示す判定結果を属性判定部312から読み出す。短縮コンテンツ生成部307は、読み出した判定結果が示す時刻の映像、すなわち取得された嗜好情報が示す嗜好と関連する属性が判定された対象を映した映像を含む短縮映像を生成する。 The shortened content generation unit 307 reads the preference information of the participant terminal 20 to which the shortened video is delivered from the preference information acquisition unit 311 and stores the combination with the preference indicated by the read preference information (that is, is related). ) The determination result indicating the attribute is read from the attribute determination unit 312. The shortened content generation unit 307 generates a shortened video including a video of the time indicated by the read determination result, that is, a video showing an object whose attributes related to the preference indicated by the acquired preference information are determined.

コンテンツ配信部308は、こうして生成された短縮映像を配信する。なお、属性判定部312は、上記の例では参加人端末20から指定された範囲で切り出されたライブ映像について属性を判定したが、指定範囲で切り出される前のライブ映像について属性を判定してもよい。元データ蓄積部313は、元データ取得部301により取得された元データを蓄積することで、代理人端末10により撮影されたライブ映像(360度画像)を蓄積する。 The content distribution unit 308 distributes the shortened video generated in this way. In the above example, the attribute determination unit 312 determines the attributes of the live video cut out from the participant terminal 20 in the specified range, but even if the attribute determination unit 312 determines the attributes of the live video cut out in the specified range. Good. The original data storage unit 313 accumulates the live video (360-degree image) taken by the agent terminal 10 by accumulating the original data acquired by the original data acquisition unit 301.

属性判定部312は、元データ蓄積部313から、視聴がされていない期間(中断期間、短縮映像の表示期間)のライブ映像を示す元データを読み出し、読み出した元データが示すライブ映像に映っている対象の属性を判定する。いずれのライブ映像から属性を判定した場合でも、参加人の嗜好に関連する属性を有する対象が短縮映像に映ることになるので、参加人の嗜好と短縮映像に関係がない場合に比べて、参加人の興味を引く短縮映像を配信することができる。 The attribute determination unit 312 reads from the original data storage unit 313 the original data indicating the live image during the period during which the viewing is not performed (interruption period, display period of the shortened image), and is reflected in the live image indicated by the read original data. Determine the attributes of the target. Regardless of which live video the attribute is judged from, the target with the attribute related to the participant's preference will be reflected in the shortened video, so compared to the case where the participant's preference and the shortened video are not related, participation It is possible to deliver a shortened video that attracts people's interest.

[2−6]短縮方法その4
表示された映像の中で参加人が見ている対象の傾向に合った短縮映像が配信されてもよい。
図17は本変形例で実現される機能構成を表す。図17では、図5に表す各部に加えて視線位置通知部206を備える参加人端末20eと、図5に表す各部に加えて属性判定部312と、元データ蓄積部313とを備える配信サーバ装置30eが表されている。
[2-6] Shortening method 4
In the displayed video, a shortened video that matches the tendency of the target that the participant is watching may be delivered.
FIG. 17 shows the functional configuration realized in this modification. In FIG. 17, a participant terminal 20e having a line-of-sight position notification unit 206 in addition to each unit shown in FIG. 5 and a distribution server device including an attribute determination unit 312 and an original data storage unit 313 in addition to each unit shown in FIG. 30e is represented.

参加人端末20eの視線位置通知部206は、自端末に表示されている映像において参加人の視線が向いている位置を配信サーバ装置30eに通知する。参加人端末20eは、自端末の装着者の眼を撮影する撮影装置を備えている。視線位置通知部206は、撮影された眼の画像から例えば目頭と虹彩の位置を特定し、それらの位置及び互いの位置関係に基づいて視線が向いている位置を判定する。 The line-of-sight position notification unit 206 of the participant terminal 20e notifies the distribution server device 30e of the position where the line-of-sight of the participant is facing in the video displayed on the own terminal. The participant terminal 20e is provided with a photographing device for photographing the eyes of the wearer of the own terminal. The line-of-sight position notification unit 206 identifies, for example, the positions of the inner corner of the eye and the iris from the captured image of the eye, and determines the position where the line of sight is directed based on those positions and the mutual positional relationship.

視線位置通知部206は、例えば、右眼の目頭から虹彩が離れていれば右側を見ており、右眼の目頭に虹彩が近づいていれば左側を見ているというように判定する。なお、視線が向いている位置の判定方法はこれに限らずその他の周知技術が用いられてもよい。視線位置通知部206は、参加者の視線が見ている映像上の位置と、その映像が表示された時刻を示す視線情報を配信サーバ装置30eに送信する。 The line-of-sight position notification unit 206 determines, for example, that if the iris is far from the inner corner of the right eye, it is looking at the right side, and if the iris is close to the inner corner of the right eye, it is looking at the left side. The method for determining the position where the line of sight is directed is not limited to this, and other well-known techniques may be used. The line-of-sight position notification unit 206 transmits to the distribution server device 30e the line-of-sight information indicating the position on the image that the participant's line of sight is looking at and the time when the image is displayed.

配信サーバ装置30eでは、送信されてきた視線情報が属性判定部312に供給される。属性判定部312は、参加人端末20eが表示する映像において参加人の視線が向いている位置に映っている対象の属性(以下「第1属性」という)を判定する。この場合の属性判定部312は本発明の「第1判定部」の一例である。属性判定部312は、視線情報が示す時刻に参加人端末20eで表示された映像を示すコンテンツデータをコンテンツデータ蓄積部305から読み出し、図16の説明で述べたようにパターンマッチング処理を行う。 In the distribution server device 30e, the transmitted line-of-sight information is supplied to the attribute determination unit 312. The attribute determination unit 312 determines the attribute of the target (hereinafter referred to as “first attribute”) reflected in the position where the line of sight of the participant is facing in the image displayed by the participant terminal 20e. The attribute determination unit 312 in this case is an example of the "first determination unit" of the present invention. The attribute determination unit 312 reads the content data indicating the image displayed on the participant terminal 20e at the time indicated by the line-of-sight information from the content data storage unit 305, and performs pattern matching processing as described in the description of FIG.

属性判定部312は、視線情報が示す位置においてマッチング画像と一致した対象に対応付けられた属性を第1属性として判定する。また、属性判定部312は、図16の説明で述べたように、元データ取得部301により取得されたライブ映像に映っている対象の属性(以下「第2属性」という)を判定する。この場合の属性判定部312は本発明の「第2判定部」の一例である。 The attribute determination unit 312 determines as the first attribute the attribute associated with the target that matches the matching image at the position indicated by the line-of-sight information. Further, as described in the explanation of FIG. 16, the attribute determination unit 312 determines the attribute of the target (hereinafter referred to as “second attribute”) reflected in the live video acquired by the original data acquisition unit 301. The attribute determination unit 312 in this case is an example of the "second determination unit" of the present invention.

属性判定部312は、参加人端末20eを装着した参加人がライブ映像を視聴している期間は第1属性を判定し、判定した第1属性を短縮コンテンツ生成部307に通知する。また、属性判定部312は、その参加人がライブ映像を視聴していない期間(中断中の期間及び短縮映像を視聴している期間)は第2属性を判定し、判定した第2属性を短縮コンテンツ生成部307に通知する。 The attribute determination unit 312 determines the first attribute during the period in which the participant wearing the participant terminal 20e is watching the live video, and notifies the shortened content generation unit 307 of the determined first attribute. In addition, the attribute determination unit 312 determines the second attribute during the period when the participant is not watching the live video (the period during which the participant is interrupted and the period during which the shortened video is being viewed), and shortens the determined second attribute. Notify the content generation unit 307.

短縮コンテンツ生成部307は、判定された第1属性と関連する第2属性が判定された対象を含むようにライブ映像を短縮した短縮映像を生成する。例えば凱旋門及びエッフェル塔等には「歴史的建造物」という属性が、コロッセオ及びフォロ・ロマーノ等には「遺跡」又は「史跡」という属性が対応付けられている。短縮コンテンツ生成部307は、「歴史的建造物」、「遺跡」及び「史跡」はいずれも歴史に関する属性ということで互いに関連する属性として記憶している。 The shortened content generation unit 307 generates a shortened video in which the live video is shortened so as to include the target for which the second attribute related to the determined first attribute is determined. For example, the Arc de Triomphe and the Eiffel Tower are associated with the attribute "historical monument", and the Colosseum and Roman Forum are associated with the attribute "ruins" or "historic sites". The abbreviated content generation unit 307 stores "historical buildings", "ruins", and "historic sites" as attributes related to each other because they are all related to history.

短縮コンテンツ生成部307は、例えば第1属性として「遺跡」が判定された場合、「遺跡」に関連する属性である「遺跡」、「史跡」又は「歴史的建造物」が第2属性として判定された対象を含む範囲を元のライブ映像(360度映像)から切り出す。なお、この例のように第1属性及び第2属性が同じ場合も互いに関連する属性として扱う。また、互いに関連する属性の関係はこれに限らない。例えば「遺跡」及び「史跡」は互いに関連するがそれらと「歴史的建造物」は関連しないものとしてもよい。互いに関連する属性の関係は例えば仮想旅行サービスの提供事業者によって定められる。 For example, when the abbreviated content generation unit 307 determines "ruins" as the first attribute, the abbreviated content generation unit 307 determines that "ruins", "historic sites", or "historical buildings", which are attributes related to "ruins", as the second attribute. The range including the target is cut out from the original live image (360 degree image). Even if the first attribute and the second attribute are the same as in this example, they are treated as related attributes. Moreover, the relationship of attributes related to each other is not limited to this. For example, "ruins" and "historic sites" may be related to each other, but they may not be related to "historical monuments". The relationship of attributes related to each other is determined by, for example, a virtual travel service provider.

なお、映像の切り出しは、映像切出部302に指示して行わせてもよい。短縮コンテンツ生成部307は、そうして切り出した映像だと短縮映像として長すぎる場合は、それをさらに短縮した映像を短縮映像として生成する。また、短縮コンテンツ生成部307は、切り出した映像だと短縮映像として短すぎる場合は、例えば実施例のように中断時の指定範囲で切り出した映像を加えた短縮映像を生成する。 The image may be cut out by instructing the image cutting unit 302. If the shortened content generation unit 307 is too long as a shortened video, the shortened content generation unit 307 generates a shortened video as a shortened video. If the cut-out video is too short as the shortened video, the shortened content generation unit 307 generates a shortened video by adding the video cut out in the specified range at the time of interruption as in the embodiment.

コンテンツ配信部308は、こうして生成された短縮映像を配信する。なお、図17の例では、短縮コンテンツ生成部307が映像に映っている対象の属性同士の関連性に基づいて短縮映像に含める対象を判断したが、例えば図16に表す嗜好情報取得部311を参加人端末20eに備えさせて、嗜好情報取得部311が、判定された第1属性に関連する嗜好を示す嗜好情報を取得し、短縮コンテンツ生成部307が、取得された嗜好情報が示す嗜好に関連する第2属性が判定された対象を短縮映像に含めるようにしてもよい。 The content distribution unit 308 distributes the shortened video generated in this way. In the example of FIG. 17, the shortened content generation unit 307 determines the target to be included in the shortened video based on the relationship between the attributes of the target shown in the video. For example, the preference information acquisition unit 311 shown in FIG. 16 is used. In preparation for the participant terminal 20e, the preference information acquisition unit 311 acquires the preference information indicating the preference related to the determined first attribute, and the shortened content generation unit 307 sets the preference indicated by the acquired preference information. The object for which the related second attribute is determined may be included in the shortened video.

いずれの場合でも、ユーザ(参加人)は自分が興味を持つ対象に目線を向けることが多いので、第1属性は(第1属性に関連する嗜好も)ユーザが興味を持つ分野を表すことになりやすい。そのため第1属性に関連する第2属性も、他の属性に比べてユーザが興味を持つ可能性が高い分野を表しやすいので、第2属性が判定された対象が短縮映像に映っていることで、第2属性と短縮映像に関係がない場合に比べて、参加人の興味を引く短縮映像を配信することができる。 In either case, the user (participant) often looks at the object that he or she is interested in, so the first attribute (including the preferences related to the first attribute) represents the field that the user is interested in. Prone. Therefore, the second attribute related to the first attribute is more likely to represent a field in which the user is more likely to be interested than the other attributes, so that the target for which the second attribute is determined is reflected in the shortened video. , It is possible to deliver a shortened video that attracts the interest of the participants, as compared with the case where the second attribute and the shortened video are not related.

[2−7]短縮方法その5
上記変形例では参加人が保存操作を行ったときに静止画像が保存されたが、配信サーバ装置が判断したときに静止画像を保存してもよい。また、静止画像と動画像とが混在する短縮映像が配信されてもよい。
[2-7] Shortening method 5
In the above modification, the still image is saved when the participant performs the save operation, but the still image may be saved when the distribution server device determines. Further, a shortened video in which a still image and a moving image are mixed may be delivered.

図18は本変形例で実現される機能構成を表す。図18では、図5に表す各部に加えて特定対象判定部314を備える配信サーバ装置30fが表されている。特定対象判定部314は、元データ取得部301により取得されたライブ映像に特定の対象が映っているか否かを判定する。特定の対象としては、例えば、人、動物、乗り物及び滝等の動きを見たい物、彫刻及びオブジェ等の立体的に見たい物、又は、楽器及び舞台等の音も一緒に聴きたい物等が定められる。 FIG. 18 shows the functional configuration realized in this modification. In FIG. 18, a distribution server device 30f including a specific target determination unit 314 in addition to each unit shown in FIG. 5 is shown. The specific target determination unit 314 determines whether or not a specific target is reflected in the live video acquired by the original data acquisition unit 301. Specific objects include, for example, objects that want to see the movement of people, animals, vehicles, waterfalls, etc., objects that want to see three-dimensionally, such as sculptures and objects, or objects that want to listen to the sounds of musical instruments and the stage together. Is determined.

特定対象判定部314は、例えば特定の対象の画像を予め記憶しておき、コンテンツデータ蓄積部305から蓄積されているコンテンツデータを読み出して、読み出したコンテンツデータが示すライブ映像(取得されたライブ映像の一例)における特定の対象の有無をパターンマッチングの技術を用いて判定する。特定対象判定部314は、特定の対象が映っている時刻及び映っていない時刻を示す判定結果をコンテンツデータと共に短縮コンテンツ生成部307に供給する。 For example, the specific target determination unit 314 stores an image of a specific target in advance, reads the stored content data from the content data storage unit 305, and shows a live image (acquired live image) indicated by the read content data. The presence or absence of a specific target in (1 example) is determined by using a pattern matching technique. The specific target determination unit 314 supplies the shortened content generation unit 307 together with the content data with the determination result indicating the time when the specific object is displayed and the time when the specific object is not displayed.

短縮コンテンツ生成部307は、特定対象判定部314により特定の対象が映っていると判定された映像を動画像で含み、特定対象判定部314により特定の対象が映っていないと判定された映像を静止画像で含む映像を短縮映像として生成する。コンテンツ配信部308は、こうして生成された短縮映像を配信する。
図19は本変形例の短縮映像の例を表す。図19では、コンテンツデータが示すライブ映像D6が表されている。
The shortened content generation unit 307 includes an image determined by the specific target determination unit 314 to show a specific target as a moving image, and includes an image determined by the specific target determination unit 314 that the specific object is not shown. The video included in the still image is generated as a shortened video. The content distribution unit 308 distributes the shortened video generated in this way.
FIG. 19 shows an example of a shortened image of this modified example. In FIG. 19, the live video D6 indicated by the content data is shown.

中断指示から再開指示がされるまでのライブ映像D6には、特定の対象が映った動画像D6−1、D6−2が含まれている。短縮コンテンツ生成部307は、この動画像D6−1、D6−2を含み、ライブ映像D6の他の部分に含まれる静止画像F11、F12、・・・、F18を含む短縮映像E61を生成している。これらの静止画像は、ライブ映像D6のうち特定の対象が映っていない部分における一定時間の間隔の映像を抜き出したものである。 The live video D6 from the interruption instruction to the restart instruction includes moving images D6-1 and D6-2 showing a specific target. The shortened content generation unit 307 generates a shortened video E61 including the moving images D6-1 and D6-2 and still images F11, F12, ..., F18 included in other parts of the live video D6. There is. These still images are extracted images of a fixed time interval in a portion of the live image D6 in which a specific object is not displayed.

短縮映像に含まれる静止画像が多いほど短縮映像のデータ量が少なくなり、通信の遅延が生じにくくなる。図19の例では、そのように静止画像を含めることで通信の遅延を抑制しつつ、動きを見たい対象については動画像で参加人に見せることができる。なお、短縮コンテンツ生成部307は、上述した例とは反対に、特定の対象が映っていると判定された映像を静止画像で含み、特定の対象が映っていないと判定された映像を動画像で含む映像を短縮映像として生成してもよい。 As the number of still images included in the shortened video increases, the amount of data in the shortened video decreases, and communication delays are less likely to occur. In the example of FIG. 19, by including the still image in this way, the delay in communication can be suppressed, and the object whose movement is desired can be shown to the participants as a moving image. Contrary to the above example, the shortened content generation unit 307 includes a still image that is determined to show a specific target, and a moving image that is determined not to show a specific target. The image included in may be generated as a shortened image.

この場合は、例えば絵画、風景及び建造物等が特定の対象として定められる。これにより、絵画のように動かさないで見たい対象については静止画像で参加人に見せることができる。以上のとおり、本変形例の短縮コンテンツ生成部307は、特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を短縮映像として生成する。 In this case, for example, paintings, landscapes, buildings, etc. are defined as specific objects. As a result, it is possible to show the participants a still image of an object that they want to see without moving it like a painting. As described above, the shortened content generation unit 307 of this modification includes the video determined to show a specific target in one of the moving image and the still image, and determines that the specific target is not shown. A video including the video as one of the moving image and the still image is generated as a shortened video.

[2−8]短縮方法その6
短縮コンテンツ生成部307は、上記の各例とは異なる方法で短縮コンテンツを生成してもよい。本変形例の短縮コンテンツの生成方法を、図20を参照して説明する。
図20は本変形例で生成される短縮映像の一例を表す。
[2-8] Shortening method 6
The shortened content generation unit 307 may generate the shortened content by a method different from each of the above examples. A method of generating shortened content of this modification will be described with reference to FIG.
FIG. 20 shows an example of a shortened image generated in this modified example.

図20では、ライブ映像D7を短縮した短縮映像E7が生成されている。短縮コンテンツ生成部307は、参加人端末20からの再開指示を受け取ると、中断指示以降に取得されたライブ映像D7を対象に短縮映像E7の生成を開始する。短縮コンテンツ生成部307は、例えばライブ映像D7の再生速度(動画が表示される速度)をN倍(Nは1.0より大きい数)にした短縮映像E7の生成を開始する。 In FIG. 20, a shortened video E7 is generated by shortening the live video D7. Upon receiving the restart instruction from the participant terminal 20, the shortened content generation unit 307 starts generating the shortened video E7 for the live video D7 acquired after the interruption instruction. The shortened content generation unit 307 starts generating the shortened video E7 in which, for example, the playback speed (speed at which the moving image is displayed) of the live video D7 is multiplied by N (N is a number greater than 1.0).

短縮コンテンツ生成部307は、短縮映像E7の生成と並行して、生成した短縮映像E7を示すコンテンツデータをコンテンツデータ送信部306に供給する。コンテンツデータ送信部306が供給されたコンテンツデータを送信することで、参加人端末20のコンテンツ出力部203が送信されてきたコンテンツデータが示す短縮映像E7を出力する。 The shortened content generation unit 307 supplies the content data indicating the generated shortened video E7 to the content data transmission unit 306 in parallel with the generation of the shortened video E7. By transmitting the supplied content data by the content data transmission unit 306, the content output unit 203 of the participant terminal 20 outputs the shortened video E7 indicated by the transmitted content data.

このような配信サーバ装置30によるライブ映像の取得及び参加人端末20による短縮映像の出力の並行実施は、例えば周知の追いかけ再生の技術(ライブ映像の配信が開始された後に途中から視聴を開始した場合にそのライブ映像を最初から再生する技術)を用いて行われればよい。短縮コンテンツ生成部307は、短縮映像E7の出力が取得するライブ映像D7に追いついたところで短縮映像E7の生成を終了する。 The parallel execution of the acquisition of the live video by the distribution server device 30 and the output of the shortened video by the participant terminal 20 is, for example, a well-known chase reproduction technique (viewing is started from the middle after the distribution of the live video is started). In some cases, this may be done using a technique for reproducing the live video from the beginning). The shortened content generation unit 307 ends the generation of the shortened video E7 when the output of the shortened video E7 catches up with the live video D7 acquired.

本変形例では、上述した再生速度の倍率を大きくするほど短縮映像がライブ映像に追いつく時刻が早くなり、その倍率を小さくするほど短縮映像の内容を把握しやすくなる。なお、反対に、短縮映像をライブ映像に追いつかせたい時刻から逆算して再生速度の倍率を算出してもよい。例えば、ライブ映像の終了時刻よりも所定の時間前(例えば30分前)の時刻を目標時刻として短縮映像をライブ映像に追いつかせたいものとする。 In this modification, the larger the magnification of the playback speed described above, the faster the time when the shortened video catches up with the live video, and the smaller the magnification, the easier it is to grasp the content of the shortened video. On the contrary, the magnification of the playback speed may be calculated by calculating back from the time when the shortened video is desired to catch up with the live video. For example, it is assumed that a time before a predetermined time (for example, 30 minutes) before the end time of the live video is set as a target time and the shortened video is caught up with the live video.

短縮コンテンツ生成部307は、再開指示がされた時刻から目標時刻までの時間(図20の例であれば短縮映像E7の再生時間)で中断指示がされた時刻から目標時刻までの時間(図20の例であればライブ映像D7の再生時間)を除した値を倍率として算出する。短縮映像をこの倍率で再生すれば、目標時刻にはライブ映像と同じ再生位置に達することになる。 The shortened content generation unit 307 is the time from the time when the restart instruction is given to the target time (the playback time of the shortened video E7 in the example of FIG. 20) from the time when the interruption instruction is given to the target time (FIG. 20). In the case of the above example, the value obtained by dividing the playback time of the live video D7) is calculated as the magnification. If the shortened video is played back at this magnification, it will reach the same playback position as the live video at the target time.

また、短縮コンテンツ生成部307は、ライブ映像に参加人の嗜好に合った対象が映っている度合いに応じて倍率を変化させてもよい。具体的には、短縮コンテンツ生成部307は、中断指示がされるまでのライブ映像において、参加人の嗜好に合った対象が映っている時間の比率を算出し、算出した比率が大きいほど(つまり参加人の嗜好に合った対象が多く映っているライブ映像ほど)倍率を小さく変化させる。 In addition, the shortened content generation unit 307 may change the magnification according to the degree to which an object matching the taste of the participant is displayed in the live video. Specifically, the shortened content generation unit 307 calculates the ratio of the time during which the target that matches the taste of the participant is displayed in the live video until the interruption instruction is given, and the larger the calculated ratio (that is, that is). Change the magnification smaller (the more the live video shows more objects that match the tastes of the participants).

参加人の嗜好に合った対象が映っている映像の判断は、図16に表す嗜好情報取得部311及び属性判定部312によって行われればよい。これにより、中断中の映像に参加人が見たい内容が多く含まれているほど短縮映像の内容を把握しやすくすることができる。 The determination of the image showing the target matching the taste of the participant may be performed by the preference information acquisition unit 311 and the attribute determination unit 312 shown in FIG. As a result, the more the content that the participant wants to see is included in the interrupted video, the easier it is to grasp the content of the shortened video.

[2−9]短縮映像
コンテンツ配信部308は、実施例では、短縮コンテンツ生成部307が生成した短縮映像を配信したが、これに限らない。コンテンツ配信部308は、例えばライブ映像を示す元データに、そのライブ映像のうち短縮映像に含まれる部分の時刻情報(その部分の開始時刻及び終了時刻)をメタ情報として付加したもの(タグ付けともいう)を送信することで、短縮映像を配信してもよい。
[2-9] In the embodiment, the shortened video content distribution unit 308 distributes the shortened video generated by the shortened content generation unit 307, but the present invention is not limited to this. For example, the content distribution unit 308 adds time information (start time and end time of the part) of the live video to the original data indicating the live video as meta information (also tagged). The shortened video may be delivered by transmitting (referred to as).

[2−10]視聴継続中の短縮映像
参加人が視聴を中断していない場合でも、短縮映像が配信されてもよい。例えば参加人が配信中のライブ映像よりも以前配信されたライブ映像又は他の参加人が見たライブ映像の短縮映像を見たいという場合に、短縮映像の配信を指示する操作(特定の操作子の操作又は特定のジェスチャ等)を行う。その際、短縮映像の対象となる期間(開始時刻、終了時刻)及び映像(自分又は他の参加人の映像等)が入力されてもよい。
[2-10] Shortened video during continuous viewing The shortened video may be delivered even when the participant does not interrupt the viewing. For example, when a participant wants to see a live video delivered before the live video being delivered or a shortened video of a live video seen by another participant, an operation of instructing the delivery of the shortened video (a specific controller). Or perform a specific gesture, etc.). At that time, a period (start time, end time) and a video (video of oneself or another participant, etc.) that are the targets of the shortened video may be input.

参加人端末20は、これらの操作が行われると、短縮映像の生成を指示する指示データを配信サーバ装置30に送信する。短縮コンテンツ生成部307は、この指示を受け取ると、指示された期間の映像を短縮した短縮映像を生成する。コンテンツ配信部308は、こうして生成された短縮映像を配信する。本変形例でも、実施例と同様に、短縮映像が配信されない場合に比べて、そのユーザにライブ映像の内容を短時間で把握させることができる。 When these operations are performed, the participant terminal 20 transmits instruction data instructing the generation of the shortened video to the distribution server device 30. Upon receiving this instruction, the shortened content generation unit 307 generates a shortened video obtained by shortening the video for the instructed period. The content distribution unit 308 distributes the shortened video generated in this way. Also in this modified example, as in the embodiment, the user can grasp the content of the live video in a short time as compared with the case where the shortened video is not delivered.

[2−11]複数の代理人端末
旅行先の映像を撮影する代理人端末が複数あってもよい。
図21は本変形例の仮想旅行システム1gの全体構成を表す。仮想旅行システム1は、図1に表す代理人端末10に代えて、代理人端末10g−1、10g−2、10g−3、・・・(以下それぞれを区別しない場合は「代理人端末10g」という)を備えている。
[2-11] Multiple Agent Terminals There may be a plurality of agent terminals that capture images of travel destinations.
FIG. 21 shows the overall configuration of the virtual travel system 1g of this modified example. In the virtual travel system 1, instead of the agent terminal 10 shown in FIG. 1, the agent terminals 10g-1, 10g-2, 10g-3, ... (If the following are not distinguished, "agent terminal 10g"" ) Is provided.

代理人端末10gは、いずれも、図1に表す代理人端末10と同じハードウェア構成及び機能構成を有する。配信サーバ装置30の元データ取得部301は、コンテンツの元データとして、各代理人端末10gから送信されてくる撮影データを取得する。各参加人端末20では、例えば配信させるコンテンツに含まれる映像を撮影する代理人端末10gを選択する操作が行われる。この操作は、入力装置25を用いて行われてもよいし、端末向き情報によって表される所定のジェスチャによって行われてもよい。 Each of the agent terminals 10g has the same hardware configuration and functional configuration as the agent terminal 10 shown in FIG. The original data acquisition unit 301 of the distribution server device 30 acquires the shooting data transmitted from each agent terminal 10g as the original data of the content. At each participant terminal 20, for example, an operation of selecting an agent terminal 10g for capturing a video included in the content to be distributed is performed. This operation may be performed by using the input device 25 or by a predetermined gesture represented by the terminal orientation information.

参加人端末20の指定範囲決定部202は、決定した指定範囲に加えて選択された代理人端末10gの端末IDを示す範囲情報を配信サーバ装置30に送信する。指定範囲取得部303は、送信されてきた範囲情報を受け取ることで、その範囲情報が示す端末IDにより識別される代理人端末10gの映像において指定された映像の範囲、すなわち指定範囲を取得する。 The designated range determination unit 202 of the participant terminal 20 transmits range information indicating the terminal ID of the selected agent terminal 10g in addition to the determined designated range to the distribution server device 30. By receiving the transmitted range information, the designated range acquisition unit 303 acquires the range of the video specified in the video of the agent terminal 10g identified by the terminal ID indicated by the range information, that is, the designated range.

映像切出部302は、取得された範囲情報が示す映像の範囲、すなわち参加人が選択した代理人端末10gの映像における指定範囲の切り出しを行う。ライブコンテンツ生成部304は、こうして切り出された映像、すなわち参加人が選択した代理人端末10gが撮影した映像から切り出された映像を示すコンテンツデータを生成する。コンテンツデータ送信部306は、生成されたコンテンツデータを参加人端末20に送信する。 The video cutting unit 302 cuts out the range of the video indicated by the acquired range information, that is, the designated range in the video of the agent terminal 10g selected by the participant. The live content generation unit 304 generates content data indicating the video cut out in this way, that is, the video cut out from the video shot by the agent terminal 10g selected by the participant. The content data transmission unit 306 transmits the generated content data to the participant terminal 20.

以上のとおり、本変形例では、コンテンツ配信部308が、参加人によって選択された代理人端末10gが撮影した映像から切り出された映像を含むコンテンツをその参加人の参加人端末20に配信する。また、参加人は、コンテンツの出力中に、自分が見たい映像を撮影する代理人(代理人端末10g)を変更してもよい。また、複数の代理人が撮影する場所は、同じ観光地の中の異なる場所(例えば公園の中の入口付近、中央、出口付近など)であってもよいし、異なる観光地であってもよい。いずれの場合も、代理人が1人である場合に比べて、より広範囲の映像から参加人が見たい映像を指定することができる。 As described above, in the present modification, the content distribution unit 308 distributes the content including the video cut out from the video captured by the agent terminal 10g selected by the participant to the participant terminal 20 of the participant. In addition, the participant may change the agent (agent terminal 10g) for shooting the image he / she wants to see while outputting the content. Further, the places taken by the plurality of agents may be different places in the same tourist spot (for example, near the entrance, the center, the exit in the park, etc.), or may be different tourist spots. .. In either case, the video that the participant wants to see can be specified from a wider range of video as compared with the case where there is only one agent.

[2−12]参加人端末
実施例ではヘッドマウントディスプレイ(HMD)が参加人端末として用いられたが、これに限らない。例えばスマートフォン、タブレット端末又はパソコン等が参加人端末として用いられてもよい。要するに、ライブ映像及び短縮映像を表示可能な装置であれば、どのような表示装置が参加人端末として用いられてもよい。
[2-12] Participant Terminal In the embodiment, a head-mounted display (HMD) is used as a participant terminal, but the present invention is not limited to this. For example, a smartphone, a tablet terminal, a personal computer, or the like may be used as a participant terminal. In short, any display device may be used as the participant terminal as long as it is a device capable of displaying live video and shortened video.

また、参加人端末は、有線又は無線で接続される操作用のデバイスを有していてもよい。操作用のデバイスとは、例えば手で握って操作するコントローラ又は体(例えば手や足)に装着して体の動きで操作するウェアラブル型のコントローラである。特に参加人端末がHMDである場合、手元が見えないので、ウェアラブル型のコントローラは有用である。このとき、ウェアラブル型のコントローラでの操作の参考になる情報(例えば、ウェアラブル型のコントローラによって選択されている画面内の位置を表すカーソル等)が、参加人端末のディスプレイ上に表示されてもよい。 In addition, the participant terminal may have an operation device connected by wire or wirelessly. The device for operation is, for example, a controller that is operated by holding it by hand or a wearable controller that is attached to a body (for example, a hand or foot) and operated by the movement of the body. A wearable controller is useful, especially when the participant terminal is an HMD, because the hand cannot be seen. At this time, information that can be used as a reference for operation on the wearable controller (for example, a cursor indicating a position on the screen selected by the wearable controller) may be displayed on the display of the participant terminal. ..

[2−13]各部を実現する装置
図5等に表す各機能を実現する装置は、それらの図に表された装置に限らない。例えば参加人端末20が備える指定範囲決定部202を配信サーバ装置30が実現してもよい。また、図17の例で属性判定部312は第1属性及び第2属性の両方を判定したが、これらを別々の機能が判定してもよい。また、1台の装置(代理人端末、参加人端末及び配信サーバ装置)が備える各機能を2台以上の装置がそれぞれ分担して実現してもよい。要するに、仮想旅行システム全体としてこれらの機能が実現されていれば、仮想旅行システムが何台の装置を備えていてもよい。
[2-13] Devices for Realizing Each Part The devices for realizing each function shown in FIGS. 5 and the like are not limited to the devices shown in those figures. For example, the distribution server device 30 may realize the designated range determination unit 202 included in the participant terminal 20. Further, in the example of FIG. 17, the attribute determination unit 312 has determined both the first attribute and the second attribute, but these may be determined by different functions. Further, each function provided by one device (agent terminal, participant terminal, and distribution server device) may be shared and realized by two or more devices. In short, as long as these functions are realized in the virtual travel system as a whole, the virtual travel system may have any number of devices.

[2−14]システム
上記の各例では、仮想旅行サービスを提供するためのシステム(仮想旅行システム)について説明したが、本発明は、他のシステムにも適用可能である。例えば、演奏、スポーツの試合、美術館等の観覧を仮想的に行うためのシステムに適用してもよい。また、ロボット又はドローンが撮影したライブ映像を配信するシステムに適用してもよい。要するに、ライブ映像を配信するものであれば、本発明をどのようなシステムに適用してもよい。いずれのシステムでも、ライブ映像の視聴者がユーザとなり、短縮映像が配信されない場合に比べて、そのユーザにライブ映像の内容を短時間で把握させることができる。
[2-14] System In each of the above examples, a system for providing a virtual travel service (virtual travel system) has been described, but the present invention is also applicable to other systems. For example, it may be applied to a system for virtually performing performances, sports games, viewing museums, and the like. It may also be applied to a system that delivers live video captured by a robot or drone. In short, the present invention may be applied to any system as long as it delivers live video. In either system, the viewer of the live video becomes the user, and the user can grasp the content of the live video in a short time as compared with the case where the shortened video is not delivered.

[2−15]発明のカテゴリ
本発明は、代理人端末、参加人端末及び配信サーバ装置等の各情報処理装置の他、それらの装置を備える仮想旅行システム等の情報処理システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられるし、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-15] Category of Invention The present invention can be regarded as an information processing system such as a virtual travel system provided with each information processing device such as an agent terminal, a participant terminal and a distribution server device. Further, the present invention can be regarded as an information processing method for realizing the processing performed by each device, and also as a program for operating a computer that controls each device. This program may be provided in the form of a recording medium such as an optical disk in which it is stored, or may be provided in the form of being downloaded to a computer via a network such as the Internet, installed and made available. May be done.

[2−16]処理手順等
本明細書で説明した各実施例の処理手順、シーケンス、フローチャートなどは、矛盾がない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-16] Processing Procedures, etc. The order of the processing procedures, sequences, flowcharts, etc. of each embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.

[2−17]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-17] Handling of input / output information, etc. The input / output information, etc. may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

[2−18]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-18] Software Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name, is an instruction, instruction set, code, code segment, program code, program. , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be broadly interpreted to mean.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twist pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

[2−19]情報、信号
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-19] Information, Signals The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may be voltage, current, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

[2−20]システム、ネットワーク
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-20] Systems, Networks The terms "system" and "network" as used herein are used interchangeably.

[2−21]「に基づいて」の意味
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-21] Meaning of "based on" The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

[2−22]「及び」、「又は」
本明細書において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-22] "and", "or"
In the present specification, for configurations that can be implemented by either "A and B" or "A or B", the configuration described in one expression may be used as the configuration described in the other expression. For example, when "A and B" are described, they may be used as "A or B" as long as they are not inconsistent with other descriptions and can be implemented.

[2−23]態様のバリエーション等
本明細書で説明した各実施例は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-23] Variations of Aspects, etc. Each of the examples described in the present specification may be used alone, in combination, or switched with execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施例に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。従って、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it is clear to those skilled in the art that the present invention is not limited to the examples described herein. The present invention can be implemented as modifications and modifications without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description of the present specification is for the purpose of exemplifying explanation and does not have any restrictive meaning to the present invention.

Claims (12)

ライブ映像を取得する映像取得部と、
取得されたライブ映像を表示装置に配信する配信部であって、配信先の表示装置から中断及び再開の指示を受け取ると、ライブ映像を短縮した短縮映像として、前記中断から前記再開までに取得されたライブ映像の前記短縮映像である第1短縮映像を配信する配信部と
取得されたライブ映像に特定の対象が映っているか否かを判定する対象判定部と
を備え
前記配信部は、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理装置。
The video acquisition department that acquires live video and
It is a distribution unit that distributes the acquired live video to the display device, and when it receives an instruction to suspend and resume from the display device of the distribution destination, it is acquired as a shortened video of the live video from the interruption to the restart. The distribution unit that delivers the first shortened video, which is the shortened video of the live video ,
It is equipped with a target determination unit that determines whether or not a specific target is reflected in the acquired live video .
The distribution unit includes one of the moving image and the still image, which is the image determined to show the specific object, and the moving image and the still image, which is the image determined not to show the specific object. An information processing device that distributes an image included in the other of the two as the shortened image .
前記配信部は、前記短縮映像を配信しているときに取得されたライブ映像の前記短縮映像である第2短縮映像を配信する
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the distribution unit distributes a second shortened video which is the shortened video of the live video acquired while the shortened video is being delivered.
前記配信部は、前記短縮映像を配信しているときに中断の指示を受け取り、その後再開の指示を受け取ると、当該短縮映像のうち当該中断以降の配信部分と、当該中断から当該再開までに取得されたライブ映像を短縮した映像とを合わせた前記短縮映像である第3短縮映像を配信する
請求項1又は2に記載の情報処理装置。
When the distribution unit receives an instruction for interruption while distributing the shortened video and then receives an instruction for restarting, the distribution unit acquires the distribution portion of the shortened video after the interruption and from the interruption to the restart. The information processing apparatus according to claim 1 or 2, wherein the third shortened video, which is the shortened video combined with the shortened live video, is distributed.
前記ライブ映像の配信には終了時刻があり、
前記配信部は、短縮対象のライブ映像の終了時刻から前記配信の終了時刻までの期間の長さに応じた時間で表示される映像を前記短縮映像として配信する
請求項1から3のいずれか1項に記載の情報処理装置。
There is an end time for the live video distribution,
The distribution unit distributes the video displayed as the shortened video in a time corresponding to the length of the period from the end time of the live video to be shortened to the end time of the distribution, any one of claims 1 to 3. The information processing device described in the section.
前記映像取得部は、複数の表示装置に配信されるライブ映像を取得し、
静止画像の保存を指示する機能を有する表示装置から当該保存が指示されると、当該表示装置に表示されていた映像を静止画像として保存する保存部を備え、
前記配信部は、表示装置から指示された中断から再開までに又は当該表示装置への前記短縮映像の配信中に、当該表示装置とは異なる表示装置からの指示により保存された静止画像を含む映像を前記短縮映像として配信する
請求項1から4のいずれか1項に記載の情報処理装置。
The video acquisition unit acquires live video to be distributed to a plurality of display devices, and obtains live video.
When the storage is instructed by a display device having a function of instructing the storage of a still image, a storage unit for saving the image displayed on the display device as a still image is provided.
The distribution unit includes an image including a still image saved by an instruction from a display device different from the display device from the interruption to the restart instructed by the display device or during the distribution of the shortened image to the display device. The information processing apparatus according to any one of claims 1 to 4, wherein the image is delivered as the shortened video.
保存された前記静止画像を評価する評価部を備え、
前記配信部は、前記評価部による評価が高いものを当該評価が低いものよりも優先して含む映像を前記短縮映像として配信する
請求項5に記載の情報処理装置。
It is equipped with an evaluation unit that evaluates the stored still image.
The information processing apparatus according to claim 5, wherein the distribution unit distributes a video including a video having a high evaluation by the evaluation unit with priority over a video having a low evaluation as the shortened video.
前記複数の表示装置のそれぞれのユーザの嗜好を示す嗜好情報を取得する第1嗜好取得部を備え、
前記配信部は、取得された嗜好情報に基づき、前記短縮映像の配信先の表示装置のユーザと嗜好が類似するユーザの表示装置を特定し、当該表示装置から行われた保存の指示により保存された前記静止画像を他の前記静止画像よりも優先して含む映像を前記短縮映像として配信する
請求項5又は6に記載の情報処理装置。
A first preference acquisition unit for acquiring preference information indicating the preference of each user of the plurality of display devices is provided.
Based on the acquired preference information, the distribution unit identifies a display device of a user whose taste is similar to that of the user of the display device to which the shortened video is distributed, and saves the image according to a storage instruction given from the display device. The information processing apparatus according to claim 5 or 6, wherein an image including the still image having priority over the other still images is distributed as the shortened image.
ライブ映像を取得する映像取得部と、
ユーザの嗜好を示す嗜好情報を取得する第2嗜好取得部と、
取得されたライブ映像に映っている対象の属性を判定する属性判定部と、
取得されたライブ映像を前記ユーザの表示装置に配信する配信部であって、取得された前記嗜好情報が示す嗜好と関連する属性が判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信部と
取得されたライブ映像に特定の対象が映っているか否かを判定する対象判定部と
を備え
前記配信部は、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理装置。
The video acquisition department that acquires live video and
The second preference acquisition unit that acquires preference information indicating the user's preference,
An attribute judgment unit that determines the attributes of the target shown in the acquired live video,
It is a distribution unit that distributes the acquired live video to the display device of the user, and is a shortened video obtained by shortening the live video so as to include a target for which an attribute related to the preference indicated by the acquired preference information is determined. and a delivery unit to deliver,
It is equipped with a target determination unit that determines whether or not a specific target is reflected in the acquired live video .
The distribution unit includes one of the moving image and the still image, which is the image determined to show the specific object, and the moving image and the still image, which is the image determined not to show the specific object. An information processing device that distributes an image included in the other of the two as the shortened image .
表示装置が表示する映像においてユーザの視線が向いている位置に映っている対象の属性を判定する第1判定部と、
ライブ映像を取得する映像取得部と、
取得されたライブ映像に映っている対象の属性を判定する第2判定部と、
取得されたライブ映像を前記ユーザの表示装置に配信する配信部であって、前記第1判定部によって判定された属性と関連する属性が前記第2判定部によって判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信部と
取得されたライブ映像に特定の対象が映っているか否かを判定する対象判定部と
を備え
前記配信部は、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理装置。
The first determination unit that determines the attribute of the target that is reflected in the position where the user's line of sight is facing in the image displayed by the display device, and
The video acquisition department that acquires live video and
The second judgment unit that judges the attributes of the target shown in the acquired live video,
The distribution unit that distributes the acquired live video to the display device of the user, and the attributes related to the attributes determined by the first determination unit include the target determined by the second determination unit. and a delivery unit for delivering a short video that was shortened to live video,
It is equipped with a target determination unit that determines whether or not a specific target is reflected in the acquired live video .
The distribution unit includes one of the moving image and the still image, which is the image determined to show the specific object, and the moving image and the still image, which is the image determined not to show the specific object. An information processing device that distributes an image included in the other of the two as the shortened image .
ライブ映像を取得するステップと、
取得されたライブ映像を表示装置に配信するステップであって、配信先の表示装置から中断及び再開の指示を受け取ると、ライブ映像を短縮した短縮映像として、前記中断から前記再開までに取得されたライブ映像の前記短縮映像である第1短縮映像を配信するステップと
取得されたライブ映像に特定の対象が映っているか否かを判定するステップと
を有し、
前記第1短縮映像を配信ステップでは、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理方法。
Steps to get live footage and
It is a step of distributing the acquired live video to the display device, and when an instruction for interruption and resumption is received from the display device of the distribution destination, the live video is acquired as a shortened video from the interruption to the resumption. The step of delivering the first shortened video, which is the shortened video of the live video ,
Have a determining whether a particular subject on the obtained live video is reflected,
In the first shortened video distribution step, the video determined to show the specific target is included in one of the moving image and the still image, and the video determined not to show the specific target is included. An information processing method for delivering a video including the other of a moving image and a still image as the shortened video .
ライブ映像を取得するステップと、
ユーザの嗜好を示す嗜好情報を取得するステップと、
取得されたライブ映像に映っている対象の属性を判定するステップと、
取得されたライブ映像を前記ユーザの表示装置に配信するステップであって、取得された前記嗜好情報が示す嗜好と関連する属性が判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信するステップと
取得されたライブ映像に特定の対象が映っているか否かを判定するステップと
を有し、
前記短縮映像を配信ステップでは、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理方法。
Steps to get live footage and
Steps to acquire preference information indicating user preferences,
Steps to determine the attributes of the target shown in the acquired live video,
A shortened video obtained by shortening the live video so as to include a target whose attributes related to the taste indicated by the acquired taste information are determined, which is a step of delivering the acquired live video to the display device of the user. the method comprising the steps of delivery,
Have a determining whether a particular subject on the obtained live video is reflected,
In the shortened video distribution step, the video determined to show the specific target is included in one of the moving image and the still image, and the video determined not to show the specific target is included in the moving image. An information processing method for delivering a video included in the other of the still images as the shortened video .
表示装置が表示する映像においてユーザの視線が向いている位置に映っている対象の属性を判定する第1判定ステップと、
ライブ映像を取得する映像取得ステップと、
取得されたライブ映像に映っている対象の属性を判定する第2判定ステップと、
取得されたライブ映像を前記ユーザの表示装置に配信する配信ステップであって、前記第1判定ステップによって判定された属性と関連する属性が前記第2判定ステップによって判定された対象を含むように前記ライブ映像を短縮した短縮映像を配信する配信ステップと
取得されたライブ映像に特定の対象が映っているか否かを判定するステップと
を有し、
前記短縮映像を配信ステップでは、前記特定の対象が映っていると判定された映像を動画像及び静止画像のうちの一方で含み、当該特定の対象が映っていないと判定された映像を動画像及び静止画像のうちの他方で含む映像を前記短縮映像として配信する情報処理方法。
The first determination step of determining the attribute of the target displayed at the position where the user's line of sight is facing in the image displayed by the display device, and
Video acquisition steps to acquire live video and
The second judgment step to judge the attribute of the target reflected in the acquired live video, and
In the distribution step of delivering the acquired live video to the display device of the user, the attribute related to the attribute determined by the first determination step includes the target determined by the second determination step. and a distribution step of distributing a short video that was shortened to live video,
Have a determining whether a particular subject on the obtained live video is reflected,
In the shortened video distribution step, the video determined to show the specific target is included in one of the moving image and the still image, and the video determined not to show the specific target is included in the moving image. An information processing method for delivering a video included in the other of the still images as the shortened video .
JP2019520460A 2018-02-06 2018-10-30 Information processing device and information processing method Active JP6805341B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018019267 2018-02-06
JP2018019267 2018-02-06
PCT/JP2018/040376 WO2019155695A1 (en) 2018-02-06 2018-10-30 Information processing device and information processing method

Publications (2)

Publication Number Publication Date
JPWO2019155695A1 JPWO2019155695A1 (en) 2020-02-27
JP6805341B2 true JP6805341B2 (en) 2020-12-23

Family

ID=67549381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019520460A Active JP6805341B2 (en) 2018-02-06 2018-10-30 Information processing device and information processing method

Country Status (2)

Country Link
JP (1) JP6805341B2 (en)
WO (1) WO2019155695A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196167A1 (en) * 2021-03-19 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177962A (en) * 1997-12-09 1999-07-02 Toshiba Corp Information reproduction server and information reproduction device and method
JP2008028840A (en) * 2006-07-24 2008-02-07 Canon Inc Video processing device and method, program and recording medium
JP2012039550A (en) * 2010-08-11 2012-02-23 Sony Corp Information processing device, information processing system, information processing method and program
JP5990903B2 (en) * 2011-12-15 2016-09-14 株式会社ニコン Image generation device
JP6178705B2 (en) * 2013-11-15 2017-08-09 日本電信電話株式会社 Video distribution system, video distribution apparatus, and video distribution program
JP5777185B1 (en) * 2014-05-16 2015-09-09 株式会社ユニモト All-round video distribution system, all-round video distribution method, communication terminal device, and control method and control program thereof

Also Published As

Publication number Publication date
WO2019155695A1 (en) 2019-08-15
JPWO2019155695A1 (en) 2020-02-27

Similar Documents

Publication Publication Date Title
US10536683B2 (en) System and method for presenting and viewing a spherical video segment
JP6558587B2 (en) Information processing apparatus, display apparatus, information processing method, program, and information processing system
US20200050346A1 (en) Continuation of playback of media content by different output devices
CN109600678B (en) Information display method, device and system, server, terminal and storage medium
US9942295B2 (en) Live crowdsourced media streaming
US10139623B2 (en) Virtual object orientation and visualization
US10348964B2 (en) Method and system for 360 degree video coverage visualization
CN110163066B (en) Multimedia data recommendation method, device and storage medium
CN112995759A (en) Interactive service processing method, system, device, equipment and storage medium
CN111787407B (en) Interactive video playing method and device, computer equipment and storage medium
US11388122B2 (en) Context linked messaging system
WO2018135334A1 (en) Information processing device and information processing method, and computer program
JP6801106B2 (en) Information processing device
CN113318442A (en) Live interface display method, data uploading method and data downloading method
JP6805341B2 (en) Information processing device and information processing method
JP7009302B2 (en) Information processing equipment and information processing system
JP2018163461A (en) Information processing apparatus, information processing method, and program
CN114302160A (en) Information display method, information display device, computer equipment and medium
CN114268823A (en) Video playing method and device, electronic equipment and storage medium
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
JP2015531130A (en) A method for supplying information associated with an event to a person
CN111726697B (en) Multimedia data playing method
JP7085869B2 (en) Information processing equipment
CN111710046A (en) Interaction method and device and electronic equipment
JP6804968B2 (en) Information distribution device, information distribution method and information distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201203

R150 Certificate of patent or registration of utility model

Ref document number: 6805341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250