JP5967126B2 - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP5967126B2
JP5967126B2 JP2014070381A JP2014070381A JP5967126B2 JP 5967126 B2 JP5967126 B2 JP 5967126B2 JP 2014070381 A JP2014070381 A JP 2014070381A JP 2014070381 A JP2014070381 A JP 2014070381A JP 5967126 B2 JP5967126 B2 JP 5967126B2
Authority
JP
Japan
Prior art keywords
data
virtual camera
camera
camera work
pixel area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014070381A
Other languages
Japanese (ja)
Other versions
JP2015192427A (en
Inventor
亮 佐橋
亮 佐橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2014070381A priority Critical patent/JP5967126B2/en
Publication of JP2015192427A publication Critical patent/JP2015192427A/en
Application granted granted Critical
Publication of JP5967126B2 publication Critical patent/JP5967126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、複数の画像フレームから構成される動画データの画像フレームにおける仮想カメラの向きや仮想カメラの画角を表す仮想カメラデータを作成する装置等の技術分野に関する。   The present invention relates to a technical field such as an apparatus for creating virtual camera data representing the orientation of a virtual camera and the angle of view of a virtual camera in an image frame of moving image data composed of a plurality of image frames.

従来、所定の動画データに対して疑似的なカメラワークが、ユーザの仮想カメラの操作により行われる場合がある。疑似的なカメラワークでは、動画データを構成する画像フレーム内で、例えばユーザが仮想カメラの向きや仮想カメラの画角などを指定することで特定の画素領域が表示画面に表示される。このような仮想カメラの向きや仮想カメラの画角などを表す仮想カメラデータは、端末装置から配信サーバへアップロード可能になっている。特許文献1には、アップロードされた動画データ自体を編集せずに、他のユーザによる疑似的なカメラワークを共有することが可能な通信システムが開示されている。   Conventionally, there is a case where pseudo camera work is performed on predetermined moving image data by a user's operation of a virtual camera. In the pseudo camera work, a specific pixel region is displayed on the display screen by, for example, the user specifying the direction of the virtual camera, the angle of view of the virtual camera, or the like in the image frame constituting the moving image data. Such virtual camera data representing the orientation of the virtual camera and the angle of view of the virtual camera can be uploaded from the terminal device to the distribution server. Patent Document 1 discloses a communication system that can share pseudo camera work by other users without editing uploaded video data itself.

特開2014−011623号公報JP, 2014-011623, A

しかしながら、例えば動画におけるオブジェクト(表示対象)が予期しない動きをすることで、ユーザは上記カメラワークにより所望のオブジェクトをスムーズに追跡できない場合がある。   However, for example, when an object (display target) in a moving image moves unexpectedly, the user may not be able to smoothly track a desired object by the camera work.

本発明は、動画におけるオブジェクトをスムーズに追跡表示させることが可能な端末装置及びプログラムを提供する。   The present invention provides a terminal device and a program capable of smoothly tracking and displaying an object in a moving image.

上記課題を解決するために、請求項1に記載の発明は、複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御ステップと、前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けてサーバ装置へ送信する送信ステップと、前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、前記サーバ装置が記憶する複数の前記カメラワークデータの中から、前記第1再生時間に対応し、且つ、前記第1画素領域の少なくとも一部を表す特定の仮想カメラデータを含む特定のカメラワークデータを取得する取得ステップと、前記取得ステップにより取得された前記特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御ステップと、をコンピュータに実行させるプログラムである。   In order to solve the above-mentioned problem, the invention according to claim 1 is an operation of a virtual camera in the image frame of moving image data including a plurality of the image frames, the image frame including a plurality of pixels. A first display control step of displaying a first pixel area specified from the plurality of pixels on a display screen, and a position of the virtual camera displaying the first pixel area on the display screen or the virtual Transmission of first virtual camera data representing at least one of camera orientations and a first reproduction time in which the first pixel area is displayed on the display screen in association with each other in time series and transmitted to the server device A second virtual camera representing at least one of a position of the virtual camera in the image frame of the moving image data and a direction of the virtual camera Camera work data in which data and a second reproduction time in which a second pixel area specified from the plurality of pixels is output by the second virtual camera data are associated in time series. Specific camera work including specific virtual camera data corresponding to the first reproduction time and representing at least a part of the first pixel area from among the plurality of camera work data stored in the server device An acquisition step of acquiring data, and a second display control step of displaying a pixel region according to the specific camera work data acquired in the acquisition step on the display screen along with the output of the moving image data. A program to be executed by a computer.

請求項2に記載の発明は、複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの出力に沿って、前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御ステップと、前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けて取得する取得ステップと、前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、複数の前記カメラワークデータを記憶した記憶手段に、前記取得ステップにより取得された前記第1再生時間に対応する前記第2再生時間があるかを判定する第1判定ステップと、前記第1判定ステップにより前記記憶手段にあると判定された場合、前記第2再生時間に対応付けられた特定の前記第2仮想カメラデータにより特定される第2画素領域が、前記第1画素領域を少なくとも一部含むかを判定する第2判定ステップと、前記第2判定ステップにより前記第1画素領域を少なくとも一部含むと判定された場合、複数の前記カメラワークデータの中で、特定の前記第2仮想カメラデータを含む特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御ステップと、をコンピュータに実行させるプログラムである。   The invention according to claim 2 is an image frame composed of a plurality of pixels, and in accordance with an operation of a virtual camera in the image frame along an output of moving image data composed of the plurality of image frames, A first display control step of displaying a first pixel area specified from a plurality of pixels on a display screen; a position of the virtual camera displaying the first pixel area on the display screen; or a direction of the virtual camera Acquiring the first virtual camera data representing at least one of the first virtual camera data and the first reproduction time when the first pixel area is displayed on the display screen in association with each other in time series, and the moving image data Second virtual camera data representing at least one of the position of the virtual camera in the image frame and the orientation of the virtual camera, and the second virtual camera. Camera work data in which a second reproduction time in which a second pixel area specified from the plurality of pixels is output in accordance with time data is correlated in time series, and the plurality of camera work data is stored. A first determination step for determining whether the storage means has the second reproduction time corresponding to the first reproduction time acquired by the acquisition step; and the determination by the first determination step that the storage means is present A second determination step of determining whether the second pixel area specified by the specific second virtual camera data associated with the second reproduction time includes at least a part of the first pixel area. When the second determination step determines that at least a part of the first pixel area is included, a specific second virtual camera is selected from the plurality of camera work data. A pixel area in accordance with a particular camera work data including data, a program for executing a second display control step of displaying on said display screen along with the output of the video data, to the computer.

請求項に記載の発明は、請求項1から請求項3のいずれか一項に記載のプログラムにおいて、前記第1表示制御ステップは、前記第1画素領域を前記表示画面内のメイン画面に表示させ、前記第2表示制御ステップは、前記第2画素領域を、前記表示画面内に、前記メイン画面よりも面積が小さいサブ画面により表示させ、前記プログラムは、前記サブ画面に表示されている前記第2画素領域の指定を受け付ける受け付けステップと、前記第2画素領域の指定が受け付けられた場合、前記サブ画面に表示されている前記第2画素領域を前記メイン画面に表示させる第3表示制御ステップと、を前記コンピュータに更に実行させることを特徴とする。 According to a fourth aspect of the present invention, in the program according to any one of the first to third aspects, the first display control step displays the first pixel area on a main screen in the display screen. And the second display control step displays the second pixel region in the display screen by a sub-screen having a smaller area than the main screen, and the program is displayed on the sub-screen. A receiving step for accepting designation of a second pixel area, and a third display control step for displaying the second pixel area displayed on the sub-screen on the main screen when designation of the second pixel area is accepted Are further executed by the computer.

請求項に記載の発明は、請求項に記載のプログラムにおいて、前記第2表示制御ステップは、特定の前記第2仮想カメラデータの数に応じた数の前記サブ画面を設定し、特定の前記第2仮想カメラデータそれぞれにより特定された複数の前記第2画素領域を、複数の前記サブ画面それぞれに表示させ、前記受け付けステップは、複数の前記サブ画面にそれぞれ表示されている複数の前記第2画素領域の中から、特定の前記第2画素領域の指定を受け付け、前記第3表示制御ステップは、特定の前記第2画素領域の指定が受け付けられた場合、指定された特定の前記第2画素領域を前記メイン画面に表示させることを特徴とする。 According to a fifth aspect of the present invention, in the program according to the fourth aspect , the second display control step sets a number of the sub-screens according to the number of specific second virtual camera data, The plurality of second pixel regions specified by each of the second virtual camera data are displayed on each of the plurality of sub-screens, and the accepting step includes a plurality of the second pixel regions respectively displayed on the plurality of sub-screens. The specification of the specific second pixel region is received from the two pixel regions, and the third display control step is performed when the specification of the specific second pixel region is received, A pixel region is displayed on the main screen.

請求項に記載の発明は、請求項に記載のプログラムにおいて、前記第2判定ステップは、特定の前記第2仮想カメラデータにより特定される第2画素領域の中心座標が、前記第1画素領域の中心座標から所定範囲以内にあるかを判定することを特徴とする。 The invention according to claim 3, in the program according to claim 2, wherein the second determining step, the center coordinates of the second pixel area specified by the specific second virtual camera data, the first pixel It is determined whether it is within a predetermined range from the center coordinates of the region.

請求項6に記載の発明は、複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御手段と、前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けてサーバ装置へ送信する送信手段と、前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、前記サーバ装置が記憶する複数の前記カメラワークデータの中から、前記第1再生時間に対応し、且つ、前記第1画素領域の少なくとも一部を表す特定の仮想カメラデータを含む特定のカメラワークデータを取得する取得手段と、前記取得手段により取得された前記特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御手段と、を備えることを特徴とする。 According to a sixth aspect of the present invention, there is provided an image frame composed of a plurality of pixels, wherein the plurality of pixels are determined according to an operation of a virtual camera in the image frame of the moving image data composed of the plurality of image frames. First display control means for displaying the first pixel region specified from the display screen on the display screen, and at least one of the position of the virtual camera and the direction of the virtual camera that displayed the first pixel region on the display screen Transmitting means for associating the first virtual camera data representing the first reproduction time in which the first pixel area is displayed on the display screen in time series with the server device, and the transmission data of the moving image data Second virtual camera data representing at least one of the position of the virtual camera in the image frame and the orientation of the virtual camera; and the second virtual camera data The camera work data in which the second reproduction time in which the second pixel area specified from the plurality of pixels is output is associated in time series, and the server device stores the plurality of Acquisition means for acquiring specific camera work data including specific virtual camera data corresponding to the first reproduction time and representing at least a part of the first pixel area from the camera work data; and the acquisition And a second display control means for displaying a pixel area according to the specific camera work data acquired by the means on the display screen in accordance with the output of the moving image data.

請求項7に記載の発明は、複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの出力に沿って、前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御手段と、前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けて取得する取得手段と、前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、複数の前記カメラワークデータを記憶した記憶手段に、前記取得手段により取得された前記第1再生時間に対応する前記第2再生時間があるかを判定する第1判定手段と、前記第1判定手段により前記記憶手段にあると判定された場合、前記第2再生時間に対応付けられた特定の前記第2仮想カメラデータにより特定される第2画素領域が、前記第1画素領域を少なくとも一部含むかを判定する第2判定手段と、前記第2判定手段により前記第1画素領域を少なくとも一部含むと判定された場合、複数の前記カメラワークデータの中で、特定の前記第2仮想カメラデータを含む特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御手段と、を備えることを特徴とする。   The invention according to claim 7 is an image frame composed of a plurality of pixels, and in accordance with an operation of a virtual camera in the image frame along an output of moving image data composed of the plurality of image frames, First display control means for displaying a first pixel area specified from a plurality of pixels on a display screen; a position of the virtual camera displaying the first pixel area on the display screen; or a direction of the virtual camera Acquisition means for acquiring the first virtual camera data representing at least one of the first virtual camera data and the first reproduction time when the first pixel area is displayed on the display screen in time series, and the moving image data Second virtual camera data representing at least one of the position of the virtual camera in the image frame and the orientation of the virtual camera, and the second virtual camera data Is a camera work data in which a second reproduction time in which a second pixel region specified from the plurality of pixels is output is associated in time series, and the plurality of camera work data are stored. It is determined by the first determination means that the storage means has the second reproduction time corresponding to the first reproduction time acquired by the acquisition means, and the storage means is determined by the first determination means. A second determination means for determining whether a second pixel area specified by the specific second virtual camera data associated with the second reproduction time includes at least a part of the first pixel area; When the second determination means determines that at least a part of the first pixel area is included, the specific camera camera including the specific second virtual camera data among the plurality of camera work data. A pixel area in accordance with Kudeta, characterized in that it comprises a second display control means for displaying on said display screen along with the output of the video data.

請求項1、2、、6または7に記載の発明によれば、例えば動画におけるオブジェクトが予期しない動きをする場合であっても、動画におけるオブジェクトをスムーズに追跡表示させることができる。 According to the first, second, third , sixth, and seventh aspects of the present invention, for example, even when an object in a moving image moves unexpectedly, the object in the moving image can be smoothly displayed and tracked.

請求項に記載の発明によれば、メイン画面で提供される疑似的なカメラワークと近いカメラワークをサブ画面でユーザに確認させることができる。 According to the invention described in claim 4 , it is possible to make the user confirm on the sub screen the camera work close to the pseudo camera work provided on the main screen.

請求項に記載の発明によれば、メイン画面で提供される疑似的なカメラワークと近い複数のカメラワークを複数のサブ画面でユーザに一度に効率良く確認させることができる。 According to the fifth aspect of the present invention, it is possible to allow the user to efficiently confirm a plurality of camera works close to the pseudo camera work provided on the main screen at a time on the plurality of sub screens.

本実施形態の通信システムSの概要構成例を示す図である。It is a figure showing an example of outline composition of communications system S of this embodiment. クライアント端末2aの制御部21またはCPUにより実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by the control part 21 or CPU of the client terminal 2a. カメラワークデータの格納処理の一例を示す図である。It is a figure which shows an example of the storage process of camera work data. クライアント端末2aのディスプレイにおける表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the display of the client terminal 2a. 配信サーバ1の制御部11またはCPUにより実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by the control part 11 or CPU of the delivery server 1. 複数の画像フレームにおける視聴カメラワークデータと雛形カメラワークデータとの関係の一例を示す概念図である。It is a conceptual diagram which shows an example of the relationship between viewing camera work data and model camera work data in a plurality of image frames. (A)は、図6に示す視聴カメラワークデータと雛形カメラワークデータの内容の一例を示す図である。(B)は、再生時間ごとの判定結果の一例を雛形カメラワークデータごとに示す図である。(A) is a figure which shows an example of the content of the viewing camera work data and model camera work data shown in FIG. (B) is a figure which shows an example of the determination result for every reproduction time for every model camera work data.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[1.通信システムの構成及び動作概要]
始めに、図1を参照して、本発明の実施形態の通信システムSの構成及び動作概要について説明する。図1は、本実施形態の通信システムSの概要構成例を示す図である。図1に示すように、通信システムSは、配信サーバ1、及びクライアント端末2a,2bを含んで構成される。クライアント端末2a,2bは、本発明の端末装置の一例である。クライアント端末2aのユーザは、例えば動画データの視聴者である。クライアント端末2bのユーザは、例えば動画データの管理者である。なお、図1に示すクライアント端末の数は一例であり、この数には限定されるものではない。配信サーバ1及びクライアント端末2a,2bは、それぞれ、ネットワークNWに接続される。ネットワークNWは、例えば、インターネット等により構成される。
[1. Overview of communication system configuration and operation]
First, with reference to FIG. 1, the structure and operation | movement outline | summary of the communication system S of embodiment of this invention are demonstrated. FIG. 1 is a diagram illustrating a schematic configuration example of a communication system S of the present embodiment. As shown in FIG. 1, the communication system S includes a distribution server 1 and client terminals 2a and 2b. The client terminals 2a and 2b are examples of the terminal device of the present invention. The user of the client terminal 2a is a viewer of moving image data, for example. The user of the client terminal 2b is, for example, a video data manager. The number of client terminals shown in FIG. 1 is an example, and the number is not limited to this number. Distribution server 1 and client terminals 2a and 2b are each connected to a network NW. The network NW is configured by, for example, the Internet.

配信サーバ1は、クライアント端末2aからのコンテンツ要求に応じて、コンテンツをクライアント端末2aへ送信する。コンテンツには、動画データが含まれる。なお、コンテンツは、音声データを含んでもよい。コンテンツには、コンテンツIDが付与される。コンテンツIDは、コンテンツを識別する識別情報である。コンテンツの送信は、例えば、ネットワークNWを介してストリーミング配信により行われる。クライアント端末2aは、配信サーバ1からストリーミングで配信されたコンテンツを受信する。クライアント端末2aは、受信されたコンテンツに含まれる動画データを再生する。動画データは、複数の画像フレームから構成される。また、各画像フレームは、複数の画素から構成される。   The distribution server 1 transmits content to the client terminal 2a in response to the content request from the client terminal 2a. The content includes moving image data. Note that the content may include audio data. A content ID is assigned to the content. The content ID is identification information for identifying the content. The content is transmitted by streaming distribution via the network NW, for example. The client terminal 2a receives the content distributed by streaming from the distribution server 1. The client terminal 2a reproduces the moving image data included in the received content. The moving image data is composed of a plurality of image frames. Each image frame is composed of a plurality of pixels.

そして、クライアント端末2aは、再生された動画データの画像フレームにおいて複数の画素の中から特定された画素領域を表示画面に表示させる。この画素領域は、1画像フレーム内で表示画面に描画される描画領域に相当する。言い換えれば、画素領域は、画像フレームから切り出される表示範囲である。この画素領域は、例えば、疑似的なカメラワーク(以下、「疑似カメラワーク」という)の操作により特定することができる。疑似カメラワークの操作は、画像フレームにおける仮想カメラの操作により行われる。つまり、クライアント端末2aは、動画データの出力に沿って、画像フレームにおける仮想カメラの操作に従って、複数の画素の中から特定された画素領域を表示画面に表示させる。ここで、仮想カメラとは、二次元平面または三次元仮想空間における仮想スクリーンに投影される動画に対して仮想的に設定された視点をいう。なお、動画の一例として、例えばパノラマ動画がある。パノラマ動画は、例えば高解像度のカメラで、且つ広範囲を撮影可能なレンズを搭載するカメラにより被写体が撮影された動画である。広範囲を撮影可能なレンズには、ワイドレンズ、魚眼レンズ、360度レンズ等がある。また、パノラマ動画は、複数のカメラの映像を合成して作成される場合もある。そして、仮想スクリーンには、平面スクリーン、円筒形のスクリーン、及び球形のスクリーンがある。例えば、動画を撮影したカメラのレンズが魚眼レンズや360度レンズである場合、仮想スクリーンは球形のスクリーンとなる。   Then, the client terminal 2a displays the pixel area specified from the plurality of pixels in the image frame of the reproduced moving image data on the display screen. This pixel area corresponds to a drawing area drawn on the display screen within one image frame. In other words, the pixel area is a display range cut out from the image frame. This pixel region can be specified by, for example, an operation of pseudo camera work (hereinafter referred to as “pseudo camera work”). The pseudo camera work operation is performed by operating the virtual camera in the image frame. That is, the client terminal 2a displays the pixel area specified from the plurality of pixels on the display screen according to the operation of the virtual camera in the image frame along with the output of the moving image data. Here, the virtual camera refers to a viewpoint virtually set for a moving image projected on a virtual screen in a two-dimensional plane or a three-dimensional virtual space. An example of a moving image is a panoramic moving image. A panoramic video is a video in which a subject is shot by a camera equipped with a lens capable of shooting a wide range, for example, with a high-resolution camera. Examples of lenses capable of photographing a wide range include a wide lens, a fisheye lens, and a 360 degree lens. A panoramic video may be created by combining a plurality of camera videos. The virtual screen includes a flat screen, a cylindrical screen, and a spherical screen. For example, when the lens of a camera that has captured a moving image is a fisheye lens or a 360-degree lens, the virtual screen is a spherical screen.

仮想カメラの操作には、例えば、仮想カメラのパン(左右振り)の操作、仮想カメラのチルト(上下振り)の操作、及び仮想カメラのズーム(拡大又は縮小)の操作がある。仮想カメラのパン及びチルトの操作により、仮想カメラの向き(アングル)が決まる。仮想カメラのパン及びチルトの操作は、例えば、ユーザによるマウスのドラッグ操作や、ユーザによる指やペン等によるフリック操作により実現できる。なお、フリック操作は、例えば、ユーザがタッチパネル方式の表示画面上で指やペン等の接触物を素早くスライドする操作である。また、仮想カメラのズームの操作により、仮想カメラの画角が決まる。仮想カメラのズームの操作は、例えば、ユーザがマウス等の操作部に設けられたボタンあるいはタッチパネル方式の表示画面上に表示されたボタン等を押すことにより実現できる。或いは、仮想カメラのズームの操作は、例えばユーザの指2本で方式の表示画面をピンチするピンチ操作により実現できる。ピンチ操作には、画素領域を縮小するピンチインと、画素領域を拡大するピンチアウトとがある。   The virtual camera operation includes, for example, a virtual camera pan (left / right swing) operation, a virtual camera tilt (up / down swing) operation, and a virtual camera zoom (enlargement or reduction) operation. The direction (angle) of the virtual camera is determined by the pan and tilt operations of the virtual camera. The panning and tilting operations of the virtual camera can be realized by, for example, a mouse dragging operation by the user or a flicking operation by the user with a finger or a pen. The flick operation is, for example, an operation in which the user quickly slides a contact object such as a finger or a pen on a touch panel display screen. Further, the angle of view of the virtual camera is determined by the zoom operation of the virtual camera. The zoom operation of the virtual camera can be realized, for example, when the user presses a button provided on an operation unit such as a mouse or a button displayed on a touch panel display screen. Alternatively, the zoom operation of the virtual camera can be realized by, for example, a pinch operation for pinching a display screen of a method with two user fingers. The pinch operation includes pinch-in that reduces the pixel area and pinch-out that enlarges the pixel area.

クライアント端末2aは、動画データの再生中に、カメラワークデータを生成する。カメラワークデータには、上記画素領域を表示画面に表示させた仮想カメラの位置、仮想カメラの向き、及び仮想カメラの画角のうち少なくとも何れかを表す仮想カメラデータと、上記画素領域が表示画面に表示された再生時間とが時系列に沿って対応付けられて含まれている。上記画素領域が、仮想カメラの位置または仮想カメラの向きにより特定される。一方、上記画素領域のズーム倍率(表示倍率)が、仮想カメラの画角により特定される。再生時間は、動画の再生開始からの再生位置に対応する再生時間を示す。再生時間は、言い換えれば、仮想カメラデータにより特定される画素領域が出力される再生時間である。本実施形態のカメラワークデータは、例えば、仮想カメラデータとして、パン(pan)、チルト(tilt)、及びズーム(zoom)のパラメータを含む。パン、チルトのパラメータは、仮想カメラの位置または仮想カメラの向きを表すデータの一例である。ズームのパラメータは、ズーム倍率(表示倍率)を表すデータの一例である。なお、仮想スクリーンが平面スクリーンの場合、画像フレームにおける仮想カメラの位置は、(x,y)座標を表すデータで規定される。この場合、(x,y)座標は、例えば仮想カメラの中心座標を示す。   The client terminal 2a generates camera work data during reproduction of moving image data. The camera work data includes virtual camera data representing at least one of the position of the virtual camera displaying the pixel area on the display screen, the orientation of the virtual camera, and the angle of view of the virtual camera, and the pixel area is the display screen. Are displayed in association with each other along the time series. The pixel area is specified by the position of the virtual camera or the direction of the virtual camera. On the other hand, the zoom magnification (display magnification) of the pixel area is specified by the angle of view of the virtual camera. The reproduction time indicates the reproduction time corresponding to the reproduction position from the reproduction start of the moving image. In other words, the reproduction time is a reproduction time during which the pixel area specified by the virtual camera data is output. The camera work data of the present embodiment includes, for example, parameters of pan, tilt, and zoom as virtual camera data. The pan and tilt parameters are an example of data representing the position of the virtual camera or the direction of the virtual camera. The zoom parameter is an example of data representing the zoom magnification (display magnification). When the virtual screen is a flat screen, the position of the virtual camera in the image frame is defined by data representing (x, y) coordinates. In this case, the (x, y) coordinates indicate the center coordinates of the virtual camera, for example.

ここで、パン(pan)及びチルト(tilt)と、上記画素領域との関係は、例えば、下記(1),(2)式により表される。   Here, the relationship between pan and tilt and the pixel region is expressed by, for example, the following equations (1) and (2).

pan=x'+width/2・・・(1)
tilt=y'+height/2・・・(2)
pan = x '+ width / 2 (1)
tilt = y '+ height / 2 (2)

ここで、(x',y')は、例えば、画像フレームの左上端座標を原点(0,0)としたときの画素領域の左上端座標を示す。widthは、画素領域の幅を示す。heightは、画素領域の高さを示す。また、width及びheightは、それぞれ、例えば、下記(3),(4)式で表される。   Here, (x ′, y ′) indicates, for example, the upper left corner coordinates of the pixel area when the upper left corner coordinates of the image frame are set to the origin (0, 0). width indicates the width of the pixel region. height indicates the height of the pixel region. Moreover, width and height are respectively represented by the following formulas (3) and (4), for example.

width=W/α・・・(3)
height=H/α・・・(4)
width = W / α (3)
height = H / α (4)

ここで、Wは、画像フレームの幅を示す。Hは、画像フレームの高さを示す。αは、ズーム(zoom)により変わる値である。例えば、ズーム倍率が1倍であれば、α=1/4になる。ズーム倍率が2倍であれば、α=1/2になる。αとズーム倍率との関係は、例えばプログラム上で規定される。   Here, W indicates the width of the image frame. H indicates the height of the image frame. α is a value that varies depending on zoom. For example, if the zoom magnification is 1, α = 1/4. If the zoom magnification is 2, α = ½. The relationship between α and the zoom magnification is defined on a program, for example.

以上の(1)〜(4)式により、パン(pan)、チルト(tilt)、及びズーム(zoom)から、画像フレームの中の画素領域を特定することができる。   From the above formulas (1) to (4), the pixel region in the image frame can be specified from the pan, the tilt, and the zoom.

カメラワークデータによれば、二次元平面または三次元仮想空間における仮想スクリーンに投影される動画の全部または一部を仮想的に撮影する仮想カメラの動きを規定することができる。これにより、疑似カメラワークを再現することができる。視聴カメラワークデータは、例えば、動画データの再生開始からの再生終了までの再生時間において所定時間ごとに複数生成される。なお、クライアント端末2aにより生成されたカメラワークデータを、「視聴カメラワークデータ」という。視聴カメラワークデータに含まれる仮想カメラデータを、「視聴カメラデータ」という。視聴カメラデータは、第1仮想カメラデータの一例である。また、視聴カメラデータにより特定される画素領域を、「第1画素領域」という。第1画素領域は、視聴範囲である。また、視聴カメラワークデータに含まれる再生時間を、「第1再生時間」という。視聴カメラデータによる疑似カメラワークを視聴カメラワークという。   According to the camera work data, it is possible to define the movement of a virtual camera that virtually captures all or part of a moving image projected onto a virtual screen in a two-dimensional plane or a three-dimensional virtual space. Thereby, pseudo camera work can be reproduced. For example, a plurality of viewing camera work data is generated every predetermined time in the reproduction time from the reproduction start to the reproduction end of the moving image data. The camera work data generated by the client terminal 2a is referred to as “viewing camera work data”. The virtual camera data included in the viewing camera work data is referred to as “viewing camera data”. The viewing camera data is an example of first virtual camera data. Further, the pixel area specified by the viewing camera data is referred to as “first pixel area”. The first pixel region is a viewing range. In addition, the reproduction time included in the viewing camera work data is referred to as “first reproduction time”. The pseudo camera work based on the viewing camera data is called viewing camera work.

そして、クライアント端末2aは、コンテンツの再生中に、コンテンツIDと、生成した視聴カメラワークデータとを対応付けて配信サーバ1へ所定時間間隔で送信する。このコンテンツIDは、再生中のコンテンツのコンテンツIDである。つまり、クライアント端末2aは、視聴カメラデータと、第1再生時間とを時系列に沿って対応付けて配信サーバ1へ送信する。配信サーバ1は、クライアント端末2aから送信されたコンテンツIDと視聴カメラワークデータとを受信する。つまり、配信サーバ1は、視聴カメラデータと第1再生時間とを時系列に沿って対応付けて取得する。なお、視聴カメラワークデータには、カメラワークIDが付与される。カメラワークIDは、カメラワークデータを識別する識別情報である。   Then, the client terminal 2a associates the content ID with the generated viewing camera work data and transmits them to the distribution server 1 at predetermined time intervals during the reproduction of the content. This content ID is the content ID of the content being reproduced. That is, the client terminal 2a transmits the viewing camera data and the first reproduction time to the distribution server 1 in association with each other in time series. The distribution server 1 receives the content ID and viewing camera work data transmitted from the client terminal 2a. That is, the distribution server 1 acquires the viewing camera data and the first reproduction time in association with each other in time series. The viewing camera work data is given a camera work ID. The camera work ID is identification information for identifying camera work data.

配信サーバ1は、雛形カメラワークデータを記憶する。雛形カメラワークデータは、クライアント端末2aに配信する雛形のカメラワークデータである。例えば、雛形のカメラワークデータは、クライアント端末2bにより生成される。配信サーバ1は、クライアント端末2bにより生成されたカメラワークデータ及びカメラワークIDを記憶手段に記憶する。つまり、配信サーバ1は、仮想カメラデータと再生時間とを時系列に沿って対応付けて記憶手段に記憶する。雛形カメラワークデータに含まれる仮想カメラデータを、「雛形カメラデータ」という。雛形カメラデータは、第2仮想カメラデータの一例である。また、雛形カメラデータにより特定される画素領域を、「第2画素領域」という。また、雛形カメラワークデータに含まれる再生時間を、「第2再生時間」という。また、雛形カメラデータに表される疑似カメラワークを雛形カメラワークという。なお、雛形カメラワークデータには、カメラワークIDが付与される。クライアント端末2bは、例えば所定の追跡プログラムにより所定のオブジェクト(表示対象)を自動的に追跡する雛形カメラワークデータを生成しても良い。或いは、クライアント端末2bは、例えば管理者による仮想カメラの操作により所定のオブジェクトを追跡する雛形カメラワークデータを生成しても良い。雛形カメラワークデータを用いることで、動画内の所定のオブジェクトをスムーズに追跡するカメラワークを再現することができる。   The distribution server 1 stores model camera work data. The model camera work data is model camera work data distributed to the client terminal 2a. For example, the model camera work data is generated by the client terminal 2b. The distribution server 1 stores the camera work data and the camera work ID generated by the client terminal 2b in the storage unit. That is, the distribution server 1 stores the virtual camera data and the reproduction time in the storage unit in association with each other in time series. The virtual camera data included in the model camera work data is referred to as “model camera data”. The model camera data is an example of second virtual camera data. In addition, the pixel area specified by the model camera data is referred to as a “second pixel area”. Further, the reproduction time included in the model camera work data is referred to as “second reproduction time”. The pseudo camera work represented in the model camera data is called model camera work. The model camera work data is given a camera work ID. The client terminal 2b may generate model camera work data for automatically tracking a predetermined object (display target) using, for example, a predetermined tracking program. Alternatively, the client terminal 2b may generate model camera work data for tracking a predetermined object by operating a virtual camera by an administrator, for example. By using the model camera work data, it is possible to reproduce a camera work that smoothly tracks a predetermined object in the moving image.

そして、配信サーバ1は、クライアント端末2aから視聴カメラワークデータを受信すると、視聴カメラワークデータに関連する雛形カメラワークデータを検索する。具体的には、配信サーバ1は、コンテンツIDと、複数の雛形カメラワークデータとを対応付けて記憶する。また、配信サーバ1は、受信した視聴カメラワークデータと、視聴カメラワークデータが生成されるために用いられた動画データを識別するコンテンツIDとを対応付けて記憶する。配信サーバ1は、視聴カメラワークデータと対応付けられたコンテンツIDと一致するコンテンツIDを検索する。そして、配信サーバ1は、一致したコンテンツIDと対応付けられた複数の雛形カメラワークデータを特定する。特定された複数の雛形カメラワークデータについて、配信サーバ1は、視聴カメラワークデータに含まれる第1再生時間に対応する第2再生時間が記憶手段にあるかを第1再生時間ごとに判定する。ここで、第1再生時間に対応する第2再生時間には、例えば、第1再生時間と一致する第2再生時間が該当する。ただし、第1再生時間に対応する第2再生時間には一定の幅があってもよい。この場合、第1再生時間に対応する第2再生時間には、第1再生時間のプラスマイナス数十ms範囲内に含まれる第2再生時間が該当する。配信サーバ1は、特定の雛形カメラデータにより特定される第2画素領域が、第1画素領域を少なくとも一部含むかを特定の雛形カメラデータを用いて判定する。ここで、特定の雛形カメラデータとは、記憶手段にあると判定された第2再生時間に対応付けられた雛形カメラデータである。第1画素領域は、上記第1再生時間に対応付けられた視聴カメラデータにより特定される画素領域である。第2画素領域が第1画素領域を少なくとも一部含むかどうかの判定は、言い換えれば、第2画素領域と第1画素領域との一致度の有無の判定である。そして、配信サーバ1は、複数の第2画素領域を少なくとも特定する雛形カメラデータと、複数の第2画素領域がそれぞれ出力される第2再生時間とを時系列に沿って対応付けて含む雛形カメラワークデータをクライアント端末2aへ送信する。ここで、複数の第2画素領域は、第1画素領域を少なくとも一部含む第2画素領域の後に続く画素領域である。第2画素領域の後に続くとは、第2画素領域が出力される第2再生時間の後に続いて出力されることを意味する。   Then, when receiving the viewing camera work data from the client terminal 2a, the distribution server 1 searches for the model camera work data related to the viewing camera work data. Specifically, the distribution server 1 stores a content ID and a plurality of model camera work data in association with each other. Further, the distribution server 1 stores the received viewing camera work data and the content ID for identifying the moving image data used for generating the viewing camera work data in association with each other. The distribution server 1 searches for a content ID that matches the content ID associated with the viewing camera work data. Then, the distribution server 1 identifies a plurality of model camera work data associated with the matched content ID. For a plurality of identified model camera work data, the distribution server 1 determines for each first playback time whether the second playback time corresponding to the first playback time included in the viewing camera work data is in the storage means. Here, the second reproduction time corresponding to the first reproduction time corresponds to, for example, a second reproduction time that matches the first reproduction time. However, the second reproduction time corresponding to the first reproduction time may have a certain width. In this case, the second reproduction time corresponding to the first reproduction time corresponds to the second reproduction time included in the range of plus or minus several tens of ms of the first reproduction time. The distribution server 1 determines whether or not the second pixel area specified by the specific model camera data includes at least a part of the first pixel area using the specific model camera data. Here, the specific model camera data is model camera data associated with the second reproduction time determined to be in the storage unit. The first pixel area is a pixel area specified by the viewing camera data associated with the first reproduction time. The determination as to whether or not the second pixel area includes at least a part of the first pixel area is, in other words, a determination as to whether or not there is a degree of coincidence between the second pixel area and the first pixel area. Then, the distribution server 1 includes a template camera that includes at least time-series template camera data that specifies a plurality of second pixel regions and a second reproduction time in which each of the plurality of second pixel regions is output in association in time series. Work data is transmitted to the client terminal 2a. Here, the plurality of second pixel regions are pixel regions subsequent to the second pixel region including at least a part of the first pixel region. “Subsequent to the second pixel region” means that the second pixel region is output after the second reproduction time during which the second pixel region is output.

クライアント端末2aは、配信サーバ1から、雛形カメラデータと第2再生時間とを時系列に沿って対応付けて含む雛形カメラワークデータを受信する。つまり、クライアント端末2aは、複数の雛形カメラワークデータの中から、特定の雛形カメラワークデータを取得する。特定の雛形カメラワークデータは、第1再生時間に対応し、且つ、第1画素領域の少なくとも一部を表す特定の雛形カメラデータを含む。そして、クライアント端末2aは、取得された特定の雛形カメラワークデータに従った画素領域を、動画データの出力に沿って表示画面に表示させる。例えば、クライアント端末2aは、仮想カメラの操作による視聴カメラデータの代わりに、上記雛形カメラデータに従って、上記第1画素領域を少なくとも一部含む第2画素領域の後に続く第2画素領域を表示画面に表示させる。   The client terminal 2a receives from the distribution server 1 model camera work data including the model camera data and the second reproduction time in association with each other in time series. That is, the client terminal 2a acquires specific model camera work data from a plurality of model camera work data. The specific model camera work data includes specific model camera data corresponding to the first reproduction time and representing at least a part of the first pixel region. And the client terminal 2a displays the pixel area according to the acquired specific model camera work data on the display screen along with the output of the moving image data. For example, the client terminal 2a displays, on the display screen, the second pixel area following the second pixel area including at least a part of the first pixel area according to the model camera data instead of the viewing camera data by the operation of the virtual camera. Display.

[2.各装置の構成]
次に、図1を参照して、本実施形態の通信システムSに含まれる各装置の構成について説明する。配信サーバ1は、図1に示すように、制御部11、記憶部12、及びインターフェース部13等を備えて構成される。これらの構成要素は、バス14に接続されている。インターフェース部13は、ネットワークNWに接続される。制御部11は、コンピュータとしてのCPU(Center Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部11は、コンテンツの送受信、及びカメラワークデータの送受信を制御する。記憶部12は、例えば、例えばハードディスクドライブにより構成される。記憶部12には、OS、及びサーバプログラム等が記憶されている。記憶部12には、例えば撮影装置から受信されたコンテンツがコンテンツIDに対応付けられて記憶される。また、記憶部12には、クライアント端末2b等から受信された複数の雛形カメラワークデータがコンテンツIDに対応に対応付けられて記憶される。また、記憶部12には、複数の雛形カメラワークデータのそれぞれに付与されたカメラワークIDと雛形カメラワークデータの特徴情報とが記憶される。この特徴情報には、雛形カメラワークデータにより追跡されるオブジェクトの名称、オブジェクトID等が含まれる。オブジェクトが人物である場合、オブジェクトの名称は人物名である。オブジェクトIDは、オブジェクトを識別する識別情報である。
[2. Configuration of each device]
Next, the configuration of each device included in the communication system S of the present embodiment will be described with reference to FIG. As shown in FIG. 1, the distribution server 1 includes a control unit 11, a storage unit 12, an interface unit 13, and the like. These components are connected to the bus 14. The interface unit 13 is connected to the network NW. The control unit 11 includes a CPU (Center Processing Unit) as a computer, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 11 controls transmission / reception of contents and transmission / reception of camera work data. The storage unit 12 is configured by, for example, a hard disk drive. The storage unit 12 stores an OS, a server program, and the like. For example, the content received from the photographing apparatus is stored in the storage unit 12 in association with the content ID. The storage unit 12 stores a plurality of model camera work data received from the client terminal 2b or the like in association with the content ID. The storage unit 12 stores a camera work ID assigned to each of the plurality of model camera work data and feature information of the model camera work data. This feature information includes the name of the object tracked by the model camera work data, the object ID, and the like. When the object is a person, the name of the object is a person name. The object ID is identification information for identifying the object.

次に、クライアント端末2a,2bは、図1に示すように、制御部21、記憶部22、ビデオRAM23、映像制御部24、操作処理部25、音声制御部26、及びインターフェース部27等を備えて構成される。これらの構成要素は、バス28に接続されている。制御部21は、コンピュータとしてのCPU(Center Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部11は、本発明の第1表示制御手段、送信手段、取得手段、第1判定手段、第2判定手段及び第2表示制御手段の一例である。制御部11は、タイマー機能を備える。映像制御部24には、ディスプレイを備える表示部24aが接続される。操作処理部25には、操作部25aが接続される。操作部25aには、例えば、マウス、キーボード、リモコン等がある。表示部24aと操作部25aとを兼ねるタッチパネルが適用されてもよい。制御部21は、ユーザによる操作部25aからの操作指示を、操作処理部25を介して受け付ける。ユーザは、操作部25aを用いて、上述した仮想カメラの操作を行うことができる。音声制御部26には、スピーカ26aが接続される。インターフェース部27は、ネットワークNWに接続される。記憶部22は、例えば、ハードディスクドライブ(HDD)により構成される。記憶部22には、OS、及びプレイヤーソフトウェア等が記憶されている。プレイヤーソフトウェアは、コンテンツの受信及び再生処理、及びカメラワークデータの送受信処理をCPUに実行させるプログラムである。   Next, as shown in FIG. 1, the client terminals 2a and 2b include a control unit 21, a storage unit 22, a video RAM 23, a video control unit 24, an operation processing unit 25, an audio control unit 26, an interface unit 27, and the like. Configured. These components are connected to the bus 28. The control unit 21 includes a CPU (Center Processing Unit) as a computer, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 11 is an example of a first display control unit, a transmission unit, an acquisition unit, a first determination unit, a second determination unit, and a second display control unit of the present invention. The control unit 11 has a timer function. A display unit 24 a including a display is connected to the video control unit 24. An operation unit 25 a is connected to the operation processing unit 25. Examples of the operation unit 25a include a mouse, a keyboard, and a remote controller. A touch panel serving both as the display unit 24a and the operation unit 25a may be applied. The control unit 21 receives an operation instruction from the operation unit 25 a by the user via the operation processing unit 25. The user can operate the virtual camera described above using the operation unit 25a. A speaker 26 a is connected to the audio control unit 26. The interface unit 27 is connected to the network NW. The storage unit 22 is configured by, for example, a hard disk drive (HDD). The storage unit 22 stores an OS, player software, and the like. The player software is a program that causes the CPU to execute content reception and playback processing and camera work data transmission / reception processing.

制御部21は、プレイヤーソフトウェアを実行することで、受信されたコンテンツを再生するプレイヤーとして機能する。また、プレイヤーの機能により、表示部24aにおけるディスプレイには、表示画面が表示される。表示画面は、ウインドウともいう。表示画面には、メイン画面とサブ画面とがある。表示画面内のメイン画面には、仮想カメラの操作による視聴カメラデータ、または雛形カメラワークデータに従って、動画が表示される。この動画は、受信された動画データの画像フレームにおける複数の画素の中から特定された画素領域に対応する動画である。サブ画面には、カメラワークデータに従って、メイン画面に表示される候補となる動画が表示される。サブ画面は、メイン画面上に重畳されて表示されてもよい。サブ画面は、メイン画面よりも面積が小さい。制御部21は、配信サーバ1から受信された特定の雛形カメラワークデータの数に応じた数のサブ画面を設定する。そして、制御部21は、例えば、上記特定の雛形カメラワークデータにより特定された第2画素領域を、表示画面内にサブ画面により表示させる。制御部21は、サブ画面に表示されている第2画素領域の指定を受け付けた場合、サブ画面に表示されている第2画素領域をメイン画面に表示させる。また、制御部21におけるRAMにはバッファメモリが設けられている。バッファメモリには、受信されたコンテンツに含まれる動画データ等が一時的に保持される。制御部21は、バッファメモリからビデオRAM23へ動画データを出力する。ビデオRAM23には、描画データを書き込まれるフレームバッファが設けられている。映像制御部24は、制御部21からの制御信号に従って、フレームバッファに書き込まれた描画データを表示画面に描画することで表示させる。また、バッファメモリに保持されたコンテンツに音声データが含まれる場合がある。この場合、制御部21は、バッファメモリから音声データを再生して音声制御部26へ出力する。音声制御部26は、音声データからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ26aへ出力する。   The control unit 21 functions as a player that reproduces the received content by executing the player software. Moreover, a display screen is displayed on the display in the display unit 24a by the function of the player. The display screen is also called a window. The display screen includes a main screen and a sub screen. On the main screen in the display screen, a moving image is displayed according to viewing camera data or model camera work data by operation of the virtual camera. This moving image is a moving image corresponding to a pixel region specified from a plurality of pixels in the image frame of the received moving image data. On the sub screen, moving images that are candidates to be displayed on the main screen are displayed according to the camera work data. The sub screen may be displayed superimposed on the main screen. The sub screen has a smaller area than the main screen. The control unit 21 sets the number of sub-screens corresponding to the number of specific model camera work data received from the distribution server 1. And the control part 21 displays the 2nd pixel area specified by the said specific model camera work data on a display screen on a subscreen, for example. When receiving the designation of the second pixel area displayed on the sub screen, the control unit 21 displays the second pixel area displayed on the sub screen on the main screen. Further, the RAM in the control unit 21 is provided with a buffer memory. The buffer memory temporarily holds moving image data included in the received content. The control unit 21 outputs moving image data from the buffer memory to the video RAM 23. The video RAM 23 is provided with a frame buffer into which drawing data is written. The video control unit 24 displays the drawing data written in the frame buffer by drawing on the display screen according to the control signal from the control unit 21. In some cases, audio data is included in the content held in the buffer memory. In this case, the control unit 21 reproduces the audio data from the buffer memory and outputs it to the audio control unit 26. The voice control unit 26 generates an analog voice signal from the voice data, and outputs the generated analog voice signal to the speaker 26a.

[3.通信システムSの動作]
次に、本実施形態の通信システムSの動作について説明する。先ず、図2を参照して、クライアント端末2aの動作について説明する。図2は、クライアント端末2aの制御部21またはCPUにより実行される処理の一例を示すフローチャートである。図2に示す処理は、クライアント端末2aにおいてプレイヤーの起動後に、例えば、クライアント端末2aのユーザが所望のコンテンツを選択することにより開始される。図2に示す処理が開始されると、制御部21は、表示部24aにおけるディスプレイにメイン画面を設定する(ステップS1)。次いで、制御部21は、コンテンツの受信及び再生処理を開始する(ステップS2)。コンテンツ受信及び再生処理は、例えばOSのマルチタスク機能により、図2に示す処理とは独立して並列的に行われる。コンテンツの受信及び再生処理では、制御部21は、配信サーバ1へアクセスし、コンテンツの要求を送信する。なお、クライアント端末2aが配信サーバ1へアクセスすると、配信サーバ1によりセッションIDが生成される。このセッションIDは、配信サーバ1とクライアント端末2aとの通信セッションを識別する識別情報である。セッションIDは、配信サーバ1からクライアント端末2aへ送信される。そして、制御部21は、コンテンツの要求に応じて、配信サーバ1からストリーミングで配信されたコンテンツを受信しバッファメモリに記憶する。そして、制御部21は、バッファメモリに記憶されたコンテンツに含まれる動画データを再生する。なお、コンテンツの受信及び再生処理は、図2に示す処理の終了まで継続する。
[3. Operation of communication system S]
Next, the operation of the communication system S of the present embodiment will be described. First, the operation of the client terminal 2a will be described with reference to FIG. FIG. 2 is a flowchart illustrating an example of processing executed by the control unit 21 or the CPU of the client terminal 2a. The process shown in FIG. 2 is started, for example, when the user of the client terminal 2a selects desired content after the player is activated in the client terminal 2a. When the process shown in FIG. 2 is started, the control unit 21 sets the main screen on the display in the display unit 24a (step S1). Next, the control unit 21 starts content reception and playback processing (step S2). The content reception and playback processing is performed in parallel with the processing shown in FIG. 2 by the multitask function of the OS, for example. In the content reception and reproduction process, the control unit 21 accesses the distribution server 1 and transmits a request for content. When the client terminal 2a accesses the distribution server 1, the distribution server 1 generates a session ID. This session ID is identification information for identifying a communication session between the distribution server 1 and the client terminal 2a. The session ID is transmitted from the distribution server 1 to the client terminal 2a. Then, in response to the content request, the control unit 21 receives the content distributed by streaming from the distribution server 1 and stores it in the buffer memory. And the control part 21 reproduces | regenerates the moving image data contained in the content memorize | stored in the buffer memory. Note that the content reception and playback processing continues until the end of the processing shown in FIG.

次いで、制御部21は、雛形カメラワークデータがあるか否かを判定する(ステップS3)。例えば雛形カメラワークデータがRAM等に記憶されている場合、制御部21は、雛形カメラワークデータがあると判定する。制御部21は、雛形カメラワークデータがないと判定した場合(ステップS3:NO)、ステップS4へ進む。一方、制御部21は、雛形カメラワークデータがあると判定した場合(ステップS3:YES)、ステップS5へ進む。   Next, the control unit 21 determines whether there is model camera work data (step S3). For example, when model camera work data is stored in a RAM or the like, the control unit 21 determines that there is model camera work data. When it is determined that there is no model camera work data (step S3: NO), the control unit 21 proceeds to step S4. On the other hand, if it is determined that there is model camera work data (step S3: YES), the control unit 21 proceeds to step S5.

ステップS4では、制御部21は、メイン画面へのカメラワーク入力を「手動」に設定し、ステップS6へ進む。ここで、「手動」に設定とは、ユーザによる仮想カメラの操作入力をオンに設定することを意味する。一方、ステップS5では、制御部21は、メイン画面へのカメラワーク入力を「雛形カメラワークデータ」に設定し、ステップS6へ進む。ステップS6では、制御部21は、カメラワークデータの格納処理を開始する。そして、制御部21は、メイン画面への動画表示処理を開始する(ステップS7)。なお、カメラワークデータの格納処理及びメイン画面への動画表示処理は、例えばOSのマルチタスク機能により、図2に示す処理とは独立して並列的に行われる。メイン画面への動画表示処理では、制御部21は、再生された動画データに基づいて動画をメイン画面に表示させる。ここで、カメラワーク入力が「手動」に設定されているとする。この場合、制御部21は、仮想カメラの操作に従って、動画データの画像フレームにおける複数の画素の中から特定された画素領域をメイン画面に表示させる。つまり、制御部21は、仮想カメラの操作による視聴カメラデータに従って特定された画素領域をメイン画面に表示させる。一方、カメラワーク入力が「雛形カメラワークデータ」に設定されているとする。この場合、制御部21は、雛形カメラワークデータに従って特定された画素領域をメイン画面に表示させる。ステップS4で、「手動」に設定された場合、制御部21は、「手動」に設定されたことを表す情報をRAMに一時記憶する。ステップS5で、「雛形カメラワークデータ」に設定された場合、制御部21は、「雛形カメラワークデータ」に設定されたことを表す情報をRAMに一時記憶する。   In step S4, the control unit 21 sets the camera work input to the main screen to “manual”, and proceeds to step S6. Here, the setting “manual” means that the operation input of the virtual camera by the user is set to ON. On the other hand, in step S5, the control unit 21 sets the camera work input to the main screen to “model camera work data”, and proceeds to step S6. In step S <b> 6, the control unit 21 starts a camera work data storage process. And the control part 21 starts the moving image display process to a main screen (step S7). Note that the camera work data storage process and the moving image display process on the main screen are performed in parallel with the process shown in FIG. 2, for example, by the multitask function of the OS. In the moving image display process on the main screen, the control unit 21 displays a moving image on the main screen based on the reproduced moving image data. Here, it is assumed that the camera work input is set to “manual”. In this case, the control unit 21 causes the pixel area specified from the plurality of pixels in the image frame of the moving image data to be displayed on the main screen according to the operation of the virtual camera. That is, the control unit 21 displays the pixel area specified according to the viewing camera data by the operation of the virtual camera on the main screen. On the other hand, it is assumed that the camera work input is set to “model camera work data”. In this case, the control unit 21 displays the pixel region specified according to the model camera work data on the main screen. When “manual” is set in step S4, the control unit 21 temporarily stores information indicating that “manual” is set in the RAM. When the “model camera work data” is set in step S5, the control unit 21 temporarily stores information indicating that the “model camera work data” is set in the RAM.

ここで、図3を参照して、カメラワークデータの格納処理の詳細を説明する。図3は、カメラワークデータの格納処理の一例を示す図である。カメラワークデータの格納処理では、制御部21は、メイン画面が仮想カメラの操作に従って表示されているか否かを判定する(ステップS61)。例えば、制御部21は、RAMに一時記憶された情報に基づいて、メイン画面が仮想カメラの操作に従って表示されているか否かを判定する。制御部21は、メイン画面が仮想カメラの操作に従って表示されていると判定した場合(ステップS61:YES)、ステップS62へ進む。ステップS62では、制御部21は、仮想カメラの操作に従って、視聴カメラデータと第1再生時間とを時系列に沿って対応付けて例えばRAMの所定領域に格納する。一方、制御部21は、メイン画面が仮想カメラの操作に従って表示されていないと判定した場合(ステップS61:NO)、ステップS63へ進む。   Here, with reference to FIG. 3, the details of the storage process of the camera work data will be described. FIG. 3 is a diagram illustrating an example of storage processing of camera work data. In the camera work data storage process, the control unit 21 determines whether or not the main screen is displayed in accordance with the operation of the virtual camera (step S61). For example, the control unit 21 determines whether or not the main screen is displayed in accordance with the operation of the virtual camera based on information temporarily stored in the RAM. When it is determined that the main screen is displayed according to the operation of the virtual camera (step S61: YES), the control unit 21 proceeds to step S62. In step S62, the control unit 21 stores the viewing camera data and the first reproduction time in time series in association with each other in accordance with the operation of the virtual camera, for example, in a predetermined area of the RAM. On the other hand, when it determines with the main screen not being displayed according to operation of a virtual camera (step S61: NO), the control part 21 progresses to step S63.

ステップS63では、制御部21は、メイン画面が雛形カメラワークデータに従って表示されているか否かを判定する。例えば、制御部21は、RAMに一時記憶された情報に基づいて、メイン画面が雛形カメラワークデータに従って表示されているか否かを判定する。制御部21は、メイン画面が雛形カメラワークデータに従って表示されていると判定した場合(ステップS63:YES)、ステップS64へ進む。ステップS64では、雛形カメラデータと第2再生時間とを時系列に沿って対応付けて例えばRAMの所定領域に格納する。一方、制御部21は、メイン画面が雛形カメラワークデータに従って表示されていないと判定した場合(ステップS63:NO)、ステップS65へ進む。ステップS65では、制御部21は、再生中の動画データが再生終了に到達したか否かを判定する。制御部21は、動画データが再生終了に到達していないと判定した場合(ステップS65:NO)、ステップS61に戻る。これにより、カメラワークデータの格納処理が継続する。一方、制御部21は、動画データが再生終了に到達したと判定した場合(ステップS65:YES)、ステップS66へ進む。ステップS66では、ステップS62またはステップS64でRAMの所定領域に格納された視聴カメラデータと再生時間とが時系列に沿って対応付けられた視聴カメラワークデータのファイルを出力し、図3に示す処理を終了する。また、カメラワークデータのファイルの出力先は、例えば記憶部22、または配信サーバ1である。   In step S63, the control unit 21 determines whether or not the main screen is displayed according to the model camera work data. For example, the control unit 21 determines whether or not the main screen is displayed according to the model camera work data based on information temporarily stored in the RAM. When it is determined that the main screen is displayed according to the model camera work data (step S63: YES), the control unit 21 proceeds to step S64. In step S64, the model camera data and the second reproduction time are associated with each other in time series and stored in, for example, a predetermined area of the RAM. On the other hand, when it determines with the main screen not being displayed according to model camera work data (step S63: NO), the control part 21 progresses to step S65. In step S65, the control unit 21 determines whether or not the moving image data being reproduced has reached the end of reproduction. When it is determined that the moving image data has not reached the end of reproduction (step S65: NO), the control unit 21 returns to step S61. Thereby, the storage process of camera work data is continued. On the other hand, when it is determined that the moving image data has reached the end of reproduction (step S65: YES), the control unit 21 proceeds to step S66. In step S66, the viewing camera work data file in which the viewing camera data stored in the predetermined area of the RAM in step S62 or step S64 is associated with the reproduction time in time series is output, and the process shown in FIG. Exit. The output destination of the camera work data file is, for example, the storage unit 22 or the distribution server 1.

ステップS8では、制御部21は、メイン画面へのカメラワーク入力が「手動」に設定されているか否かを判定する。例えば、制御部21は、RAMに一時記憶された情報に基づいて、メイン画面へのカメラワーク入力が「手動」に設定されているか否かを判定する。制御部21は、メイン画面へのカメラワーク入力が「手動」に設定されていないと判定した場合(ステップS8:NO)、ステップS9へ進む。一方、制御部21は、メイン画面へのカメラワーク入力が「手動」に設定されていると判定した場合(ステップS8:YES)、ステップS10へ進む。ステップS9では、制御部21は、仮想カメラの操作があったか否かを判定する。例えばユーザによるマウスの操作があった場合、仮想カメラの操作があったと判定される。制御部21は、仮想カメラの操作があったと判定した場合(ステップS9:YES)、ステップS4に戻る。ステップS4に戻ると、制御部21は、メイン画面へのカメラワーク入力を「手動」に設定する。一方、制御部21は、仮想カメラの操作がないと判定した場合(ステップS9:NO)、ステップS12へ進む。   In step S8, the control unit 21 determines whether or not the camera work input to the main screen is set to “manual”. For example, the control unit 21 determines whether or not the camera work input to the main screen is set to “manual” based on the information temporarily stored in the RAM. When it is determined that the camera work input to the main screen is not set to “manual” (step S8: NO), the control unit 21 proceeds to step S9. On the other hand, when it is determined that the camera work input to the main screen is set to “manual” (step S8: YES), the control unit 21 proceeds to step S10. In step S9, the control unit 21 determines whether or not the virtual camera has been operated. For example, when the user operates the mouse, it is determined that the virtual camera is operated. When it is determined that the virtual camera has been operated (step S9: YES), the control unit 21 returns to step S4. Returning to step S4, the control unit 21 sets the camera work input to the main screen to “manual”. On the other hand, when the control unit 21 determines that there is no operation of the virtual camera (step S9: NO), the control unit 21 proceeds to step S12.

ステップS10では、制御部21は、前回の視聴カメラワークデータの送信から所定時間経過したか否かを判定する。具体的には、制御部21は、視聴カメラワークデータを送信するたびに、送信した日時をRAMに一時記憶しても良い。この所定時間は、制御部21のタイマー機能により例えば数十秒に設定される。制御部21は、前回の視聴カメラワークデータの送信から所定時間経過していないと判定した場合(ステップS10:NO)、ステップS12へ進む。一方、制御部21は、前回の視聴カメラワークデータの送信から所定時間経過したと判定した場合(ステップS10:YES)、ステップS11へ進む。所定時間経過したとは、タイマーにより設定された時間がカウントアップしたことを意味する。ステップS11では、制御部21は、視聴カメラデータと第1再生時間とを時系列に沿って対応付けた視聴カメラワークデータ、コンテンツID、及びセッションIDを配信サーバ1へ送信し、ステップS12へ進む。ここで、送信される視聴カメラデータと第1再生時間は、カメラワークデータの格納処理によりRAMの所定領域に格納された視聴カメラデータと第1再生時間である。また、送信されるコンテンツIDは、再生中のコンテンツのコンテンツIDである。なお、制御部21は、送信した視聴カメラデータ及び第1再生時間をRAMの所定領域から消去する。これは、配信サーバ1へ、重複する視聴カメラデータ及び第1再生時間を送信することを防ぐためである。また、視聴カメラワークデータが送信されると、タイマーのカウント値が0にリセットされる。そして、タイマーのカウントが再開する。これにより、制御部21は、視聴カメラワークデータを例えば所定時間間隔で送信することができる。これにより、制御部21により送信される視聴カメラワークデータは、送信ごとに変わりうるため、配信サーバ1から返信される雛形カメラワークデータ及びその数は毎回変わりうる。例えば1回目の送信で雛形カメラワークデータaと雛形カメラワークデータbが返信され、2回目の送信で雛形カメラワークデータcが返信されるということもありうる。   In step S10, the control unit 21 determines whether or not a predetermined time has elapsed since the previous transmission of the viewing camera work data. Specifically, every time the viewing camera work data is transmitted, the control unit 21 may temporarily store the transmitted date and time in the RAM. This predetermined time is set to, for example, several tens of seconds by the timer function of the control unit 21. When it is determined that the predetermined time has not elapsed since the previous transmission of the viewing camera work data (step S10: NO), the control unit 21 proceeds to step S12. On the other hand, when it is determined that the predetermined time has elapsed since the previous transmission of the viewing camera work data (step S10: YES), the control unit 21 proceeds to step S11. The passage of the predetermined time means that the time set by the timer has been counted up. In step S11, the control unit 21 transmits the viewing camera work data, the content ID, and the session ID in which the viewing camera data and the first reproduction time are associated in time series to the distribution server 1, and the process proceeds to step S12. . Here, the viewing camera data and the first reproduction time to be transmitted are the viewing camera data and the first reproduction time stored in a predetermined area of the RAM by the camera work data storage process. The transmitted content ID is the content ID of the content being reproduced. The control unit 21 deletes the transmitted viewing camera data and the first reproduction time from a predetermined area of the RAM. This is to prevent transmission of overlapping viewing camera data and first reproduction time to the distribution server 1. When viewing camera work data is transmitted, the count value of the timer is reset to zero. Then, the timer count restarts. Thereby, the control part 21 can transmit viewing camera work data at predetermined time intervals, for example. Thereby, since the viewing camera work data transmitted by the control unit 21 can be changed every transmission, the model camera work data returned from the distribution server 1 and the number thereof can be changed every time. For example, the model camera work data a and the model camera work data b may be returned in the first transmission, and the model camera work data c may be returned in the second transmission.

ステップS12では、制御部21は、配信サーバ1から送信された雛形カメラワークデータを受信したか否かを判定する。この雛形カメラワークデータは、ステップS11で送信された視聴カメラワークデータに関連する雛形カメラワークデータである。制御部21は、雛形カメラワークデータを受信していないと判定した場合(ステップS12:NO)、ステップS15へ進む。一方、制御部21は、雛形カメラワークデータを受信したと判定した場合(ステップS12:YES)、ステップS13へ進む。   In step S <b> 12, the control unit 21 determines whether the template camera work data transmitted from the distribution server 1 has been received. This model camera work data is model camera work data related to the viewing camera work data transmitted in step S11. When it determines with the control part 21 not having received model camera work data (step S12: NO), it progresses to step S15. On the other hand, when it determines with the control part 21 having received model camera work data (step S12: YES), it progresses to step S13.

ステップS13では、制御部21は、ステップS12で受信した雛形カメラワークデータの数に応じた数のサブ画面をディスプレイに設定する。例えば、受信した雛形カメラワークデータの数が2つであった場合、サブ画面を2つ設定する。一方、受信した雛形カメラワークデータの数が5つであった場合、サブ画面を5つ設定する。なお、受信された雛形カメラワークデータの数が、サブ画面を設定可能な上限数を超えている場合がある。この場合、制御部21は、この上限数のサブ画面を設定する。次いで、制御部21は、サブ画面への動画表示処理を開始する(ステップS14)。サブ画面への動画表示処理は、例えばOSのマルチタスク機能により、図2に示す処理とは独立して並列的に行われる。サブ画面への動画表示処理では、制御部21は、ステップS12で受信した雛形カメラワークデータに従って特定された画素領域をサブ画面に表示させる。メイン画面で提供される視聴カメラワークと近い雛形カメラワークをサブ画面でユーザに確認させることができる。雛形カメラワークデータが複数受信された場合、制御部21は、複数の雛形カメラワークデータそれぞれにより特定された複数の第2画素領域を複数のサブ画面それぞれに表示させる。なお、配信サーバ1から、雛形カメラワークデータと共に雛形カメラワークデータの特徴情報が送信される場合がある。この場合、受信された雛形カメラワークデータの特徴情報は、この雛形カメラワークデータに対応するサブ画面上に表示される。これにより、ユーザは、雛形カメラワークデータにより追跡されるオブジェクトの名称等を把握することができる。   In step S13, the control unit 21 sets the number of sub-screens corresponding to the number of model camera work data received in step S12 on the display. For example, when the number of received model camera work data is two, two sub-screens are set. On the other hand, when the received number of model camera work data is five, five sub-screens are set. Note that the number of received model camera work data may exceed the upper limit for setting the sub screen. In this case, the control unit 21 sets the upper limit number of sub-screens. Next, the control unit 21 starts a moving image display process on the sub screen (step S14). The moving image display processing on the sub screen is performed in parallel with the processing shown in FIG. 2 by, for example, the multitask function of the OS. In the moving image display process on the sub screen, the control unit 21 displays the pixel region specified according to the template camera work data received in step S12 on the sub screen. It is possible to make the user confirm the model camera work close to the viewing camera work provided on the main screen on the sub screen. When a plurality of model camera work data is received, the control unit 21 displays a plurality of second pixel areas specified by the plurality of model camera work data on each of the plurality of sub-screens. In some cases, the distribution server 1 transmits the feature information of the model camera work data together with the model camera work data. In this case, the feature information of the received model camera work data is displayed on the sub-screen corresponding to the model camera work data. Thereby, the user can grasp the name of the object tracked by the model camera work data.

図4は、クライアント端末2aのディスプレイにおける表示画面の一例を示す図である。図4(A)の例では、メイン画面MVと、2つのサブ画面SV1,SV2が表示されている。また、サブ画面SV1及びSV2には、それぞれ、追跡される人物名が表示されている。一方、図4(B)の例では、メイン画面MVと、5つのサブ画面SV1〜SV5が表示されている。このように、サブ画面の数は、受信された雛形カメラワークデータの数に応じて増減する。これにより、メイン画面で提供される視聴カメラワークと近い複数の雛形カメラワークを複数のサブ画面でユーザに一度に効率良く確認させることができる。   FIG. 4 is a diagram illustrating an example of a display screen on the display of the client terminal 2a. In the example of FIG. 4A, a main screen MV and two sub screens SV1 and SV2 are displayed. Further, the names of persons to be tracked are displayed on the sub-screens SV1 and SV2, respectively. On the other hand, in the example of FIG. 4B, a main screen MV and five sub-screens SV1 to SV5 are displayed. As described above, the number of sub-screens increases or decreases according to the number of received template camera work data. Thereby, a plurality of model camera work close to the viewing camera work provided on the main screen can be efficiently confirmed at once by the user on the plurality of sub screens.

ステップS15では、制御部21は、サブ画面に表示されている第2画素領域の指定を受け付けたか否かを判定する。例えば、ユーザがマウスまたは指でサブ画面上を指定すると、サブ画面に表示されている第2画素領域の指定を受け付けたと判定される。制御部21は、サブ画面に表示されている第2画素領域の指定を受け付けた場合(ステップS15:YES)、ステップS5に移行する。例えば、制御部21は、複数のサブ画面にそれぞれ表示されている複数の第2画素領域の中から、特定の第2画素領域の指定を受け付けた場合、ステップS5へ移行する。ステップS5へ移行すると、制御部21は、メイン画面へのカメラワーク入力を、ステップS15で指定された第2画素領域を特定する雛形カメラワークデータに設定する。これにより、制御部21は、図4(B)に示すようにサブ画面SV5に表示されている第2画素領域を、ステップS7で、図4(C)に示すようにメイン画面MVに表示させる。なお、図4(C)の例では、第2画素領域の指定によりサブ画面は消去される。ところで、第2画素領域の指定が受け付けられる前に、制御部21が仮想カメラの操作による視聴カメラデータに従って特定された画素領域をメイン画面に表示させている場合がある。この場合、制御部21は、ステップS15で第2画素領域の指定を受け付けると、視聴カメラデータの代わりに、指定された特定の第2画素領域を特定する雛形カメラデータに従って、第2画素領域をサブ画面に表示させることになる。なお、制御部21は、複数のサブ画面にそれぞれ表示されている複数の第2画素領域の中から、特定の第2画素領域の指定を受け付けた場合がある。この場合、制御部21は、指定された特定の第2画素領域をメイン画面に表示させることになる。一方、制御部21は、サブ画面に表示されている第2画素領域の指定を受け付けていないと判定した場合(ステップS15:NO)、ステップS16へ進む。   In step S15, the control unit 21 determines whether or not designation of the second pixel area displayed on the sub screen has been received. For example, when the user designates on the sub screen with a mouse or a finger, it is determined that the designation of the second pixel area displayed on the sub screen is accepted. When the designation of the second pixel area displayed on the sub-screen is received (step S15: YES), the control unit 21 proceeds to step S5. For example, when the control unit 21 receives designation of a specific second pixel region from the plurality of second pixel regions respectively displayed on the plurality of sub-screens, the control unit 21 proceeds to step S5. If transfering it to step S5, the control part 21 will set the camera work input to a main screen to the model camera work data which identify the 2nd pixel area designated by step S15. Thereby, the control unit 21 displays the second pixel area displayed on the sub screen SV5 as shown in FIG. 4B on the main screen MV as shown in FIG. 4C in step S7. . In the example of FIG. 4C, the sub screen is erased by designating the second pixel region. By the way, before the designation of the second pixel area is accepted, the control unit 21 may display the pixel area specified according to the viewing camera data by the operation of the virtual camera on the main screen. In this case, when the control unit 21 receives the designation of the second pixel area in step S15, the control unit 21 sets the second pixel area according to the model camera data that identifies the specified second pixel area instead of the viewing camera data. It will be displayed on the sub screen. Note that the control unit 21 may receive designation of a specific second pixel area from among the plurality of second pixel areas respectively displayed on the plurality of sub-screens. In this case, the control unit 21 displays the specified specific second pixel region on the main screen. On the other hand, when it determines with the control part 21 not having received designation | designated of the 2nd pixel area currently displayed on the subscreen (step S15: NO), it progresses to step S16.

ステップS16では、制御部21は、ステップS5で設定された雛形カメラワークデータがあるか否かを判定する。例えばステップS5で設定された雛形カメラワークデータがRAM等に記憶されている場合、制御部21は、雛形カメラワークデータがあると判定する。制御部21は、雛形カメラワークデータがないと判定した場合(ステップ16:NO)、ステップS4に戻る。これにより、メイン画面へのカメラワーク入力が「手動」に設定される。一方、制御部21は、設定された雛形カメラワークデータがあると判定した場合(ステップS16:YES)、ステップS17へ進む。   In step S16, the control unit 21 determines whether there is model camera work data set in step S5. For example, when the model camera work data set in step S5 is stored in the RAM or the like, the control unit 21 determines that there is model camera work data. When it is determined that there is no model camera work data (step 16: NO), the control unit 21 returns to step S4. Thereby, the camera work input to the main screen is set to “manual”. On the other hand, when it determines with the control part 21 having the set model camera work data (step S16: YES), it progresses to step S17.

ステップS17では、制御部21は、再生中の動画データが再生終了に到達したか否かを判定する。制御部21は、動画データが再生終了に到達していないと判定した場合(ステップS17:NO)、ステップS8に戻る。一方、制御部21は、動画データが再生終了に到達したと判定した場合(ステップS17:YES)、図2に示す処理を終了する。なお、図示しないが、図2に示す処理中に、ユーザにより再生停止があった場合、図2に示す処理が終了する。   In step S17, the control unit 21 determines whether or not the moving image data being reproduced has reached the end of reproduction. When it is determined that the moving image data has not reached the end of reproduction (step S17: NO), the control unit 21 returns to step S8. On the other hand, when it determines with the moving image data having reached | attained completion | finish of reproduction | regeneration (step S17: YES), the control part 21 complete | finishes the process shown in FIG. Although not shown, if the user stops playback during the process shown in FIG. 2, the process shown in FIG. 2 ends.

次に、図5を参照して、配信サーバ1の動作について説明する。図5は、配信サーバ1の制御部11またはCPUにより実行される処理の一例を示すフローチャートである。図5に示す処理は、配信サーバ1がクライアント端末2aから送信された視聴カメラワークデータ、コンテンツID、及びセッションIDを受信し、取得することにより開始される。取得された視聴カメラワークデータ、コンテンツID、及びセッションIDは、RAMの所定領域に記憶される。   Next, the operation of the distribution server 1 will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of processing executed by the control unit 11 or the CPU of the distribution server 1. The process shown in FIG. 5 is started when the distribution server 1 receives and acquires viewing camera work data, content ID, and session ID transmitted from the client terminal 2a. The acquired viewing camera work data, content ID, and session ID are stored in a predetermined area of the RAM.

図5に示す処理が開始されると、制御部11は、取得されたコンテンツIDが対応付けられた雛形カメラワークデータを記憶部12から取得する(ステップS21)。取得された雛形カメラワークデータは、RAMの所定領域に記憶される。なお、制御部11は、クライアント端末2aから視聴カメラワークデータと共に取得したセッションIDに基づいて、前回の判定結果情報を検索する。前回の判定結果とは、視聴カメラワークデータの前回の受信時に行われた一致度の有無の判定結果を示す情報である。一致度とは、第2画素領域と第1画素領域との一致度である。制御部11は、上記セッションIDに対応付けられた前回の判定結果情報が例えば記憶部12に記憶されている場合、この判定結果情報をRAMの所定領域に読み込む。   When the process shown in FIG. 5 is started, the control unit 11 acquires model camera work data associated with the acquired content ID from the storage unit 12 (step S21). The acquired model camera work data is stored in a predetermined area of the RAM. The control unit 11 searches for the previous determination result information based on the session ID acquired together with the viewing camera work data from the client terminal 2a. The previous determination result is information indicating the determination result of the degree of coincidence performed at the time of the previous reception of the viewing camera work data. The degree of coincidence is the degree of coincidence between the second pixel area and the first pixel area. When the previous determination result information associated with the session ID is stored in the storage unit 12, for example, the control unit 11 reads the determination result information into a predetermined area of the RAM.

次いで、制御部11は、ステップS21で取得された雛形カメラワークデータの中から、視聴カメラワークデータに含まれる第1再生時間と一致する第2再生時間を含む雛形カメラワークデータを特定する(ステップS22)。すなわち、制御部11は、視聴カメラワークデータに含まれる第1再生時間と一致する第2再生時間がRAMの所定領域にあるかを第1再生時間ごとに判定する。ここで、視聴カメラワークデータが数十ms(ミリ秒)ごとに第1再生時間を規定しているとする。この場合、制御部11は、第1再生時間と一致する第2再生時間がRAMの所定領域にあるかを数十msごとに判定する。つまり、1画像フレームごとに判定される。或いは、この場合、制御部11は、第1再生時間と一致する第2再生時間がRAMの所定領域にあるかを数十msより長い間隔で判定するようにしてもよい。つまり、複数の画像フレームごとに判定されるようにしてもよい。なお、全ての再生時間、または所定数以上の第1再生時間において一致する第2再生時間がRAMの所定領域にない場合、図5に示す処理が終了する。そして、制御部11は、RAMの所定領域にあると判定された第2再生時間を含む1または複数雛形カメラワークデータを特定する。なお、上記のように一致すると判定された第2再生時間と第1再生時間を、以下、単に、「再生時間」という。   Next, the control unit 11 specifies model camera work data including a second playback time that matches the first playback time included in the viewing camera work data from the model camera work data acquired in step S21 (step S21). S22). That is, the control unit 11 determines, for each first reproduction time, whether or not the second reproduction time that matches the first reproduction time included in the viewing camera work data is in a predetermined area of the RAM. Here, it is assumed that the viewing camera work data defines the first reproduction time every several tens of milliseconds (milliseconds). In this case, the control unit 11 determines every several tens of milliseconds whether or not the second reproduction time that matches the first reproduction time is in the predetermined area of the RAM. That is, it is determined for each image frame. Alternatively, in this case, the control unit 11 may determine whether the second reproduction time that matches the first reproduction time is in a predetermined area of the RAM at intervals longer than several tens of ms. That is, the determination may be made for each of a plurality of image frames. If the second reproduction time that coincides in all the reproduction times or the first reproduction time equal to or greater than the predetermined number is not in the predetermined area of the RAM, the process shown in FIG. 5 ends. Then, the control unit 11 specifies one or a plurality of model camera work data including the second reproduction time determined to be in the predetermined area of the RAM. The second playback time and the first playback time determined to match as described above are simply referred to as “playback time” hereinafter.

次いで、制御部11は、雛形カメラデータにより特定される第2画素領域が、視聴カメラデータにより特定される第1画素領域を少なくとも一部含むかを再生時間ごとに判定する(ステップS23)。つまり、第2画素領域と第1画素領域との一致度の有無が判定される。ここで、雛形カメラデータは、ステップS22で特定された雛形カメラワークデータに含まれる雛形カメラデータである。また、視聴カメラデータは、取得された視聴カメラワークデータに含まれる視聴カメラデータである。例えば、制御部11は、特定の雛形カメラデータにより特定される第2画素領域の中心座標が、第1画素領域の中心座標から所定範囲以内にあるか判定する。第1画素領域の中心座標から所定範囲内に、第2画素領域の中心座標がある場合、この第2画素領域は、第1画素領域を少なくとも一部含むとして判定されることになる。つまり、所定範囲は、複数の画素から構成されている。所定範囲内の複数の画素の位置は、それぞれ、例えば、画像フレームの左上端位置を原点とする座標で表される。所定範囲内の複数の画素に対応する複数の座標の中に、第2画素領域の中心座標と一致する座標がある場合、第2画素領域は、第1画素領域を少なくとも一部含むとして判定される。この場合、制御部11は、この判定前に、視聴カメラデータに含まれるパン及びチルトから中心座標を算出する。そして、制御部11は、算出した中心座標とズーム倍率から上記所定範囲を決定することになる。この所定範囲は、ズーム倍率に応じて変化する。なお、第1画素領域と第2画素領域と全部または一部が重なる場合、この第2画素領域は、第1画素領域を少なくとも一部含むとして判定されてもよい。例えば、第1画素領域を構成する複数の画素に対応する複数の座標の中の少なくとも1つの座標と、第2画素領域を構成する複数の画素に対応する複数の座標の中の少なくとも1つの座標とが一致する場合、この第2画素領域は、第1画素領域を少なくとも一部含むとして判定される。   Next, the control unit 11 determines, for each reproduction time, whether the second pixel area specified by the model camera data includes at least a part of the first pixel area specified by the viewing camera data (step S23). That is, it is determined whether or not there is a degree of coincidence between the second pixel region and the first pixel region. Here, the model camera data is model camera data included in the model camera work data specified in step S22. The viewing camera data is viewing camera data included in the acquired viewing camera work data. For example, the control unit 11 determines whether the center coordinates of the second pixel area specified by the specific model camera data are within a predetermined range from the center coordinates of the first pixel area. When the center coordinates of the second pixel area are within a predetermined range from the center coordinates of the first pixel area, the second pixel area is determined as including at least a part of the first pixel area. That is, the predetermined range is composed of a plurality of pixels. The positions of the plurality of pixels within the predetermined range are each represented by coordinates having the origin at the upper left position of the image frame, for example. If there is a coordinate that matches the center coordinate of the second pixel region among the plurality of coordinates corresponding to the plurality of pixels within the predetermined range, the second pixel region is determined to include at least a part of the first pixel region. The In this case, the control unit 11 calculates center coordinates from the pan and tilt included in the viewing camera data before this determination. Then, the control unit 11 determines the predetermined range from the calculated center coordinates and zoom magnification. This predetermined range changes according to the zoom magnification. In addition, when all or a part of the first pixel region and the second pixel region overlap, the second pixel region may be determined as including at least a part of the first pixel region. For example, at least one coordinate among a plurality of coordinates corresponding to a plurality of pixels constituting the first pixel region and at least one coordinate among a plurality of coordinates corresponding to the plurality of pixels constituting the second pixel region Is determined to include at least a part of the first pixel region.

図6は、複数の画像フレームにおける視聴カメラワークデータと雛形カメラワークデータとの関係の一例を示す概念図である。図6に示すR1〜R5は、第1画素領域を示す。図6に示すH1〜H5は、所定範囲を示す。図7(A)は、図6に示す視聴カメラワークデータと雛形カメラワークデータの内容の一例を示す図である。図7(A)に示す雛形カメラワークデータa〜cは、ステップS22で特定された雛形カメラワークデータである。雛形カメラワークデータa〜cのカメラワークIDは互いに異なる。図6及び図7(A)の例では、仮想カメラデータが示すパン,チルトを、画素領域の中心座標(x,y)に変換した例を示している。なお、図7(A)の例では、雛形カメラワークデータa〜cに含まれるズーム倍率を省略している。また、図6及び図7(A)の例では、説明の便宜上、再生時間を1s〜5sの1秒間隔としているが、実際には数十msの間隔である。また、図6の例では、雛形カメラワークデータa〜cは、それぞれ異なるオブジェクトを追跡する。しかし、雛形カメラワークデータa〜cは、同一のオブジェクトを追跡する場合もある。   FIG. 6 is a conceptual diagram showing an example of the relationship between viewing camera work data and model camera work data in a plurality of image frames. R1 to R5 shown in FIG. 6 indicate the first pixel region. H1 to H5 shown in FIG. 6 indicate a predetermined range. FIG. 7A is a diagram showing an example of the contents of the viewing camera work data and the model camera work data shown in FIG. The model camera work data ac shown in FIG. 7A is the model camera work data specified in step S22. The camera work IDs of the model camera work data ac are different from each other. 6 and 7A show an example in which pan and tilt indicated by virtual camera data are converted into center coordinates (x, y) of the pixel area. In the example of FIG. 7A, the zoom magnification included in the model camera work data ac is omitted. In the example of FIGS. 6 and 7A, for convenience of explanation, the reproduction time is 1 second between 1 s and 5 s, but it is actually several tens of milliseconds. In the example of FIG. 6, the model camera work data ac tracks different objects. However, the model camera work data ac may track the same object.

図7(B)は、再生時間ごとの判定結果の一例を雛形カメラワークデータごとに示す図である。このような判定結果は、例えば、RAMの所定領域に記憶されたテーブルに登録される。前回の判定結果情報がステップS21で取得された場合、前回の判定結果がテーブルに追加される。図6に示す再生時間1sにおける画像フレームでは、第1画素領域R1の中心座標(x01,y01)から所定範囲H1内に、中心座標(xa1,ya1)、中心座標(xb1,yb1)、及び中心座標(xc1,yc1)がある。そのため、再生時間1sにおける雛形カメラワークデータa〜cの判定結果は、図7(B)に示すように、いずれもOKとなっている。OKは、第1画素領域の中心座標から所定範囲内に第2画素領域の中心座標があると判定されたことを示す。つまり、OKは、第2画素領域と第1画素領域との一致度が有と判定されたことを示す。図6に示す再生時間2sにおける画像フレームでは、第1画素領域R2の中心座標(x02,y02)から所定範囲H2内には、中心座標(xa2,ya2)、及び中心座標(xb2,yb2)がある。そのため、再生時間2sにおける雛形カメラワークデータa,bの判定結果は、図7(B)に示すように、それぞれ、OKとなっている。一方、第1画素領域R2の中心座標(x02,y02)から所定範囲H2内には、中心座標(xc2,yc2)が含まれていない。そのため、再生時間2sにおける雛形カメラワークデータcの判定結果は、図7(B)に示すように、NGとなっている。NGは、第1画素領域の中心座標から所定範囲内に第2画素領域の中心座標が含まれないと判定されたことを示す。つまり、NGは、第2画素領域と第1画素領域との一致度が無と判定されたことを示す。なお、図6に示す再生時間3sにおける雛形カメラワークデータa〜cの判定結果は、それぞれ、図7(B)に示すように、NGとなっている。   FIG. 7B is a diagram illustrating an example of a determination result for each reproduction time for each model camera work data. Such a determination result is registered in a table stored in a predetermined area of the RAM, for example. When the previous determination result information is acquired in step S21, the previous determination result is added to the table. In the image frame at the reproduction time 1s shown in FIG. 6, the center coordinates (xa1, ya1), the center coordinates (xb1, yb1), and the center are within a predetermined range H1 from the center coordinates (x01, y01) of the first pixel region R1. There are coordinates (xc1, yc1). Therefore, the determination results of the model camera work data a to c at the reproduction time 1 s are all OK as shown in FIG. OK indicates that it is determined that the center coordinates of the second pixel region are within a predetermined range from the center coordinates of the first pixel region. That is, OK indicates that the degree of coincidence between the second pixel area and the first pixel area is determined to be present. In the image frame at the reproduction time 2s shown in FIG. 6, the center coordinates (xa2, ya2) and the center coordinates (xb2, yb2) are within the predetermined range H2 from the center coordinates (x02, y02) of the first pixel region R2. is there. Therefore, the determination results of the model camera work data a and b at the reproduction time 2s are OK as shown in FIG. 7B. On the other hand, the center coordinates (xc2, yc2) are not included in the predetermined range H2 from the center coordinates (x02, y02) of the first pixel region R2. Therefore, the determination result of the model camera work data c at the reproduction time 2s is NG as shown in FIG. 7B. NG indicates that it is determined that the center coordinates of the second pixel region are not included within a predetermined range from the center coordinates of the first pixel region. That is, NG indicates that the degree of coincidence between the second pixel area and the first pixel area is determined to be none. Note that the determination results of the model camera work data ac in the reproduction time 3 s shown in FIG. 6 are NG as shown in FIG. 7B, respectively.

図6の例では、上記所定範囲は、第1画素領域の中心座標から所定距離内の円とした。しかし、上記所定範囲は、第1画素領域の中心座標を含む矩形状の範囲としてもよい。或いは、上記所定範囲は、第1画素領域全部であってもよい。なお、制御部11は、所定範囲における中心座標からの距離をズーム倍率に応じて変化するように設定する。例えば、図7(A)に示すように、再生時間1sにおけるズーム倍率は1倍である。一方、再生時間2sにおけるズーム倍率は2倍である。そのため、図6に示すように、ズーム倍率2倍の時の中心座標からの距離(半径)は、ズーム倍率1倍の時の中心座標からの距離(半径)Rの1/2に設定される。   In the example of FIG. 6, the predetermined range is a circle within a predetermined distance from the center coordinates of the first pixel region. However, the predetermined range may be a rectangular range including the center coordinates of the first pixel region. Alternatively, the predetermined range may be the entire first pixel region. Note that the control unit 11 sets the distance from the center coordinate in the predetermined range so as to change according to the zoom magnification. For example, as shown in FIG. 7A, the zoom magnification during the reproduction time 1 s is 1. On the other hand, the zoom magnification in the reproduction time 2s is 2 times. Therefore, as shown in FIG. 6, the distance (radius) from the center coordinate when the zoom magnification is 2 times is set to ½ of the distance (radius) R from the center coordinate when the zoom magnification is 1 time. .

次いで、制御部11は、ステップS22で特定された雛形カメラワークデータの中に、所定の送信条件を満たす雛形カメラワークデータがあるか否かを判定する(ステップS24)。この送信条件は、所定の再生期間内に一致度有と判定された割合が基準割合以上であるという条件である。ここで、再生期間は、例えば5秒〜10秒の間に設定される。最新の視聴カメラデータに対応付けられた第2再生時間から、再生期間分遡った期間がステップS24での判定対象となる。また、基準割合は、例えば、60%〜80%の間に設定される。図7(B)は、再生期間は5秒に設定された例を示す。この場合、雛形カメラワークデータaは、ステップS23で一致度有と判定された割合が4/5(80%)である。また、雛形カメラワークデータbは、ステップS23で一致度有と判定された割合が3/5(60%)である。そのため、基準割合を60%とすると、雛形カメラワークデータaと雛形カメラワークデータbが送信条件を満たすことになる。一方、基準割合を80%とすると、雛形カメラワークデータaのみが送信条件を満たすことになる。制御部11は、所定の送信条件を満たす雛形カメラワークデータがあると判定した場合(ステップS24:YES)、ステップS25へ進む。一方、制御部11は、所定の送信条件を満たす雛形カメラワークデータがないと判定した場合(ステップS24:NO)、クライアント端末2aへNULLメッセージを送信し、図5に示す処理を終了する。NULLメッセージは、雛形カメラワークデータがないことを示すメッセージである。   Next, the control unit 11 determines whether there is model camera work data satisfying a predetermined transmission condition in the model camera work data specified in step S22 (step S24). This transmission condition is a condition that the ratio determined to have a coincidence within a predetermined reproduction period is equal to or higher than the reference ratio. Here, the reproduction period is set, for example, between 5 seconds and 10 seconds. A period retroactive to the reproduction period from the second reproduction time associated with the latest viewing camera data is determined in step S24. Further, the reference ratio is set between 60% and 80%, for example. FIG. 7B shows an example in which the playback period is set to 5 seconds. In this case, the model camera work data a has a ratio of 4/5 (80%) determined to have a degree of coincidence in step S23. In addition, the model camera work data b has a ratio of 3/5 (60%) determined to have a degree of coincidence in step S23. Therefore, if the reference ratio is 60%, the model camera work data a and the model camera work data b satisfy the transmission condition. On the other hand, if the reference ratio is 80%, only the model camera work data a satisfies the transmission condition. When it is determined that there is model camera work data that satisfies a predetermined transmission condition (step S24: YES), the control unit 11 proceeds to step S25. On the other hand, if the control unit 11 determines that there is no model camera work data that satisfies a predetermined transmission condition (step S24: NO), the control unit 11 transmits a NULL message to the client terminal 2a and ends the process shown in FIG. The NULL message is a message indicating that there is no model camera work data.

ステップS25では、制御部11は、ステップS24で所定の送信条件を満たすと判定された雛形カメラワークデータを取得する。ここで、取得される雛形カメラワークデータには、上記第1画素領域を少なくとも一部含むと判定された第2画素領域の後に続く複数の第2画素領域を特定する複数の雛形カメラデータが含まれる。また、取得される雛形カメラワークデータには、上記後に続く複数の第2画素領域を特定する複数の雛形カメラデータに対応付けられた第2再生時間が含まれる。つまり、クライアント端末2aにより、これから再生される再生期間における雛形カメラデータ及び第2再生時間が雛形カメラワークデータに少なくとも含まれる。ただし、取得される雛形カメラワークデータには、例えば、上述したように一部含むと判定された第2画素領域の前に出力された第2画素領域を特定する複数の雛形カメラデータが含まれてもよい。つまり、取得される雛形カメラワークデータには、動画データの再生開始から再生終了までにおける雛形カメラデータ及び第2再生時間が含まれてもよい。   In step S25, the control unit 11 acquires model camera work data determined to satisfy the predetermined transmission condition in step S24. Here, the acquired model camera work data includes a plurality of model camera data for specifying a plurality of second pixel areas following the second pixel area determined to include at least a part of the first pixel area. It is. Further, the acquired model camera work data includes a second reproduction time associated with a plurality of model camera data specifying a plurality of second pixel areas that follow. That is, at least the model camera data and the second playback time in the playback period to be played back by the client terminal 2a are included in the model camera work data. However, the acquired model camera work data includes, for example, a plurality of model camera data specifying the second pixel area output before the second pixel area determined to be partially included as described above. May be. That is, the acquired model camera work data may include the model camera data and the second playback time from the start of playback of the moving image data to the end of playback.

次いで、制御部11は、ステップS25で取得した雛形カメラワークデータをクライアント端末2aへ送信する(ステップS26)。これにより、クライアント端末2aは、上記ステップS12で雛形カメラワークデータを受信すると、上記第1画素領域を少なくとも一部含む第2画素領域の後に続く第2画素領域をサブ画面に表示させることになる。そして、制御部11は、ステップS24における判定結果を、クライアント端末2aのセッションIDに対応付けて例えば記憶部12に記憶した後、図5に示す処理を終了する。   Next, the control unit 11 transmits the model camera work data acquired in step S25 to the client terminal 2a (step S26). Accordingly, when the client terminal 2a receives the model camera work data in step S12, the client terminal 2a displays the second pixel area following the second pixel area including at least a part of the first pixel area on the sub screen. . And the control part 11 matches the determination result in step S24 with the session ID of the client terminal 2a, for example, memorize | stores in the memory | storage part 12, and complete | finishes the process shown in FIG.

以上説明したように、本実施形態によれば、クライアント端末2aは、配信サーバ1が記憶する複数の雛形カメラワークデータの中から、第1再生時間に対応し、且つ、第1画素領域の少なくとも一部を表す特定の雛形カメラデータを含む特定の雛形カメラワークデータを取得する。そして、クライアント端末2aは、取得した特定の雛形カメラワークデータに従った画素領域を動画データの出力に沿って表示画面に表示させる。そのため、例えば動画におけるオブジェクトが予期しない動きをする場合であっても、動画におけるオブジェクトをスムーズに追跡表示させることができる。   As described above, according to the present embodiment, the client terminal 2a corresponds to the first reproduction time among the plurality of model camera work data stored in the distribution server 1, and at least in the first pixel region. Specific model camera work data including specific model camera data representing a part is acquired. And the client terminal 2a displays the pixel area according to the acquired specific model camera work data on the display screen along with the output of the moving image data. Therefore, for example, even when an object in a moving image moves unexpectedly, the object in the moving image can be smoothly displayed for tracking.

なお、上記実施形態においては、配信サーバ1は、クライアント端末2aから視聴カメラワークデータを受信すると、第2画素領域と第1画素領域との一致度の有無の判定を行うように構成した。しかし、クイアント端末2aの制御部21が第2画素領域と第1画素領域との一致度の有無の判定を行うように構成してもよい。この場合、クライアント端末2aの制御部21は、複数の雛形カメラワークデータを配信サーバ1から事前に取得し記憶部22に記憶しておく。そして、クライアント端末2aの制御部21は、第1再生時間に対応する第2再生時間に対応付けられた特定の雛形カメラデータにより特定される第2画素領域が、第1画素領域を少なくとも一部含むかを判定する。クライアント端末2aの制御部21は、第1画素領域を少なくとも一部含むと判定された場合、複数の雛形カメラワークデータの中で、特定の雛形カメラデータを含む特定の雛形カメラワークデータに従った画素領域を、動画データの出力に沿って表示画面に表示させる。例えば、クライアント端末2aの制御部21は、記憶部22に記憶された複数の雛形カメラワークデータを用いて上述した図5に示すステップS21〜S25の処理を行うことになる。また、クライアント端末2aの制御部21は、複数の雛形カメラワークデータを記憶した配信サーバ1の記憶部12を参照しながら、複数の雛形カメラワークデータを用いて上述した図5に示すステップS21〜S25の処理を行っても良い。   In the embodiment described above, the distribution server 1 is configured to determine whether or not there is a degree of coincidence between the second pixel area and the first pixel area when viewing camera work data is received from the client terminal 2a. However, the control unit 21 of the client terminal 2a may be configured to determine whether or not there is a degree of coincidence between the second pixel area and the first pixel area. In this case, the control unit 21 of the client terminal 2 a acquires a plurality of model camera work data from the distribution server 1 in advance and stores the data in the storage unit 22. Then, the control unit 21 of the client terminal 2a has at least a part of the second pixel area specified by the specific model camera data associated with the second reproduction time corresponding to the first reproduction time. Determine whether to include. When it is determined that the control unit 21 of the client terminal 2a includes at least a part of the first pixel area, the control unit 21 according to the specific model camera work data including the specific model camera data among the plurality of model camera work data. The pixel area is displayed on the display screen along with the output of the moving image data. For example, the control unit 21 of the client terminal 2a uses the plurality of model camera work data stored in the storage unit 22 to perform the processes of steps S21 to S25 illustrated in FIG. In addition, the control unit 21 of the client terminal 2a refers to the storage unit 12 of the distribution server 1 that stores a plurality of model camera work data, and uses the plurality of model camera work data to perform steps S21 to S21 shown in FIG. You may perform the process of S25.

1 配信サーバ
2a,2b クライアント端末
S 通信システム
1 Distribution server 2a, 2b Client terminal S Communication system

Claims (7)

複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御ステップと、
前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けてサーバ装置へ送信する送信ステップと、
前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、前記サーバ装置が記憶する複数の前記カメラワークデータの中から、前記第1再生時間に対応し、且つ、前記第1画素領域の少なくとも一部を表す特定の仮想カメラデータを含む特定のカメラワークデータを取得する取得ステップと、
前記取得ステップにより取得された前記特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A first pixel region identified from among the plurality of pixels according to an operation of a virtual camera in the image frame of the moving image data composed of the plurality of image frames, the image frame including a plurality of pixels; A first display control step to be displayed on the display screen;
First virtual camera data representing at least one of the position of the virtual camera or the direction of the virtual camera that causes the first pixel area to be displayed on the display screen, and the first pixel area are displayed on the display screen. A transmission step of associating the first reproduction time with a time series and transmitting to the server device;
Second virtual camera data representing at least one of a position of a virtual camera or a direction of the virtual camera in the image frame of the moving image data, and a second specified from the plurality of pixels by the second virtual camera data. Camera work data in which a second reproduction time at which a two-pixel region is output is associated in time series, and the first reproduction time is selected from a plurality of camera work data stored in the server device. And acquiring specific camera work data including specific virtual camera data representing at least a part of the first pixel region;
A second display control step of displaying a pixel area according to the specific camera work data acquired in the acquisition step on the display screen along with the output of the moving image data;
A program that causes a computer to execute.
複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの出力に沿って、前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御ステップと、
前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けて取得する取得ステップと、
前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、複数の前記カメラワークデータを記憶した記憶手段に、前記取得ステップにより取得された前記第1再生時間に対応する前記第2再生時間があるかを判定する第1判定ステップと、
前記第1判定ステップにより前記記憶手段にあると判定された場合、前記第2再生時間に対応付けられた特定の前記第2仮想カメラデータにより特定される第2画素領域が、前記第1画素領域を少なくとも一部含むかを判定する第2判定ステップと、
前記第2判定ステップにより前記第1画素領域を少なくとも一部含むと判定された場合、複数の前記カメラワークデータの中で、特定の前記第2仮想カメラデータを含む特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
An image frame composed of a plurality of pixels, identified from among the plurality of pixels according to an operation of a virtual camera in the image frame along with output of moving image data composed of the plurality of image frames A first display control step for displaying the first pixel region on the display screen;
First virtual camera data representing at least one of the position of the virtual camera or the direction of the virtual camera that causes the first pixel area to be displayed on the display screen, and the first pixel area are displayed on the display screen. An acquisition step of acquiring the first reproduction time in association with each other in time series;
Second virtual camera data representing at least one of a position of a virtual camera or a direction of the virtual camera in the image frame of the moving image data, and a second specified from the plurality of pixels by the second virtual camera data. The camera work data in which the second reproduction time for outputting the two-pixel region is associated with each other in time series, and a plurality of the camera work data stored in the storage unit is acquired by the acquisition step. A first determination step of determining whether there is the second reproduction time corresponding to the first reproduction time;
When it is determined in the storage means by the first determination step, the second pixel area specified by the specific second virtual camera data associated with the second reproduction time is the first pixel area. A second determination step for determining whether at least a part of
When it is determined by the second determination step that at least a part of the first pixel area is included, the specific camera work data including the specific second virtual camera data is obeyed among the plurality of camera work data. A second display control step of displaying a pixel region on the display screen along with the output of the moving image data;
A program that causes a computer to execute.
前記第2判定ステップは、特定の前記第2仮想カメラデータにより特定される第2画素領域の中心座標が、前記第1画素領域の中心座標から所定範囲以内にあるかを判定することを特徴とする請求項に記載のプログラム。 In the second determination step, it is determined whether the center coordinates of the second pixel area specified by the specific second virtual camera data are within a predetermined range from the center coordinates of the first pixel area. The program according to claim 2 . 前記第1表示制御ステップは、前記第1画素領域を前記表示画面内のメイン画面に表示させ、
前記第2表示制御ステップは、前記第2画素領域を、前記表示画面内に、前記メイン画面よりも面積が小さいサブ画面により表示させ、
前記プログラムは、
前記サブ画面に表示されている前記第2画素領域の指定を受け付ける受け付けステップと、
前記第2画素領域の指定が受け付けられた場合、前記サブ画面に表示されている前記第2画素領域を前記メイン画面に表示させる第3表示制御ステップと、
を前記コンピュータに更に実行させることを特徴とする請求項1から請求項3のいずれか一項に記載のプログラム。
In the first display control step, the first pixel region is displayed on a main screen in the display screen,
In the second display control step, the second pixel region is displayed in the display screen by a sub-screen having a smaller area than the main screen,
The program is
An accepting step of accepting designation of the second pixel area displayed on the sub-screen;
A third display control step of displaying the second pixel area displayed on the sub-screen on the main screen when designation of the second pixel area is accepted;
The program according to any one of claims 1 to 3 , further causing the computer to execute.
前記第2表示制御ステップは、特定の前記第2仮想カメラデータの数に応じた数の前記サブ画面を設定し、特定の前記第2仮想カメラデータそれぞれにより特定された複数の前記第2画素領域を、複数の前記サブ画面それぞれに表示させ、
前記受け付けステップは、複数の前記サブ画面にそれぞれ表示されている複数の前記第2画素領域の中から、特定の前記第2画素領域の指定を受け付け、
前記第3表示制御ステップは、特定の前記第2画素領域の指定が受け付けられた場合、指定された特定の前記第2画素領域を前記メイン画面に表示させることを特徴とする請求項に記載のプログラム。
The second display control step sets a number of the sub-screens according to the number of specific second virtual camera data, and a plurality of the second pixel regions specified by each specific second virtual camera data Is displayed on each of the plurality of sub-screens,
The accepting step accepts designation of a specific second pixel region from among the plurality of second pixel regions respectively displayed on the plurality of sub-screens,
The third display control step, when the specification of a particular said second pixel region is accepted, wherein the specified particular the second pixel regions in claim 4, characterized in that to be displayed on the main screen Program.
複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御手段と、
前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けてサーバ装置へ送信する送信手段と、
前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、前記サーバ装置が記憶する複数の前記カメラワークデータの中から、前記第1再生時間に対応し、且つ、前記第1画素領域の少なくとも一部を表す特定の仮想カメラデータを含む特定のカメラワークデータを取得する取得手段と、
前記取得手段により取得された前記特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御手段と、
を備えることを特徴とする端末装置。
A first pixel region identified from among the plurality of pixels according to an operation of a virtual camera in the image frame of the moving image data composed of the plurality of image frames, the image frame including a plurality of pixels; First display control means for displaying on the display screen;
First virtual camera data representing at least one of the position of the virtual camera or the direction of the virtual camera that causes the first pixel area to be displayed on the display screen, and the first pixel area are displayed on the display screen. Transmitting means for associating the first reproduction time with a time series and transmitting the first reproduction time to the server device;
Second virtual camera data representing at least one of a position of a virtual camera or a direction of the virtual camera in the image frame of the moving image data, and a second specified from the plurality of pixels by the second virtual camera data. Camera work data in which a second reproduction time at which a two-pixel region is output is associated in time series, and the first reproduction time is selected from a plurality of camera work data stored in the server device. And obtaining means for obtaining specific camera work data including specific virtual camera data representing at least a part of the first pixel region;
Second display control means for displaying a pixel region according to the specific camera work data acquired by the acquisition means on the display screen along with the output of the moving image data;
A terminal device comprising:
複数の画素から構成される画像フレームであって、複数の前記画像フレームから構成される動画データの出力に沿って、前記画像フレームにおける仮想カメラの操作に従って、前記複数の画素の中から特定された第1画素領域を表示画面に表示させる第1表示制御手段と、
前記第1画素領域を前記表示画面に表示させた前記仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第1仮想カメラデータと、前記第1画素領域が前記表示画面に表示された第1再生時間とを時系列に沿って対応付けて取得する取得手段と、
前記動画データの前記画像フレームにおける仮想カメラの位置または前記仮想カメラの向きのうち少なくとも何れかを表す第2仮想カメラデータと、前記第2仮想カメラデータにより前記複数の画素の中から特定される第2画素領域が出力される第2再生時間と、を時系列に沿って対応付けたカメラワークデータであって、複数の前記カメラワークデータを記憶した記憶手段に、前記取得手段により取得された前記第1再生時間に対応する前記第2再生時間があるかを判定する第1判定手段と、
前記第1判定手段により前記記憶手段にあると判定された場合、前記第2再生時間に対応付けられた特定の前記第2仮想カメラデータにより特定される第2画素領域が、前記第1画素領域を少なくとも一部含むかを判定する第2判定手段と、
前記第2判定手段により前記第1画素領域を少なくとも一部含むと判定された場合、複数の前記カメラワークデータの中で、特定の前記第2仮想カメラデータを含む特定のカメラワークデータに従った画素領域を、前記動画データの出力に沿って前記表示画面に表示させる第2表示制御手段と、
を備えることを特徴とする端末装置。
An image frame composed of a plurality of pixels, identified from among the plurality of pixels according to an operation of a virtual camera in the image frame along with output of moving image data composed of the plurality of image frames First display control means for displaying the first pixel region on the display screen;
First virtual camera data representing at least one of the position of the virtual camera or the direction of the virtual camera that causes the first pixel area to be displayed on the display screen, and the first pixel area are displayed on the display screen. Acquisition means for acquiring the first reproduction time in association with each other in time series;
Second virtual camera data representing at least one of a position of a virtual camera or a direction of the virtual camera in the image frame of the moving image data, and a second specified from the plurality of pixels by the second virtual camera data. The camera work data in which the second reproduction time in which the two-pixel region is output is associated in time series, the storage means storing a plurality of the camera work data acquired by the acquisition means First determination means for determining whether there is the second reproduction time corresponding to the first reproduction time;
When it is determined by the first determination unit that the data is stored in the storage unit, the second pixel region specified by the specific second virtual camera data associated with the second reproduction time is the first pixel region. Second determination means for determining whether at least a part of
When it is determined by the second determination means that at least a part of the first pixel area is included, the specific camera work data including the specific second virtual camera data is obeyed among the plurality of camera work data. Second display control means for displaying a pixel region on the display screen in accordance with the output of the moving image data;
A terminal device comprising:
JP2014070381A 2014-03-28 2014-03-28 Terminal device and program Active JP5967126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014070381A JP5967126B2 (en) 2014-03-28 2014-03-28 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014070381A JP5967126B2 (en) 2014-03-28 2014-03-28 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2015192427A JP2015192427A (en) 2015-11-02
JP5967126B2 true JP5967126B2 (en) 2016-08-10

Family

ID=54426578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014070381A Active JP5967126B2 (en) 2014-03-28 2014-03-28 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5967126B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108983872B (en) * 2018-06-04 2021-07-13 Oppo广东移动通信有限公司 Electronic device and control method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345071A (en) * 2005-06-07 2006-12-21 Canon Inc Moving picture reproducing apparatus, moving picture reproducing method, recording medium, and computer program
JP2008306355A (en) * 2007-06-06 2008-12-18 Nippon Telegr & Teleph Corp <Ntt> Image reproduction processing device, image reproduction processing method, program, and recording medium
JP5870944B2 (en) * 2013-02-27 2016-03-01 ブラザー工業株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2015192427A (en) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6742869B2 (en) Image processing apparatus and image processing method
US11825177B2 (en) Methods, systems, and media for presenting interactive elements within video content
JP7111288B2 (en) Video processing method, apparatus and storage medium
US20210349620A1 (en) Image display apparatus, control method and non-transitory computer-readable storage medium
AU2018391746B2 (en) Display control device and display control method
JP6608196B2 (en) Information processing apparatus and information processing method
JP5967126B2 (en) Terminal device and program
WO2023174009A1 (en) Photographic processing method and apparatus based on virtual reality, and electronic device
JP2015162117A (en) server device, program, and information processing method
JP5861684B2 (en) Information processing apparatus and program
JP6224465B2 (en) Video distribution system, video distribution method, and video distribution program
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system
JP5880612B2 (en) Information processing apparatus and program
JP5962692B2 (en) Terminal device and program
JP5821919B2 (en) Information processing apparatus and program
JP7195015B2 (en) instruction system, program
JP5854019B2 (en) Terminal device and program
JP5854018B2 (en) Communication system, information processing apparatus, and program
JP6833319B2 (en) Information processing programs, information processing systems, information processing methods, and information processing equipment
JP2023173764A (en) Information processing apparatus and information processing method
JP2021119686A (en) Information processing apparatus, switching system, program and method
JP2015198332A (en) Terminal and program
JP2019191509A (en) Video display device, video display method, computer program, and storage medium
JP2016143937A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R150 Certificate of patent or registration of utility model

Ref document number: 5967126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150