WO2014132988A1 - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
WO2014132988A1
WO2014132988A1 PCT/JP2014/054651 JP2014054651W WO2014132988A1 WO 2014132988 A1 WO2014132988 A1 WO 2014132988A1 JP 2014054651 W JP2014054651 W JP 2014054651W WO 2014132988 A1 WO2014132988 A1 WO 2014132988A1
Authority
WO
WIPO (PCT)
Prior art keywords
display range
moving image
information
camera work
search information
Prior art date
Application number
PCT/JP2014/054651
Other languages
French (fr)
Japanese (ja)
Inventor
翼 梅津
建太郎 牛山
Original Assignee
ブラザー工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラザー工業株式会社 filed Critical ブラザー工業株式会社
Publication of WO2014132988A1 publication Critical patent/WO2014132988A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/278Content descriptor database or directory service for end-user access
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content

Definitions

  • This disclosure relates to the technical field of terminal devices that display moving images.
  • Patent Document 1 discloses a system in which a user distributes editing data indicating a reproduction position of moving image data to other users by mail in order to recommend a specific scene of moving image data to other users. Yes. Thereby, the user who created edit data can quickly show a specific scene in the moving image data to other users.
  • a pseudo camera work may be performed by a user on a moving image such as a panoramic video.
  • the display range in a plurality of image frames constituting the moving image is designated by instructing the direction of the virtual camera, the field of view, and the like from the operation unit.
  • pseudo camera work performed by another user on a moving image being displayed on the terminal device is recommended to the user of the terminal device.
  • the pseudo camera work is characterized by the movement of the time-series display range in a plurality of image frames constituting a moving image.
  • the present disclosure has been made in view of the above points, and provides an information processing apparatus and an information processing method capable of efficiently searching for camera work desired by a user.
  • the display range displayed by the display unit can change the display range of the moving image according to the moving image playback position.
  • first determination means for searching and determining the area associated with the second search information corresponding to the first search information received by the receiving means from the storage means ,
  • the second search information associated with the area indicates a subject appearing in a display range of the moving image including the area
  • the receiving unit The request including the first search information indicating a subject is received, and the first determination unit receives the request received by the reception unit based on the second search information associated with the region.
  • the area including the display range in which the subject indicated by the first search information appears is determined, and the second determining means determines the display range information indicating the display range including the area determined by the first determining means.
  • the display range information to be provided to the terminal device is determined.
  • the information processing apparatus is configured to reproduce the moving image when the first search information is input while the moving image is displayed on the terminal device.
  • the request including the reproduction position information indicating the first search information is received, and the first determination unit is configured to determine the region in the image frame at the reproduction position indicated by the reproduction position information received by the reception unit.
  • the region corresponding to the second search information corresponding to the first search information received by the receiving unit is determined, and the second determination unit is determined by the first determination unit.
  • the display range information indicating the display range including the region thus determined is determined as display range information to be provided to the terminal device.
  • a fourth aspect of the present invention is an information processing method performed by a computer, wherein the display range displayed by the display means in the image frame constituting the moving image is a reproduction position of the moving image.
  • a display range information request indicating, for each playback position, the display range of a moving image that can be changed according to a first position, which is used to search for an area composed of one or more pixels in the image frame of the moving image.
  • a first determination step of searching and determining the determined region, and display range information indicating the display range including the region determined by the first determination step is determined as display range information to be provided to the terminal device And a second determination step.
  • FIG. 7 is a flowchart showing main processing in the control unit 21 of the client 2. It is a flowchart which shows an example of the input process in step S4 shown to FIG. 5A. It is a figure which shows the example of a screen for inputting scene information. It is a figure which shows the example of a screen for inputting scene information. It is a flowchart which shows the process in the control part 11 of the delivery server 1.
  • FIG. 4 is a flowchart showing processing in a control unit 21 of the client 2. It is a figure which shows the example of a screen for inputting a search key. It is a figure which shows the example of a screen for inputting a search key.
  • FIG. It is a figure which shows an example of the main screen MV and the sub screens SV1 to SV5. It is a flowchart which shows the process in the control part 11 of the delivery server 1.
  • FIG. It is a figure which shows the display range when the partial area
  • FIG. 1 is a diagram illustrating a schematic configuration example of a communication system S of the present embodiment.
  • the communication system S includes a distribution server 1 and a plurality of clients 2.
  • the distribution server 1 is an example of an information processing apparatus according to the present disclosure.
  • the client 2 is an example of a terminal device according to the present disclosure. Further, the distribution server 1 and the client 2 can communicate with each other via the network NW.
  • the network NW is configured by, for example, the Internet.
  • the distribution server 1 accepts upload of content from the client 2 or camera work data of the content, for example.
  • the distribution server 1 transmits content to the client 2 in response to a content request from the client 2.
  • the content includes moving image data.
  • the moving image data is data representing a moving image in which the display range displayed by the display means can be changed in accordance with the reproduction position of the moving image within the image frame constituting the moving image.
  • An example of such a moving image is a panoramic moving image.
  • a panoramic video is a video in which a subject is shot by a camera equipped with a lens capable of shooting a wide range, for example, with a high-resolution camera. Examples of lenses capable of photographing a wide range include a wide lens, a fisheye lens, and a 360 lens.
  • the playback position is an elapsed time from the start of playback of moving image data.
  • the content may include audio data.
  • the content is transmitted by streaming distribution via the network NW, for example.
  • the client 2 receives the content
  • the distribution server 1 transmits the camera work data of the content to the client 2 in response to a request for camera work data from the client 2, for example.
  • the camera work data is an example of display range information indicating, for each reproduction position, a display range displayed by the display unit in an image frame constituting a moving image. This display range corresponds to a drawing area drawn on the screen of the display means in one image frame. In other words, the display range is a range cut out from the shooting range defined by the image frame.
  • Such a display range is designated by, for example, pseudo camera work (hereinafter referred to as “pseudo camera work”).
  • pseudo camera work refers to determining at least one of the viewpoint position, the line-of-sight direction, and the visual field area of a person who views a moving image projected on a virtual screen, for example.
  • pseudo camera work refers to determining the orientation of the virtual camera, the width of the field of view, and the like.
  • the virtual camera refers to a virtual camera that determines a drawing area in an image frame constituting a moving image.
  • the pseudo camera work can be reproduced by the camera work data (hereinafter referred to as “pseudo camera work data”).
  • one pseudo camera work data does not necessarily indicate the display range in all image frames included in the reproduction time from the reproduction start to the reproduction end of the moving image data. That is, one pseudo camera work data may indicate a display range in an image frame included in a partial time range in the reproduction time.
  • the client 2 displays the moving image according to the display range indicated by the acquired pseudo camera work data while receiving the content by streaming.
  • the distribution server 1 can be connected to the storage device 3.
  • the storage device 3 is configured by, for example, a hard disk drive (HDD).
  • the storage device 3 is provided in the distribution server 1.
  • the storage device 3 may be provided in a server different from the distribution server 1.
  • the storage device 3 stores Web page data transmitted to the client 2 in response to a request from the client 2.
  • the storage device 3 further includes a moving image data storage area 31a, an audio data storage area 31b, a work file storage area 31c, and a scene information storage area 31d.
  • the moving image data storage area 31a stores a plurality of moving image data.
  • the moving image data stored in the moving image data storage area 31 a can be shared among a plurality of clients 2 that can access the distribution server 1.
  • a plurality of audio data is stored in the audio data storage area 31b.
  • the audio data stored in the audio data storage area 31 b can be shared among a plurality of clients that can access the distribution server 1.
  • the work file is stored in the work file storage area 31c in association with each content.
  • the work file stores content titles, pseudo camera work data, and the like.
  • the pseudo camera work data is given scene information.
  • the scene information is information indicating the characteristics of a moving image scene.
  • the moving image scene indicates a range that is a segment of a certain operation on the moving image.
  • Such scenes include, for example, a scene where a singer sings, a scene played by an actor, or a scene that shows the state of an event.
  • the scene information includes, for example, text information indicating a subject such as a singer or an actor appearing in the scene, identification information for identifying the subject, and the like.
  • a work ID for identifying the work file is given to the work file.
  • the work file may include a content ID for identifying the content.
  • the work file stored in the work file storage area 31c includes, for example, a work file uploaded from the client 2.
  • One content may be associated with a plurality of work files.
  • the pseudo camera work data indicating the display range designated by the pseudo camera work performed by each of a plurality of users is associated with a certain content.
  • a scene information database is stored in association with each content.
  • the scene information database is a database in which scene information can be registered in association with each partial area and each reproduction position in an image frame constituting a moving image.
  • a partial area is an area composed of one or more pixels in the image frame. The partial area is determined by the reproduction position of the moving image and the position on the image frame at the reproduction position.
  • the scene information registered in the scene information database is an example of second search information indicating the characteristics of the area.
  • the scene information database may be configured so that information indicating features other than the scene of the moving image is registered in association with the partial area. Note that the partial area may be one pixel in one image frame, but in this case, the load for managing scene information increases.
  • FIG. 2 is a conceptual diagram illustrating an example in which a three-dimensional moving image space is divided into a plurality of moving image blocks.
  • each moving image block is assigned a unique block ID.
  • Each moving image block is associated with a coordinate position on the image frame F constituting the moving image and a reproduction position. This playback position is, for example, the playback position of the first image frame among a plurality of image frames included in the moving image block.
  • the image frame in this case is an image frame divided as shown in FIG.
  • the scene information database for example, scene information given to the pseudo camera work data uploaded from the client 2 is registered in association with the block ID.
  • the scene information in this case is scene information posted by the user of the client 2.
  • the same or similar scene information may be posted by a plurality of users for the same moving image block. Therefore, as shown in FIG. 2, the number of postings of scene information is registered in the scene information database in association with the block ID.
  • scene information and the number of postings of scene information are not necessarily registered in all moving image blocks.
  • the scene information database may be generated and updated on the system operator side, for example, without depending on the scene information provided from the client 2.
  • the delivery server 1 is provided with the control part 11 and the interface part 12, as shown in FIG.
  • the control unit 11 includes a CPU, ROM, RAM, and the like as a computer.
  • the control unit 11 is an example of a reception unit, a first determination unit, and a second determination unit of the present disclosure.
  • the control unit 11 performs content transmission or reception control, pseudo camera work data transmission or reception control, and the like.
  • the control unit 11 receives a request for pseudo camera work data from the client 2, the control unit 11 determines pseudo camera work data to be returned to the client 2 based on the request. The method for determining the pseudo camera work data will be described later.
  • the client 2 includes a control unit 21, a storage unit 22, a video RAM 23, a video control unit 24, an operation processing unit 25, an audio control unit 26, an interface unit 27, a bus 28, and the like. Configured. These components are connected to the bus 28.
  • a display unit 24 a including a display is connected to the video control unit 24.
  • the display is an example of display means.
  • An operation unit 25 a is connected to the operation processing unit 25. Examples of the operation unit 25a include a mouse, a keyboard, and a remote controller.
  • a touch panel serving both as the display unit 24a and the operation unit 25a may be applied.
  • the control unit 21 receives an operation instruction from the operation unit 25 a by the user via the operation processing unit 25. The user can perform the above-described pseudo camera work operation using the operation unit 25a.
  • a speaker 26 a is connected to the audio control unit 26.
  • the interface unit 27 is connected to the network NW.
  • the control unit 21 includes a CPU, ROM, RAM, and the like as a computer.
  • the control unit 21 has a timer function.
  • the storage unit 22 is configured by, for example, a hard disk drive (HDD).
  • the storage unit 22 stores an OS (Operating System), player software, and the like.
  • the player software is a program for playing back content. Note that the player software may be downloaded from a predetermined server connected to the network NW, for example. Alternatively, the player software may be recorded on a recording medium and read via a drive of the recording medium, for example.
  • the control unit 21 functions as a player that reproduces content by executing player software.
  • the control unit 21 sequentially acquires the contents streamed from the distribution server 1 by the function of the player and reproduces the contents.
  • the RAM in the control unit 21 is provided with a buffer memory.
  • the buffer memory for example, moving image data included in the content streamed from the distribution server 1 is temporarily stored.
  • the buffer memory temporarily stores, for example, pseudo camera work data distributed from the distribution server 1.
  • the control unit 21 outputs moving image data from the buffer memory to the video RAM 23.
  • a frame buffer is provided in the RAM. For example, in the frame buffer, image data of a portion corresponding to the display range indicated by the pseudo camera work data in the image frame constituting the moving image reproduced by the moving image data is written.
  • the video control unit 24 displays the image data written in the frame buffer by drawing it on the corresponding screen.
  • audio data may be included in the content held in the buffer memory from the distribution server 1.
  • the control unit 21 reproduces the audio data from the buffer memory and outputs it to the audio control unit 26.
  • the voice control unit 26 generates an analog voice signal from the voice data, and outputs the generated analog voice signal to the speaker 26a.
  • control unit 21 receives an instruction of a display range of a part of the image frame constituting the moving image being displayed on the display screen by the user's pseudo camera work operation.
  • the control unit 21 receives an instruction to change the display range displayed in the image frame constituting the moving image being displayed on the screen.
  • the control unit 21 changes and displays the display range displayed on the screen in response to the change instruction.
  • the user can change the display range of the moving image being displayed on the screen by changing at least one of the viewpoint position, the line-of-sight direction, and the visual field area by operating the pseudo camera work.
  • the viewpoint position is a position where the person is watching the moving image.
  • the line-of-sight direction is the direction of the line of sight of the person's moving image.
  • the visual field area is, for example, the area of a region in the range of the visual field of the person on the virtual screen arranged in the three-dimensional virtual space.
  • the visual field area may be the range of the visual field of the person.
  • 3A to 3C are diagrams showing an example of a virtual screen and an example of a display range for the virtual screen.
  • a screen SC1 is defined as a virtual screen.
  • the screen SC1 is a rectangular flat screen, and a moving image is projected on the rectangular plane.
  • the display range R1 on the screen SC1 is defined by, for example, an X coordinate, a Y coordinate, a width, and a height.
  • the upper left vertex of the screen SC1 is set as the origin in the coordinate system of the screen SC1.
  • the X coordinate and the Y coordinate define the viewpoint position.
  • the X coordinate is the horizontal coordinate of the upper left vertex of the display range R1
  • the Y coordinate is the vertical coordinate of the upper left vertex of the display range R1.
  • a point that is a predetermined distance away from the screen SC1 in the three-dimensional virtual space may be assumed as the viewpoint.
  • a line passing through the viewpoint and perpendicularly intersecting the screen SC1 is defined as a line of sight.
  • the point where the line of sight and the screen SC1 intersect is the center of the display range R1.
  • the width and height define the viewing area.
  • the width and the height are the horizontal length and the vertical length of the display range R1.
  • the line-of-sight direction is determined in advance.
  • a screen SC2 is defined as a virtual screen.
  • the screen SC2 is a cylindrical screen, and a moving image is projected on the side surface of the cylinder.
  • the side surface of the cylinder is an example of a virtual solid surface.
  • a cylindrical panoramic video is projected on the screen SC2.
  • the panoramic video is, for example, an omnidirectional video.
  • the panoramic video may be a partial orientation video with a viewing angle narrower than 360 degrees.
  • the display range R2 on the screen SC2 is defined by, for example, an azimuth angle, a horizontal viewing angle, and a height. The azimuth determines the viewing direction. For example, let the midpoint of the central axis of the cylinder of the screen SC2 be the viewpoint.
  • the viewpoint is the origin in the coordinate system of the three-dimensional virtual space
  • the center axis of the screen SC2 is the Z axis.
  • the X axis passes through the origin and is perpendicular to the Y axis and the Z axis.
  • the Y axis passes through the origin and is perpendicular to the X axis and the Z axis.
  • the azimuth determines the direction of the line of sight from the viewpoint.
  • the line of sight is, for example, perpendicular to the Z axis.
  • the azimuth angle is, for example, an angle between the X axis and the line of sight.
  • the horizontal viewing angle and height define the viewing area.
  • the horizontal viewing angle is an angle indicating the range of the horizontal visual field centered on the direction of the line of sight.
  • the height is the vertical length of the display range R2. Based on the azimuth angle, the horizontal viewing angle, and the height, a quadrangular pyramid indicating a viewing range in the three-dimensional virtual space is defined. This square pyramid is the view volume.
  • a view volume refers to a range that is subject to projection transformation in a three-dimensional virtual space. Although the actual view volume is a quadrangular pyramid, a quadrangular pyramid is used for convenience of explanation.
  • the vertex of the view volume is the viewpoint, and the line of sight passes through the center of the bottom surface of the view volume.
  • the angle formed by the side surface P21 and the side surface P22 parallel to the Z axis is the horizontal viewing angle.
  • the length in the vertical direction of the surface where the view volume and the screen SC2 intersect is the height.
  • the surface where the view volume and the screen SC2 intersect is the display range R2.
  • the viewpoint position is determined in advance.
  • a screen SC3 is defined as a virtual screen.
  • the screen SC3 is a spherical screen, and a moving image is displayed on a spherical surface.
  • a spherical panoramic video is displayed on the screen SC3.
  • the display range R3 on the screen SC3 is defined by, for example, an azimuth angle, an elevation angle, a horizontal viewing angle, and a vertical viewing angle.
  • the azimuth angle and the elevation angle determine the line-of-sight direction.
  • the viewpoint is located within a range surrounded by the screen SC3.
  • the viewpoint is the center of the sphere of the screen SC3.
  • the viewpoint is the origin in the coordinate system of the three-dimensional virtual space, and the vertical coordinate axis is the Z axis.
  • the X axis passes through the origin and is perpendicular to the Y axis and the Z axis.
  • the Y axis passes through the origin and is perpendicular to the X axis and the Z axis.
  • the azimuth angle is, for example, an angle formed by the XZ plane and the line of sight.
  • the elevation angle is, for example, an angle formed by the XY plane and the line of sight.
  • the horizontal viewing angle and the vertical viewing angle define the viewing area.
  • the horizontal viewing angle is an angle indicating the range of the horizontal visual field centered on the direction of the line of sight.
  • the vertical viewing angle is an angle indicating the range of the vertical visual field around the direction of the line of sight.
  • a line on the XY plane that passes through the origin and intersects the line of sight perpendicularly is defined as a vertical rotation axis of the line of sight.
  • a line that passes through the origin and perpendicularly intersects the line of sight and the vertical rotation axis is defined as the horizontal rotation axis of the line of sight.
  • a quadrangular pyramid indicating a viewing range in the three-dimensional virtual space is defined. This square pyramid is the view volume.
  • the vertex of the view volume is the viewpoint, and the line of sight passes through the center of the bottom surface of the view volume.
  • the angle formed by the side surface P31 parallel to the Z axis and the side surface P32 is the horizontal viewing angle.
  • the angle formed by the side surface P33 and the side surface P34 is the vertical viewing angle.
  • the surface where the view volume and the screen SC3 intersect is the display range R3.
  • the viewpoint position is determined in advance.
  • the perspective transformation converts the three-dimensional coordinates of the display range on the virtual screen into two-dimensional coordinates based on the viewpoint position, the line-of-sight direction, and the visual field area. Based on the converted two-dimensional coordinates, for example, it is possible to specify which part of the image frame constituting the panoramic video is within the display range.
  • the display range R3 changes according to the viewing direction.
  • the display range R3 changes according to the viewing area. That is, the display range R3 is a range corresponding to the line-of-sight direction and the visual field area.
  • the screen SC3 may be a solid that completely covers the viewpoint, and may be a screen having a cubic shape, for example.
  • the screen SC1 to SC3 may be determined according to the type of moving image data, for example.
  • the screen SC1 is determined for a video other than a panoramic video
  • the screen SC2 is determined for a cylindrical panoramic video
  • the screen SC3 is determined for a spherical panoramic video. Good.
  • FIG. 4A shows an example in which the virtual screen is a rectangular screen SC1.
  • FIG. 4B shows an example in which the virtual screen is a cylindrical screen SC2.
  • FIG. 4C shows an example in which the virtual screen is a spherical screen SC3.
  • the aspect ratio is determined to be 16: 9, if one of the width and the height is determined, the other is determined. And any one of height may be included.
  • pseudo camera work data indicating display ranges in image frames at respective reproduction positions such as 0 milliseconds, 16 milliseconds, 33 milliseconds, and 49 milliseconds are shown. ing. Note that 16 milliseconds is comparable to the display refresh rate (60 Hz).
  • FIG. 5A is a flowchart showing main processing in the control unit 21 of the client 2.
  • FIG. 5B is a flowchart showing an example of the input process in step S4 shown in FIG.
  • the client 2 transmits a page request to the distribution server 1. Then, the client 2 receives the Web page transmitted from the distribution server 1 in response to the page request and displays it on the display in the display unit 24a.
  • content information is displayed in a selectable manner.
  • the content information displayed on the Web page is information on a part of the plurality of content uploaded to the distribution server 1. This corresponds to, for example, content information recommended for the user or content information searched based on a keyword input by the user.
  • the content information includes, for example, information such as the content title.
  • the control unit 21 initializes the work file and starts playing the selected content (step S1). Thereby, the moving image reproduced by the moving image data included in the content streamed from the distribution server 1 is displayed on the main screen of the display.
  • the work file is a file for uploading pseudo camera work data.
  • the work file is stored in the storage unit 22 in advance. With the initialization of the work file, the title of the content that has been played back is set in the work file. A content ID may be set in the work file.
  • the operation input of the pseudo camera work for the moving image displayed on the main screen is set to “manual”.
  • the display range of the moving image displayed on the main screen does not depend on, for example, the pseudo camera work data acquired from the distribution server 1 and is changed by the user's pseudo camera work operation.
  • control unit 21 stores pseudo camera work data indicating the moving image display range at the current reproduction position in the work file (step S2). Next, the control unit 21 determines whether or not there is scene information input by the user at the current playback position (step S3).
  • FIGS. 5C and 5D are diagrams showing examples of screens for inputting scene information.
  • a reproduced moving image is displayed, and buttons corresponding to a plurality of persons appearing in the scene of the moving image being displayed are displayed so as to be selectable.
  • This person is a singer, for example, and is an example of a subject.
  • These buttons are buttons for inputting scene information (hereinafter referred to as “scene information input buttons”).
  • Each scene information input button is displayed, for example, when the user gives an instruction to display the scene information input button via the operation unit 25a during content reproduction.
  • Each scene information input button is associated with an ID (identification information) for identifying a person. This association is performed, for example, when content is generated on the distribution server 1 side.
  • an ID for identifying a person is associated with the scene information input button.
  • IDs for identifying these subjects are associated with the scene information input buttons.
  • a reproduced moving image is displayed and a text input field for inputting text information such as a character string is displayed.
  • the text input field is displayed, for example, when the user gives an instruction to display the text input field via the operation unit 25a during content reproduction.
  • step S3 determines that there is scene information input
  • step S4 determines that there is scene information input.
  • the process proceeds to the input process of step S4.
  • the selection of the scene information input button is performed, for example, by clicking the scene information input button with a mouse or tapping the scene information input button with a finger or a pen.
  • step S3 determines that there is an input of scene information
  • step S4 Proceed to input processing.
  • step S3 The designation of the text input field is performed, for example, by clicking the text input field with the mouse or tapping the text input field with a finger or a pen.
  • step S6 the process proceeds to step S6.
  • step S4 the control unit 21 determines whether or not the input of the scene information is “ID input” by the scene information input button. For example, when the scene information input button is selected in the display state of the screen shown in FIG. 5C, it is determined that “ID input” is made by the scene information input button (step S41: YES), and the process proceeds to step S42. On the other hand, for example, when the text input field is designated in the display state of the screen shown in FIG. 5D, it is determined that it is not “ID input” by the scene information input button (step S41: NO), and the process proceeds to step S43.
  • step S42 the control unit 21 stores the ID corresponding to the selected scene information input button as scene information, and displays reproduction position information indicating the reproduction position of the moving image when the scene information input button is selected. It is stored in association with the scene information.
  • step S43 the control unit 21 determines that the input is text, and stores playback position information indicating the playback position of the moving image when the user inputs the first character from, for example, a keyboard. It should be noted that the playback position information indicating the playback position of the moving image at any point in time from the second character to the completion of text input is stored instead of the playback position of the moving image when the first first character is input. It may be configured.
  • the control unit 21 stores the text information input in the text input field by the user as scene information in association with the reproduction position information stored in step S43 (step S44).
  • step S5 the control unit 21 uses the pseudo camera work data stored in step S2 to store the scene information and the reproduction position information stored in the processing in FIG. 5B. Store in a work file in association with. Thereby, scene information and reproduction position information are added to the pseudo camera work data.
  • step S6 determines whether or not there is an instruction to upload pseudo camera work data by the user.
  • step S6: YES the process proceeds to step S7.
  • step S6: NO the process proceeds to step S9.
  • step S7 the control unit 21 transmits at least a work file storing pseudo camera work data to the distribution server 1 via the network NW. Thereby, a part of the pseudo camera work data from the start to the end of the playback of the moving image is uploaded.
  • step S8 the control unit 21 clears the contents of the work file (step S8) and returns to step S2. As a result, an empty work file remains in the storage unit 22.
  • step S9 the control unit 21 determines whether or not the content has been played to the end position of the content. If it is determined that the content has not been played back to the end position (step S9: NO), the process returns to step S2 and the above process is repeated. On the other hand, when it is determined that the content has been played to the end position (step S9: YES), the process proceeds to step S10.
  • step S10 the control unit 21 displays an upload button on the screen together with a message asking the user whether to upload the pseudo camera work data.
  • step S11 determines whether there is an instruction to upload pseudo camera work data from the user. For example, when the user selects the upload button, the control unit 21 determines that there is an upload instruction (step S11: YES), and proceeds to step S12. On the other hand, when it is determined that there is no upload instruction (step S11: NO), the processing shown in FIG.
  • step S12 the work file storing at least the pseudo camera work data is transmitted to the distribution server 1 via the network NW, and the process shown in FIG.
  • FIG. 6 is a flowchart showing processing in the control unit 11 of the distribution server 1.
  • the process shown in FIG. 6 is started when the distribution server 1 receives a work file from the client 2.
  • the control unit 11 stores the received work file in the work file storage area 31c (step S101).
  • the control unit 11 specifies the moving image data of the content from the moving image data storage area 31a from the content title set in the received work file (step S102).
  • the control unit 11 specifies the pseudo camera work data to which the scene information and the reproduction position information are given from the pseudo camera work data stored in the received work file (step S103).
  • the control unit 11 is assigned to the coordinate position and reproduction position associated with the moving image block constituting the moving image data identified in step S102, the display range indicated by the identified pseudo camera work data, and the pseudo camera work data.
  • one or more moving image blocks are specified (step S104). For example, the reproduction position information given to the specified pseudo camera work data in which the coordinate position is included in the display range indicated by the specified pseudo camera work data among the plurality of video blocks constituting the moving picture data A moving image block including a part of the image frame at the reproduction position indicated by is identified.
  • step S105 determines whether or not text information is included in the scene information given to the pseudo camera work data specified in step S103 (step S105).
  • step S105: YES the process proceeds to step S106.
  • step S105: NO the process proceeds to step S108.
  • an ID for identifying a person is included in the scene information.
  • step S106 the control unit 11 parses text information included in the scene information and extracts word information. Thereby, for example, when the text information is a sentence, one or more words (words) are extracted from the sentence.
  • the control unit 11 extracts a keyword from the word information extracted in step S106 as scene information to be registered using, for example, a keyword dictionary stored in advance (step S107).
  • step S108 the control unit 11 already associates the scene information given to the pseudo camera work data or the scene information that is the same as or similar to the scene information extracted in step S107 with the moving image block specified in step S104. And whether it is registered in the scene information database.
  • this scene information database is a scene information database corresponding to the moving image data specified in step S102.
  • the scene information database is specified from the scene information storage area 31d before the process of step S108. Further, whether or not the scene information is similar is determined by using, for example, a previously stored synonym dictionary or synonym dictionary. For example, scene information that is synonymous or synonymous with the scene information extracted in step S107 is determined as similar scene information.
  • step S104 If it is determined that the moving image block identified in step S104 is already associated with the moving image block and is not registered in the scene information database (step S108: NO), the process proceeds to step S109. On the other hand, if it is determined that it is already associated with the moving image block specified in step S104 and registered in the scene information database (step S108: YES), the process proceeds to step S110.
  • step S109 the control unit 11 registers the scene information added to the pseudo camera work data or the scene information extracted in step S107 in the scene information database in association with the moving image block specified in step S104.
  • the process shown in FIG. As described above, the scene information input by the user is registered in the scene information database in association with the moving image block in which the scene corresponding to the scene information is displayed. Therefore, it is possible to efficiently generate a scene information database that reflects the preferences of a plurality of users.
  • step S110 the control unit 11 increments the posting number of the scene information registered in association with the moving image block specified in step S104 by 1, and ends the process shown in FIG.
  • “1” is added to the number of postings associated with the moving image block identified in step S104 and is updated and registered in the scene information database.
  • the posting number of the scene information input by the user is registered in the scene information database in association with the moving image block in which the scene corresponding to the scene information is displayed. Therefore, it is possible to efficiently generate a scene information database that can determine which moving image block is a moving image block in which a scene with a high degree of attention posted with more scene information from the user is displayed.
  • FIG. 7A is a flowchart showing processing in the control unit 21 of the client 2.
  • the processing shown in FIG. 7A is started, for example, when the user gives a search instruction for pseudo camera work data via the operation unit 25a during execution of the player software.
  • the control unit 21 determines whether or not there is a search key input by the user (step S21).
  • the search key is, for example, a key for searching for a scene in which a user likes a person.
  • the search key is an example of first search information used for searching a partial area of a moving image.
  • FIGS. 7B and 7C are diagrams showing examples of screens for inputting a search key.
  • a reproduced moving image is displayed, and buttons corresponding to a plurality of persons appearing in the scene of the moving image being displayed are selectable. These buttons are buttons for inputting search keys (hereinafter referred to as “search key input buttons”).
  • search key input buttons buttons for inputting search keys (hereinafter referred to as “search key input buttons”).
  • Each search key input button is displayed, for example, when the user gives an instruction to display the search key input button via the operation unit 25a during content reproduction.
  • Each search key input button is associated with an ID for identifying a person, like the scene information input button shown in FIG.
  • FIG. 7B On the screen shown in FIG. 7B, a reproduced moving image is displayed, and buttons corresponding to a plurality of persons appearing in the scene of the moving image being displayed are selectable. These buttons are buttons for inputting search keys (hereinafter referred to as “search key input buttons”).
  • Each search key input button is
  • a reproduced moving image is displayed and a search keyword input field for inputting text information including the search keyword is displayed.
  • the search keyword input field is displayed, for example, when the user gives an instruction to display the search keyword input field via the operation unit 25a during content reproduction.
  • step S21 determines that there is a search key input by the user (step S21). : YES).
  • the process proceeds to step S22.
  • the selection method of the search key input button is the same as that of the scene information input button.
  • step S21: YES determines that the search key is input by the user (step S21: YES), and step S22. Proceed to The method for specifying the search keyword input field is the same as that for the text input field.
  • step S21: NO determines that it is determined that the user has not entered a search key
  • step S22 the control unit 21 determines whether or not the input of the search key is “ID input” by the search key input button. For example, when the search key input button is selected in the display state of the screen shown in FIG. 7B, it is determined that “ID input” is made by the search key input button (step S22: YES), and the process proceeds to step S23. On the other hand, for example, when the search keyword input field is specified in the display state of the screen shown in FIG. 7C, it is determined that it is not “ID input” by the search key input button (step S22: NO), and the process proceeds to step S24. .
  • step S23 the control unit 21 stores the ID corresponding to the selected search key input button as a search key.
  • the reproduction position information indicating the reproduction position of the moving image when the search key input button is selected may be stored in association with the search key.
  • step S24 the control unit 21 stores the text information input in the search keyword input field by the user as a search key.
  • playback position information indicating the playback position of the moving image when the user inputs the first character from a keyboard or the like may be stored in association with the search key.
  • the playback position information indicating the playback position of the moving image at any point in time from the second character to the completion of text input is stored instead of the playback position of the moving image when the first first character is input. It may be configured.
  • the control unit 21 transmits a request for pseudo camera work data to the distribution server 1 via the network NW (step S25).
  • This request is a request for pseudo camera work data.
  • the request for pseudo camera work data includes, for example, the title of the content selected by the user and the search key stored in step S23 or step S24.
  • the request for pseudo camera work data may include a content ID for identifying the content. Further, the request for pseudo camera work data may be configured to include reproduction position information associated with the search key.
  • the control part 21 receives the work file transmitted from the delivery server 1 according to the request
  • the control unit 21 displays a moving image on a sub-screen different from the main screen according to the pseudo camera work data stored in the received work file (step S27).
  • a plurality of work files may be received from the distribution server 1.
  • a plurality of sub screens are displayed as thumbnail screens. With this thumbnail screen, a list of pseudo camera work data can be displayed.
  • FIG. 7D is a diagram showing an example of the main screen MV and the sub screens SV1 to SV5.
  • moving images are displayed on the sub screens SV1 to SV5 according to the respective pseudo camera work data received from the distribution server 1.
  • the display range indicated by the received pseudo camera work data includes scenes included in the moving image block searched based on the search key described above.
  • the playback positions of the moving images displayed on the sub screens SV1 to SV5 are the same. That is, the image frames displayed on the sub screens SV1 to SV5 are the same, but the display ranges in the image frames are different from each other. This means that, for example, the angle of the virtual camera and the field of view are different.
  • the user can see the scene he / she wants to see during the content reproduction by the moving images displayed on the sub-screens SV1 to SV5.
  • the moving image being displayed on the main screen MV is switched to the selected moving image.
  • step S28 it is determined whether or not there is a player termination instruction from the user. If it is determined that the player has instructed to end (step S28: YES), the processing shown in FIG. 7A ends. On the other hand, if it is determined that there is no instruction to end the player (step S28: NO), the process returns to step S21 and the above process is continued.
  • FIG. 8 is a flowchart showing processing in the control unit 11 of the distribution server 1.
  • the process illustrated in FIG. 8 is started when the distribution server 1 receives a request for pseudo camera work data from the client 2.
  • the control unit 11 acquires a search key from the received request (step S111).
  • the request may include text information composed of sentences.
  • the control unit 11 acquires a search keyword as a search key from the sentence by parsing the text information.
  • the request may include playback position information.
  • the control unit 11 acquires a search key and reproduction position information from the request.
  • the control unit 11 specifies the scene information database associated with the title or content ID of the content included in the request from the scene information storage area 31d (step S112).
  • the control unit 11 based on the search key acquired in step S ⁇ b> 111 and the scene information registered in the scene information database specified in step S ⁇ b> 112, a moving image in which scene information corresponding to the search key is associated.
  • a block is searched from the scene information database (step S113).
  • the scene information corresponding to the search key is scene information that matches the search key.
  • the scene information corresponding to the search key is scene information including all the search keys.
  • playback position information may be acquired in step S111.
  • the control unit 11 refers to the scene information database, and from among the video blocks in the image frame at the playback position indicated by the acquired playback position information, the video block associated with the scene information corresponding to the search key Search for.
  • step S114 determines whether or not a moving image block has been searched as a result of the search in step S113 (step S114). And when it determines with a moving image block not being searched (step S114: NO), it progresses to step S115.
  • step S115 the control unit 11 notifies the client 2 of information indicating that there is no scene to be searched, and ends the process illustrated in FIG.
  • step S114 YES
  • the process proceeds to step S116.
  • step S116 the control unit 11 determines the moving image block searched in step S113 as a moving image block including a scene to be searched. For example, a scene including a moving image block in which a subject such as a person indicated by the search key appears is determined.
  • the control unit 11 acquires pseudo camera work data indicating the display range including the moving image block determined in step S116 from the work file storage area 31c (step S117). That is, pseudo camera work data that passes through the moving image block determined in step S116 is acquired.
  • Step S118 determines whether or not there is a predetermined number or more of the pseudo camera work data acquired in Step S117 (Step S118).
  • the predetermined number is set to the number of sub-screens in the client 2, for example. And when it determines with the pseudo camera work data acquired by step S117 not being more than predetermined number (step S118: NO), it progresses to step S119. On the other hand, when it is determined that there is a predetermined number or more of the pseudo camera work data acquired in step S117 (step S118: YES), the process proceeds to step S120.
  • step S119 the control unit 11 determines the pseudo camera work data acquired in step S117 as pseudo camera work data to be provided to the user of the client 2.
  • step S120 the control unit 11 ranks the pseudo camera work data acquired in step S117 based on the number of postings of scene information associated with the moving image block determined in step S116. For example, the control unit 11 ranks the pseudo camera work data acquired in step S117 in descending order of the total number of postings associated with each moving image block including the display range indicated by the pseudo camera work data. Then, the control unit 11 determines the upper predetermined number of pseudo camera work data having a higher ranking as pseudo camera work data to be provided to the user of the client 2 (step S121).
  • the upper predetermined number may be set based on the number of sub-screens that can be displayed by the client 2 (five in the example of FIG. 7D).
  • the request described above includes information indicating the number of sub screens.
  • the pseudo camera work data passing through the moving image block with a high degree of attention where more scene information is posted can be determined as the pseudo camera work data to be provided to the user of the client 2.
  • control unit 11 transmits the work file storing the pseudo camera work data determined in step S119 or step S121 to the client 2 (step S122), and ends the process shown in FIG.
  • the case where the search key is input by the user when the moving image is displayed on the main screen is shown as an example.
  • the input of the search key by the user and the transmission of the request from the client 2 to the distribution server 1 may be performed when a moving image is not displayed on the main screen.
  • a request including a search key input from the mobile terminal of the user of the client 2 may be transmitted to the distribution server 1.
  • the control unit 11 of the distribution server 1 does not transmit the work file storing the pseudo camera work data determined in step S119 or step S121 to the mobile terminal that has transmitted the request.
  • the control unit 11 of the distribution server 1 stores the work file in the work file storage area 31c in association with the user ID for identifying the client 2 and the user of the mobile terminal. Thereafter, when the client 2 accesses the distribution server 1 and, for example, the user is logged in using the user ID, the distribution server 1 transmits the work file stored in association with the user ID to the client 2. To do. Thereby, the client 2 displays a moving image on a sub-screen different from the main screen according to the pseudo camera work data stored in the received work file.
  • the distribution server 1 when the distribution server 1 receives a request for pseudo camera work data from the client 2, the distribution server 1 is stored in advance in association with the partial area in the image frame constituting the moving image. Based on the scene information, a partial area associated with the scene information corresponding to the search key included in the request is determined, and pseudo camera work data indicating a display range including the determined partial area is transmitted to the user of the client 2 It is determined as pseudo camera work data to be provided. Therefore, the pseudo camera work data indicating the display range corresponding to the pseudo camera work desired by the user who inputs the search key can be efficiently retrieved and provided to the user. For example, pseudo camera work data indicating a display range including a scene in which a subject such as a person the user wants to see can be provided to the user.
  • the distribution server 1 determines whether the playback position indicated by the playback position information is within the partial area in the image frame. Then, the partial area associated with the scene information corresponding to the search key included in the request is determined. Therefore, the pseudo camera work data indicating the display range at the timing desired by the user in the entire playback time of the moving image can be efficiently searched and provided to the user.
  • step S117 shown in FIG. 8 the control unit 11 generates pseudo camera work data indicating the display range including the moving image block determined in step S116, based on the scene information database specified in step S112. You may comprise so that it may acquire. For example, the control unit 11 selects a plurality of upper video blocks that are centered on the video block with the highest number of postings or the highest number of postings among the postings associated with the video block in the scene information database described above. A display range centered on the center of gravity is determined for each playback position of the moving image block, and pseudo camera work data indicating the determined display range for each playback position is generated.
  • FIG. 9A is a diagram showing a display range when a partial region in one image frame constituting a moving image is a pixel.
  • FIG. 9B is a diagram illustrating a display range when a partial area in one image frame constituting a moving image is a moving image block.
  • an area including 50% of the total number of postings of the entire one image frame F is determined as the display range R21 with the pixel P having the highest number of postings as the center. This 50% is a display ratio. For example, if the total number of postings for the entire image frame F is “30”, the total number of postings in the display range R21 is “15”.
  • the center of gravity of these pixels is set as the center of the display range.
  • the display range R22 is an area including 50% of the total number of postings of the entire image frame F, centering on the center of the moving image block B1 having the highest number of postings.
  • the center of gravity obtained from the center of these moving image blocks is set as the center of the display range.
  • a part of the moving image blocks B2 to B9 adjacent to the moving image block B1 is included in the display range R22.
  • the adjacent moving image blocks B2 to B9 are divided so that the number of postings in the display range R22 is 50% of the total number of postings in the entire image frame F.
  • the display ratio is not limited to 50% of the total number of postings of the entire image frame F.
  • the display ratio may be determined so that the number of postings in the display range R21 or R22 is 40% or more of the total number of postings in the entire image frame F.
  • the size of the display range is adjusted by fixing the aspect ratio to 16: 9 or the like.
  • FIG. 9C is a conceptual diagram showing an example in which the display ranges R31 to R33 determined every 5 seconds are complemented so as to continuously change.
  • the display range R31 in the unit playback time range of “0 to 5 seconds” is determined as the display range at the playback position of 2.5 seconds in the middle of the unit playback time range.
  • the display range R32 in the unit reproduction time range of 5 seconds to 10 seconds is determined as the display range at the reproduction position of 7.5 seconds in the middle of the unit reproduction time range.
  • the display range R33 in the unit playback time range of “10 seconds to 15 seconds” is determined as the display range at the playback position of 12.5 seconds in the middle of this unit playback time range.
  • the display range in F is complemented so as to change continuously. Such complementation does not have to be linear as shown in FIG. 9C, and it is desirable to make it a smooth curve.
  • FIG. 10A is a flowchart showing an automatic generation process of pseudo camera work data in the control unit 11 of the distribution server 1. This flowchart considers the example shown in FIG.
  • the automatic generation process of pseudo camera work data shown in FIG. 10A is executed, for example, every time the scene information database is updated or every predetermined number of times (for example, 10 times). Or you may comprise so that the automatic generation process of pseudo camera work data may be performed regularly. Or you may perform at arbitrary timings by judgment of an operator etc.
  • the automatic generation process of pseudo camera work data is started, new pseudo camera work data is generated. At this stage, the generated pseudo camera work data is empty pseudo camera work data.
  • control unit 11 registers the display range at the reproduction position “0” as the first element in the new pseudo camera work data in association with the reproduction position “0” (step S201).
  • the display range at the reproduction position “0” is determined, for example, for the entire image frame F at the reproduction position “0”.
  • control unit 11 sets “0” to the variable i (step S202).
  • control unit 11 determines a set of image frames F at each reproduction position included in the above-described unit reproduction time range “T ⁇ i to T ⁇ (i + 1)” as a processing target (step S203).
  • T is the time length of one unit playback time range.
  • control unit 11 refers to the scene information database and determines the center of the partial area having the highest number of postings as the center of the display range among the processing targets determined in step S203 (step S204).
  • the control unit 11 refers to the scene information database and determines the display range in the image frame F so that the display ratio is, for example, 0.5 (step S205). This display ratio is calculated, for example, by dividing the total number of postings for the entire playback time of the moving image by the total number of postings to be processed determined in step S203.
  • the control unit 11 determines the reproduction position of the display range determined in step S205 as “T ⁇ i + T / 2)” (step S206). For example, in the unit playback time range of 0 to 5 seconds, the playback position “T ⁇ i + T / 2)” is determined as 2.5 seconds.
  • the display range is determined by complementary calculation (step S207).
  • the complementary calculation for example, an image located between the reproduction position “0” and the reproduction position “2.5 seconds” based on the display range at the reproduction position “0” and the display range at the reproduction position “2.5 seconds”.
  • the display range in the frame F is calculated so as to change continuously.
  • control unit 11 registers the display range determined in step S205 and the display range determined in step S207 in new pseudo camera work data in association with the respective reproduction positions (step S208).
  • control unit 11 increments the variable i by 1 (step S209).
  • control unit 11 determines whether “T ⁇ i” is greater than the entire playback time of the moving image (step S210). If it is determined that “T ⁇ i” is not greater than the entire playback time of the moving image (step S210: NO), the process returns to step S203. As a result, the same processing as described above is executed in the next unit reproduction time range. If it is determined that “T ⁇ i” is greater than the entire playback time of the moving image (step S210: YES), the automatic generation process of pseudo camera work data is terminated.
  • FIG. 11 is a conceptual diagram showing another example of automatic generation processing of pseudo camera work data.
  • the partial area in the image frame F at a certain reproduction position is a moving image block
  • the numerical value shown in FIG. 11 is the number of postings of each moving image block.
  • the moving image block B1 having the largest number of postings is selected.
  • the selection of the moving image block is repeated until the display ratio exceeds 50%, for example.
  • the video block B3 having the largest number of postings is selected from the video blocks adjacent to the selected video block B1.
  • the video block B5 having the largest number of postings after the video block B3 is selected from the video blocks adjacent to the selected video block B1.
  • the moving image block B8 having the largest number of postings after the moving image blocks B3 and B5 is selected.
  • the minimum area including all the selected moving image blocks B1, B2, B4, and B8 is determined as the display range R41.
  • the aspect ratio is fixed, the determined display range R41 is adjusted to a display range corresponding to the aspect ratio.
  • FIG. 10B is a flowchart showing another example of automatic generation processing of pseudo camera work data. This flowchart considers the example shown in FIG.
  • the start condition of the automatic generation process of pseudo camera work data shown in FIG. 10B is the same as the start condition of the automatic generation process of pseudo camera work data shown in FIG.
  • the processing in steps S211 to S213 shown in FIG. 10B is the same as the processing in steps S201 to S203 shown in FIG.
  • step S214 shown in FIG. 10B the control unit 11 refers to the scene information database and selects a moving image block having the largest number of postings among the processing targets determined in step S213.
  • the control unit 11 refers to the scene information database, and in the image frame F in which the moving image block selected in step S214 is arranged, the control unit 11 posts most of the moving image blocks adjacent to the moving image block selected in step S214.
  • a moving image block with a large number of times is selected (step S215). Note that the moving image block selected in step S215 is set as a non-selection target in the subsequent step S216.
  • the control unit 11 refers to the scene information database and determines whether or not the display ratio is, for example, 0.5 or more (step S216).
  • the display ratio is the same as in the case of the process of step S205 shown in FIG.
  • step S216: NO the process returns to step S215.
  • a moving image block having the next largest number of postings is selected from the moving image blocks adjacent to the moving image block selected in step S214.
  • step S216: YES the process proceeds to step S217.
  • step S217 the control part 11 determines the minimum area
  • the processes in steps S218 to S222 shown in FIG. 10B are the same as the processes in steps S206 to S210 shown in FIG.
  • the pseudo camera work data generated by the automatic generation process of the pseudo camera work data is transmitted to the client 2 in step S122 shown in FIG.
  • the pseudo camera work data indicating the display range including the scene with a high degree of attention that is posted more is automatically used by using the scene information database.
  • the generated pseudo camera work data can be determined as appropriate pseudo camera work data recommended to the user.
  • the client 2 has been shown to receive content and pseudo camera work data of the content from the distribution server 1.
  • the present disclosure can also be applied to a case where the client 2 receives content and pseudo camera work data of the content from another client 2 in a hybrid type or peer type peer-to-peer network.
  • the client 2 functions as the information processing apparatus of the present disclosure.
  • the client 2 may be connected to the storage device 3.
  • the client 2 reproduces the content acquired from the storage device 3.
  • the client 2 displays a moving image according to the pseudo camera work data acquired from the storage device 3.

Abstract

Provided are an information processing device and information processing method by which it is possible to efficiently retrieve the camera work desired by a user. When a request for simulated camera work data is received from a terminal device, the information processing device determines, on the basis of scene information which has been associated with sub-regions in the image frames which compose a moving image and stored in advance, the sub-region associated with the scene information corresponding to the retrieval key included in the request, and determines simulated camera work data indicating the display region included in the determined sub-region as the simulated camera work data to be provided to the user of the terminal device.

Description

情報処理装置及び情報処理方法Information processing apparatus and information processing method
 本開示は、動画を表示させる端末装置の技術分野に関する。 This disclosure relates to the technical field of terminal devices that display moving images.
 従来、インターネットを介してサーバにアップロードされた動画データを、端末装置からの配信要求に応じてストリーミング配信する動画投稿サイトが知られている。動画投稿サイトからストリーミング配信された動画データは、例えば、端末装置のブラウザのウインドウ画面に表示される。このとき、ウインドウ画面には、ストリーミング配信された動画データに関連する動画データ中の代表となる静止画が表示される場合がある。この静止画により、ストリーミング配信された動画データに関連する動画データを端末装置のユーザに推奨することができる。 2. Description of the Related Art Conventionally, there is a known video posting site for streaming video data uploaded to a server via the Internet in response to a distribution request from a terminal device. The moving image data stream-distributed from the moving image posting site is displayed on the window screen of the browser of the terminal device, for example. At this time, a representative still image in the moving image data related to the streaming-distributed moving image data may be displayed on the window screen. With this still image, it is possible to recommend moving image data related to the moving image data distributed in a streaming manner to the user of the terminal device.
 一方、特許文献1には、動画データの特定のシーンを他のユーザに推奨するために、ユーザが動画データの再生位置などを示す編集データを他のユーザへメールで配信するシステムが開示されている。これにより、編集データを作成したユーザは、迅速に他のユーザに動画データ中の特定のシーンを見せることができる。 On the other hand, Patent Document 1 discloses a system in which a user distributes editing data indicating a reproduction position of moving image data to other users by mail in order to recommend a specific scene of moving image data to other users. Yes. Thereby, the user who created edit data can quickly show a specific scene in the moving image data to other users.
特開2009-124516号公報JP 2009-124516 A
 ところで、例えばパノラマ動画などの動画に対して疑似的なカメラワークがユーザにより行われる場合がある。疑似的なカメラワークでは、例えば、仮想的なカメラの向きや視界の広さなどを操作部から指示することで、動画を構成する複数の画像フレームにおける表示範囲が指定される。近年、疑似的なカメラワークを示すカメラワークデータをサーバにアップロードして他のユーザに提供したいというニーズがある。この場合、例えば端末装置で表示中の動画に対して他のユーザにより行われた疑似的なカメラワークを端末装置のユーザに推奨することが想定される。しかしながら、疑似的なカメラワークは、動画を構成する複数の画像フレームにおける時系列的な表示範囲の動きに特徴がある。そのため、従来のように静止画によって、疑似的なカメラワークの特徴をユーザに分かり易く伝えることは困難である。また、疑似的なカメラワークの特徴は、特許文献1に開示された技術を適用した場合であっても、ユーザに分かり易く伝えることは困難である。さらに、例えば、複数のユーザそれぞれにより行われた疑似的なカメラワークを示すカメラワークデータをサーバにアップロードされることが想定される。この場合、それぞれのカメラワークデータに対応する疑似的なカメラワークの中から、ユーザが所望するカメラワークを効率良く検索する手法は知られていなかった。 By the way, for example, a pseudo camera work may be performed by a user on a moving image such as a panoramic video. In the pseudo camera work, for example, the display range in a plurality of image frames constituting the moving image is designated by instructing the direction of the virtual camera, the field of view, and the like from the operation unit. In recent years, there is a need to upload camera work data indicating pseudo camera work to a server and provide it to other users. In this case, for example, it is assumed that pseudo camera work performed by another user on a moving image being displayed on the terminal device is recommended to the user of the terminal device. However, the pseudo camera work is characterized by the movement of the time-series display range in a plurality of image frames constituting a moving image. Therefore, it is difficult to convey the characteristics of the pseudo camera work to the user in an easy-to-understand manner using a still image as in the past. Moreover, even if the technique disclosed in Patent Document 1 is applied, it is difficult to convey the characteristics of the pseudo camera work to the user in an easy-to-understand manner. Further, for example, it is assumed that camera work data indicating pseudo camera work performed by each of a plurality of users is uploaded to the server. In this case, a method for efficiently searching for a camera work desired by the user from pseudo camera work corresponding to each camera work data has not been known.
 本開示は、以上の点に鑑みてなされたものであり、ユーザが所望するカメラワークを効率良く検索することが可能な情報処理装置及び情報処理方法を提供する。 The present disclosure has been made in view of the above points, and provides an information processing apparatus and an information processing method capable of efficiently searching for camera work desired by a user.
 上記課題を解決するために、請求項1は、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の前記表示範囲を再生位置ごとに示す表示範囲情報の要求であって、前記動画の前記画像フレームにおける1以上の画素から構成される領域の検索に用いられる第1の検索情報を含む前記要求を端末装置から受信する受信手段と、複数の前記領域それぞれに対応付けられた第2の検索情報であって、前記領域の特徴を示す第2の検索情報を記憶する記憶手段と、前記記憶手段に記憶された前記第2の検索情報に基づいて、前記受信手段により受信された前記第1の検索情報に対応する前記第2の検索情報が対応付けられた前記領域を前記記憶手段から検索して決定する第1決定手段と、前記第1決定手段により決定された前記領域を含む前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定する第2決定手段と、を備えることを特徴とする。 In order to solve the above-mentioned problem, according to a first aspect of the present invention, in the image frame constituting the moving image, the display range displayed by the display unit can change the display range of the moving image according to the moving image playback position. Receiving means for receiving from the terminal device a request for display range information shown for each, the request including first search information used for searching for an area composed of one or more pixels in the image frame of the moving image Storage means for storing second search information associated with each of the plurality of areas, the second search information indicating the characteristics of the areas, and the second search information stored in the storage means Based on search information, first determination means for searching and determining the area associated with the second search information corresponding to the first search information received by the receiving means from the storage means , The display range information indicating the display range including the region determined by the first determining means, characterized in that it comprises a second determining means for determining a display range information to be provided to the terminal device.
 請求項2は、請求項1に記載の情報処理装置において、前記領域に対応付けられた前記第2の検索情報は、前記領域を含む前記動画の表示範囲に表れる被写体を示し、前記受信手段は、被写体を示す前記第1の検索情報を含む前記要求を受信し、前記第1決定手段は、前記領域に対応付けられた前記第2の検索情報に基づいて、前記受信手段により受信された前記第1の検索情報が示す被写体が表れる表示範囲を含む前記領域を決定し、前記第2決定手段は、前記第1決定手段により決定された前記領域を含む前記表示範囲を示す前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定することを特徴とする。 According to a second aspect of the present invention, in the information processing apparatus according to the first aspect, the second search information associated with the area indicates a subject appearing in a display range of the moving image including the area, and the receiving unit The request including the first search information indicating a subject is received, and the first determination unit receives the request received by the reception unit based on the second search information associated with the region. The area including the display range in which the subject indicated by the first search information appears is determined, and the second determining means determines the display range information indicating the display range including the area determined by the first determining means. The display range information to be provided to the terminal device is determined.
 請求項3は、請求項1又は2に記載の情報処理装置において、前記受信手段は、前記端末装置において前記動画の表示中に前記第1の検索情報が入力されたときの前記動画の再生位置を示す再生位置情報と前記第1の検索情報とを含む前記要求を受信し、前記第1決定手段は、前記受信手段により受信された再生位置情報が示す再生位置の前記画像フレームにおける前記領域の中から、前記受信手段により受信された前記第1の検索情報に対応する前記第2の検索情報に対応付けられた前記領域を決定し、前記第2決定手段は、前記第1決定手段により決定された前記領域を含む前記表示範囲を示す前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定することを特徴とする。 3. The information processing apparatus according to claim 1, wherein the receiving unit is configured to reproduce the moving image when the first search information is input while the moving image is displayed on the terminal device. The request including the reproduction position information indicating the first search information is received, and the first determination unit is configured to determine the region in the image frame at the reproduction position indicated by the reproduction position information received by the reception unit. The region corresponding to the second search information corresponding to the first search information received by the receiving unit is determined, and the second determination unit is determined by the first determination unit. The display range information indicating the display range including the region thus determined is determined as display range information to be provided to the terminal device.
 請求項4は、コンピュータにより行われる情報処理方法であって、コンピュータにより行われる情報処理方法であって、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の前記表示範囲を再生位置ごとに示す表示範囲情報の要求であって、前記動画の前記画像フレームにおける1以上の画素から構成される領域の検索に用いられる第1の検索情報を含む前記要求を端末装置から受信する受信ステップと、複数の前記領域それぞれに対応付けられた第2の検索情報であって、前記領域の特徴を示す第2の検索情報を記憶する記憶手段に記憶された前記第2の検索情報に基づいて、前記受信ステップにより受信された前記第1の検索情報に対応する前記第2の検索情報が対応付けられた前記領域を検索して決定する第1決定ステップと、前記第1決定ステップにより決定された前記領域を含む前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定する第2決定ステップと、を含むことを特徴とする。 A fourth aspect of the present invention is an information processing method performed by a computer, wherein the display range displayed by the display means in the image frame constituting the moving image is a reproduction position of the moving image. A display range information request indicating, for each playback position, the display range of a moving image that can be changed according to a first position, which is used to search for an area composed of one or more pixels in the image frame of the moving image. A receiving step for receiving the request including search information from the terminal device, and a second search information associated with each of the plurality of areas, and storing the second search information indicating the characteristics of the areas Based on the second search information stored in the means, the second search information corresponding to the first search information received by the receiving step is associated. A first determination step of searching and determining the determined region, and display range information indicating the display range including the region determined by the first determination step is determined as display range information to be provided to the terminal device And a second determination step.
 請求項1及び4によれば、ユーザが所望するカメラワークに対応する表示範囲を示す表示範囲情報を効率良く検索することができる。 According to Claims 1 and 4, it is possible to efficiently search for display range information indicating a display range corresponding to the camera work desired by the user.
 請求項2によれば、ユーザが見たい人物等の被写体が表れるシーンを含む表示範囲を示す表示範囲情報を効率良く検索することができる。 According to claim 2, it is possible to efficiently search for display range information indicating a display range including a scene in which a subject such as a person desired by the user appears.
 請求項3によれば、動画の再生時間全体においてユーザが所望するタイミングにおける表示範囲を示す表示範囲情報を効率良く検索することができる。 According to claim 3, it is possible to efficiently search the display range information indicating the display range at the timing desired by the user in the entire playback time of the moving image.
本実施形態の通信システムSの概要構成例を示す図である。It is a figure which shows the example of a schematic structure of the communication system S of this embodiment. 3次元動画空間を、複数の動画ブロックに分けた例を示す概念図である。It is a conceptual diagram which shows the example which divided | segmented three-dimensional moving image space into several moving image block. 仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。It is a figure which shows the example of a virtual screen, and the example of the display range with respect to a virtual screen. 仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。It is a figure which shows the example of a virtual screen, and the example of the display range with respect to a virtual screen. 仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。It is a figure which shows the example of a virtual screen, and the example of the display range with respect to a virtual screen. 制御部21により生成されたカメラワークデータの一例である。It is an example of the camera work data produced | generated by the control part. 制御部21により生成されたカメラワークデータの一例である。It is an example of the camera work data produced | generated by the control part. 制御部21により生成されたカメラワークデータの一例である。It is an example of the camera work data produced | generated by the control part. クライアント2の制御部21におけるメイン処理を示すフローチャートである。7 is a flowchart showing main processing in the control unit 21 of the client 2. 図5Aに示すステップS4における入力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the input process in step S4 shown to FIG. 5A. シーン情報を入力するための画面例を示す図である。It is a figure which shows the example of a screen for inputting scene information. シーン情報を入力するための画面例を示す図である。It is a figure which shows the example of a screen for inputting scene information. 配信サーバ1の制御部11における処理を示すフローチャートである。It is a flowchart which shows the process in the control part 11 of the delivery server 1. FIG. クライアント2の制御部21における処理を示すフローチャートである。4 is a flowchart showing processing in a control unit 21 of the client 2. 検索キーを入力するための画面例を示す図である。It is a figure which shows the example of a screen for inputting a search key. 検索キーを入力するための画面例を示す図である。It is a figure which shows the example of a screen for inputting a search key. メイン画面MVとサブ画面SV1~SV5の一例を示す図である。It is a figure which shows an example of the main screen MV and the sub screens SV1 to SV5. 配信サーバ1の制御部11における処理を示すフローチャートである。It is a flowchart which shows the process in the control part 11 of the delivery server 1. FIG. 動画を構成する1画像フレームにおける部分領域をピクセルとした場合の表示範囲を示す図である。It is a figure which shows the display range when the partial area | region in 1 image frame which comprises a moving image is made into the pixel. 動画を構成する1画像フレームにおける部分領域を動画ブロックとした場合の表示範囲を示す図である。It is a figure which shows the display range when the partial area | region in 1 image frame which comprises a moving image is made into a moving image block. 5秒間隔ごとに決定された表示範囲R31~R33の間が連続的に変化するように補完された例を示す概念図である。It is a conceptual diagram which shows the example complemented so that between the display ranges R31-R33 determined every 5 second interval may change continuously. 配信サーバ1の制御部11におけるカメラワークデータの自動生成処理を示すフローチャートである。It is a flowchart which shows the automatic generation process of the camera work data in the control part 11 of the delivery server 1. カメラワークデータの自動生成処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of the automatic production | generation process of camera work data. カメラワークデータの自動生成処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the automatic production | generation process of camera work data. カメラワークデータの自動生成処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the automatic production | generation process of camera work data. カメラワークデータの自動生成処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the automatic production | generation process of camera work data. カメラワークデータの自動生成処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the automatic production | generation process of camera work data. カメラワークデータの自動生成処理の他の例を示す概念図である。It is a conceptual diagram which shows the other example of the automatic production | generation process of camera work data.
 以下、本開示の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
 [1.通信システムSの構成及び動作概要]
 始めに、図1等を参照して、本実施形態の通信システムの構成及び動作概要について説明する。図1は、本実施形態の通信システムSの概要構成例を示す図である。図1に示すように、通信システムSは、配信サーバ1、及び複数のクライアント2を含んで構成される。配信サーバ1は、本開示の情報処理装置の一例である。クライアント2は、本開示の端末装置の一例である。また、配信サーバ1とクライアント2とはネットワークNWを介して通信可能になっている。ネットワークNWは、例えば、インターネット等により構成される。
[1. Configuration and operation overview of communication system S]
First, with reference to FIG. 1 etc., the structure and operation | movement outline | summary of the communication system of this embodiment are demonstrated. FIG. 1 is a diagram illustrating a schematic configuration example of a communication system S of the present embodiment. As shown in FIG. 1, the communication system S includes a distribution server 1 and a plurality of clients 2. The distribution server 1 is an example of an information processing apparatus according to the present disclosure. The client 2 is an example of a terminal device according to the present disclosure. Further, the distribution server 1 and the client 2 can communicate with each other via the network NW. The network NW is configured by, for example, the Internet.
 配信サーバ1は、例えばクライアント2からのコンテンツ、またはコンテンツのカメラワークデータのアップロードを受け付ける。配信サーバ1は、例えばクライアント2からのコンテンツ要求に応じて、コンテンツをクライアント2へ送信する。コンテンツは、動画データを含む。動画データは、動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画を表すデータである。このような動画には、例えばパノラマ動画がある。パノラマ動画は、例えば高解像度のカメラで、且つ広範囲を撮影可能なレンズを搭載するカメラにより被写体が撮影された動画である。広範囲を撮影可能なレンズには、ワイドレンズ、魚眼レンズ、360レンズ等がある。再生位置とは、動画データの再生開始からの経過時間である。なお、コンテンツは、音声データを含んでもよい。コンテンツの送信は、例えば、ネットワークNWを介してストリーミング配信により行われる。クライアント2は、配信サーバ1からストリーミング配信されたコンテンツを受信する。 The distribution server 1 accepts upload of content from the client 2 or camera work data of the content, for example. For example, the distribution server 1 transmits content to the client 2 in response to a content request from the client 2. The content includes moving image data. The moving image data is data representing a moving image in which the display range displayed by the display means can be changed in accordance with the reproduction position of the moving image within the image frame constituting the moving image. An example of such a moving image is a panoramic moving image. A panoramic video is a video in which a subject is shot by a camera equipped with a lens capable of shooting a wide range, for example, with a high-resolution camera. Examples of lenses capable of photographing a wide range include a wide lens, a fisheye lens, and a 360 lens. The playback position is an elapsed time from the start of playback of moving image data. Note that the content may include audio data. The content is transmitted by streaming distribution via the network NW, for example. The client 2 receives the content streamed from the distribution server 1.
 また、配信サーバ1は、例えばクライアント2からカメラワークデータのリクエストに応じて、コンテンツのカメラワークデータをクライアント2へ送信する。カメラワークデータは、動画を構成する画像フレーム内で表示手段により表示される表示範囲を再生位置ごとに示す表示範囲情報の一例である。この表示範囲は、1画像フレームのうち表示手段の画面に描画される描画領域に相当する。言い換えれば、表示範囲は、画像フレームで画定される撮影範囲から切り出される範囲である。このような表示範囲は、例えば、疑似的なカメラワーク(以下、「疑似カメラワーク」という)により指定される。例えば、動画を構成する画像フレームが三次元仮想空間に配置された仮想スクリーンに投影されるものとし、三次元仮想空間において動画を見る人物が存在すると仮定する。疑似カメラワークとは、例えば仮想スクリーンに投影された動画を見る人物の視点位置、視線方向、及び視野面積の少なくともいずれか一つを決めることをいう。言い換えれば、疑似カメラワークとは、仮想カメラの向きや視界の広さなどを決めることをいう。ここで、仮想カメラは、動画を構成する画像フレーム内の描画領域を決定する仮想的なカメラをいう。上記カメラワークデータ(以下、「疑似カメラワークデータ」という)により疑似カメラワークを再現することができる。1つの疑似カメラワークデータは、例えば、動画データの再生開始からの再生終了までの再生時間に含まれる全ての画像フレームにおける表示範囲が示されるとは限らない。つまり、1つの疑似カメラワークデータは、再生時間における一部の時間範囲に含まれる画像フレームにおける表示範囲が示される場合もある。クライアント2は、例えば、ストリーミングでコンテンツを受信しながら、取得された疑似カメラワークデータが示す表示範囲に従って、動画を表示させる。 Also, the distribution server 1 transmits the camera work data of the content to the client 2 in response to a request for camera work data from the client 2, for example. The camera work data is an example of display range information indicating, for each reproduction position, a display range displayed by the display unit in an image frame constituting a moving image. This display range corresponds to a drawing area drawn on the screen of the display means in one image frame. In other words, the display range is a range cut out from the shooting range defined by the image frame. Such a display range is designated by, for example, pseudo camera work (hereinafter referred to as “pseudo camera work”). For example, assume that image frames constituting a moving image are projected onto a virtual screen arranged in a three-dimensional virtual space, and that there is a person who views the moving image in the three-dimensional virtual space. The term “pseudo camera work” refers to determining at least one of the viewpoint position, the line-of-sight direction, and the visual field area of a person who views a moving image projected on a virtual screen, for example. In other words, pseudo camera work refers to determining the orientation of the virtual camera, the width of the field of view, and the like. Here, the virtual camera refers to a virtual camera that determines a drawing area in an image frame constituting a moving image. The pseudo camera work can be reproduced by the camera work data (hereinafter referred to as “pseudo camera work data”). For example, one pseudo camera work data does not necessarily indicate the display range in all image frames included in the reproduction time from the reproduction start to the reproduction end of the moving image data. That is, one pseudo camera work data may indicate a display range in an image frame included in a partial time range in the reproduction time. For example, the client 2 displays the moving image according to the display range indicated by the acquired pseudo camera work data while receiving the content by streaming.
 配信サーバ1は、記憶装置3と接続可能になっている。記憶装置3は、例えばハードディスクドライブ(HDD)により構成される。記憶装置3は、配信サーバ1に備えられる。或いは、記憶装置3は、配信サーバ1とは異なるサーバに備えられてもよい。記憶装置3は、クライアント2からの要求に応じて、クライアント2へ送信されるWebページのデータが記憶される。さらに、記憶装置3には、動画データ記憶領域31a、音声データ記憶領域31b、ワークファイル記憶領域31c、及びシーン情報記憶領域31dが設けられている。 The distribution server 1 can be connected to the storage device 3. The storage device 3 is configured by, for example, a hard disk drive (HDD). The storage device 3 is provided in the distribution server 1. Alternatively, the storage device 3 may be provided in a server different from the distribution server 1. The storage device 3 stores Web page data transmitted to the client 2 in response to a request from the client 2. The storage device 3 further includes a moving image data storage area 31a, an audio data storage area 31b, a work file storage area 31c, and a scene information storage area 31d.
 動画データ記憶領域31aには、複数の動画データが記憶される。動画データ記憶領域31aに記憶された動画データは、配信サーバ1にアクセス可能な複数のクライアント2間で共有することができる。音声データ記憶領域31bには、複数の音声データが記憶される。音声データ記憶領域31bに記憶された音声データは、配信サーバ1にアクセス可能な複数のクライアント間で共有することができる。 The moving image data storage area 31a stores a plurality of moving image data. The moving image data stored in the moving image data storage area 31 a can be shared among a plurality of clients 2 that can access the distribution server 1. A plurality of audio data is stored in the audio data storage area 31b. The audio data stored in the audio data storage area 31 b can be shared among a plurality of clients that can access the distribution server 1.
 次に、ワークファイル記憶領域31cには、ワークファイルがコンテンツごとに対応付けられて記憶される。ワークファイルには、コンテンツのタイトル、及び疑似カメラワークデータ等が格納される。疑似カメラワークデータには、シーン情報が付与されている場合もある。シーン情報は、動画のシーンの特徴を示す情報である。ここで、動画のシーンとは、動画上のある動作の一区切りとなる範囲を示す。このようなシーンには、例えば、歌手が歌唱するシーン、俳優が演じるシーン、又はイベントの様子を映し出すシーンなどがある。シーン情報には、例えば、シーンに表れる歌手や俳優等の被写体を示すテキスト情報や被写体を識別する識別情報等が含まれる。ワークファイルには、例えば、このワークファイルを識別するワークIDが付与される。なお、ワークファイルには、コンテンツを識別するコンテンツIDが含まれてもよい。ワークファイル記憶領域31cに記憶されるワークファイルには、例えば、クライアント2からアップロードされたワークファイルも含まれる。1つのコンテンツには、複数のワークファイルが対応付けられる場合もある。例えば、あるコンテンツに対して、複数のユーザそれぞれにより行われた疑似カメラワークにより指定された表示範囲を示す疑似カメラワークデータが対応付けられる。 Next, the work file is stored in the work file storage area 31c in association with each content. The work file stores content titles, pseudo camera work data, and the like. In some cases, the pseudo camera work data is given scene information. The scene information is information indicating the characteristics of a moving image scene. Here, the moving image scene indicates a range that is a segment of a certain operation on the moving image. Such scenes include, for example, a scene where a singer sings, a scene played by an actor, or a scene that shows the state of an event. The scene information includes, for example, text information indicating a subject such as a singer or an actor appearing in the scene, identification information for identifying the subject, and the like. For example, a work ID for identifying the work file is given to the work file. Note that the work file may include a content ID for identifying the content. The work file stored in the work file storage area 31c includes, for example, a work file uploaded from the client 2. One content may be associated with a plurality of work files. For example, the pseudo camera work data indicating the display range designated by the pseudo camera work performed by each of a plurality of users is associated with a certain content.
 シーン情報記憶領域31dは、シーン情報データベースがコンテンツごとに対応付けられて記憶される。シーン情報データベースは、動画を構成する画像フレームにおける部分領域ごと、且つ再生位置ごとにシーン情報を対応付けて登録可能なデータベースである。部分領域とは、画像フレームにおける1以上のピクセル(画素)から構成される領域である。部分領域は、動画の再生位置と、この再生位置における画像フレーム上の位置とによって決定される。シーン情報データベースに登録されるシーン情報は、領域の特徴を示す第2の検索情報の一例である。なお、シーン情報データベースには、動画のシーン以外の特徴を示す情報が部分領域に対応つけられて登録されるように構成してもよい。なお、部分領域を、1画像フレームにおける1ピクセルとしてもよいが、この場合、シーン情報を管理するための負荷が大きくなる。そのため、動画を、「縦ピクセル(複数ピクセル)H×横ピクセル(複数ピクセル)W×再生時間(複数フレーム)F」の立体的なブロックに分けて、ブロックごとにシーン情報が対応付けられて登録されることが望ましい。このようなブロックを、以下、「動画ブロック」という。図2は、3次元動画空間を、複数の動画ブロックに分けた例を示す概念図である。図2の例では、各動画ブロックには、それぞれ、固有のブロックIDが付与されている。各動画ブロックには、それぞれ、動画を構成する画像フレームF上の座標位置、及び再生位置が対応付けられている。この再生位置は、例えば、動画ブロックに含まれる複数の画像フレームの中で、先頭の画像フレームの再生位置である。この場合の画像フレームは、図2に示すように分割された画像フレームである。そして、シーン情報データベースには、例えば、クライアント2からアップロードされた疑似カメラワークデータに付与されたシーン情報が、ブロックIDに対応付けられて登録される。この場合のシーン情報は、クライアント2のユーザにより投稿されたシーン情報である。同一の動画ブロックに対して、同一又は類似するシーン情報が複数のユーザにより投稿される場合がある。そのため、シーン情報データベースには、図2に示すように、シーン情報の投稿回数がブロックIDに対応付けられて登録される。なお、図2に示すように、全ての動画ブロックにシーン情報及びシーン情報の投稿回数が登録されるとは限らない。また、シーン情報データベースは、クライアント2から提供されるシーン情報に依らず、例えばシステム運営者側で生成、更新されるようにしてもよい。 In the scene information storage area 31d, a scene information database is stored in association with each content. The scene information database is a database in which scene information can be registered in association with each partial area and each reproduction position in an image frame constituting a moving image. A partial area is an area composed of one or more pixels in the image frame. The partial area is determined by the reproduction position of the moving image and the position on the image frame at the reproduction position. The scene information registered in the scene information database is an example of second search information indicating the characteristics of the area. The scene information database may be configured so that information indicating features other than the scene of the moving image is registered in association with the partial area. Note that the partial area may be one pixel in one image frame, but in this case, the load for managing scene information increases. Therefore, the video is divided into three-dimensional blocks of “vertical pixels (plural pixels) H × horizontal pixels (plural pixels) W × playback time (multiple frames) F”, and scene information is associated with each block and registered. It is desirable that Such a block is hereinafter referred to as a “moving image block”. FIG. 2 is a conceptual diagram illustrating an example in which a three-dimensional moving image space is divided into a plurality of moving image blocks. In the example of FIG. 2, each moving image block is assigned a unique block ID. Each moving image block is associated with a coordinate position on the image frame F constituting the moving image and a reproduction position. This playback position is, for example, the playback position of the first image frame among a plurality of image frames included in the moving image block. The image frame in this case is an image frame divided as shown in FIG. In the scene information database, for example, scene information given to the pseudo camera work data uploaded from the client 2 is registered in association with the block ID. The scene information in this case is scene information posted by the user of the client 2. The same or similar scene information may be posted by a plurality of users for the same moving image block. Therefore, as shown in FIG. 2, the number of postings of scene information is registered in the scene information database in association with the block ID. As shown in FIG. 2, scene information and the number of postings of scene information are not necessarily registered in all moving image blocks. Further, the scene information database may be generated and updated on the system operator side, for example, without depending on the scene information provided from the client 2.
 そして、配信サーバ1は、図1に示すように、制御部11及びインターフェース部12を備えて構成される。制御部11は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。制御部11は、本開示の受信手段、第1決定手段、及び第2決定手段の一例である。制御部11は、コンテンツの送信又は受信制御、及び疑似カメラワークデータの送信又は受信制御等を行う。制御部11は、クライアント2から、疑似カメラワークデータのリクエストを受信したとき、リクエストに基づいて、クライアント2へ返信する疑似カメラワークデータを決定する。なお、疑似カメラワークデータの決定方法については後述する。 And the delivery server 1 is provided with the control part 11 and the interface part 12, as shown in FIG. The control unit 11 includes a CPU, ROM, RAM, and the like as a computer. The control unit 11 is an example of a reception unit, a first determination unit, and a second determination unit of the present disclosure. The control unit 11 performs content transmission or reception control, pseudo camera work data transmission or reception control, and the like. When the control unit 11 receives a request for pseudo camera work data from the client 2, the control unit 11 determines pseudo camera work data to be returned to the client 2 based on the request. The method for determining the pseudo camera work data will be described later.
 次に、クライアント2は、図1に示すように、制御部21、記憶部22、ビデオRAM23、映像制御部24、操作処理部25、音声制御部26、インターフェース部27、及びバス28等を備えて構成される。これらの構成要素は、バス28に接続されている。映像制御部24には、ディスプレイを備える表示部24aが接続される。ディスプレイは、表示手段の一例である。操作処理部25には、操作部25aが接続される。操作部25aには、例えば、マウス、キーボード、リモコン等がある。表示部24aと操作部25aとを兼ねるタッチパネルが適用されてもよい。制御部21は、ユーザによる操作部25aからの操作指示を、操作処理部25を介して受け付ける。ユーザは、操作部25aを用いて、上述した疑似カメラワークの操作を行うことができる。音声制御部26には、スピーカ26aが接続される。インターフェース部27は、ネットワークNWに接続される。 Next, as shown in FIG. 1, the client 2 includes a control unit 21, a storage unit 22, a video RAM 23, a video control unit 24, an operation processing unit 25, an audio control unit 26, an interface unit 27, a bus 28, and the like. Configured. These components are connected to the bus 28. A display unit 24 a including a display is connected to the video control unit 24. The display is an example of display means. An operation unit 25 a is connected to the operation processing unit 25. Examples of the operation unit 25a include a mouse, a keyboard, and a remote controller. A touch panel serving both as the display unit 24a and the operation unit 25a may be applied. The control unit 21 receives an operation instruction from the operation unit 25 a by the user via the operation processing unit 25. The user can perform the above-described pseudo camera work operation using the operation unit 25a. A speaker 26 a is connected to the audio control unit 26. The interface unit 27 is connected to the network NW.
 制御部21は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。制御部21は、タイマー機能を備える。記憶部22は、例えば、例えばハードディスクドライブ(HDD)により構成される。記憶部22には、OS(Operating System)、及びプレイヤーソフトウェア等が記憶されている。プレイヤーソフトウェアは、コンテンツを再生するためのプログラムである。なお、プレイヤーソフトウェアは、例えば、ネットワークNWに接続された所定のサーバからダウンロードされるようにしてもよい。或いは、プレイヤーソフトウェアは、例えば、記録媒体に記録されて記録媒体のドライブを介して読み込まれるようにしてもよい。 The control unit 21 includes a CPU, ROM, RAM, and the like as a computer. The control unit 21 has a timer function. The storage unit 22 is configured by, for example, a hard disk drive (HDD). The storage unit 22 stores an OS (Operating System), player software, and the like. The player software is a program for playing back content. Note that the player software may be downloaded from a predetermined server connected to the network NW, for example. Alternatively, the player software may be recorded on a recording medium and read via a drive of the recording medium, for example.
 制御部21は、プレイヤーソフトウェアを実行することでコンテンツを再生するプレイヤーとして機能する。制御部21はプレイヤーの機能により、配信サーバ1からストリーミング配信されたコンテンツを順次取得し、コンテンツを再生させる。制御部21におけるRAMにはバッファメモリが設けられている。バッファメモリには、例えば配信サーバ1からストリーミング配信されたコンテンツに含まれる動画データ等が一時的に保持される。また、バッファメモリには、例えば配信サーバ1から配信された疑似カメラワークデータが一時的に保持される。制御部21は、バッファメモリからビデオRAM23へ動画データを出力する。ビデオRAM23には、フレームバッファがRAMに設けられている。例えば、フレームバッファには、動画データにより再生される動画を構成する画像フレームにおいて、疑似カメラワークデータが示す表示範囲に対応する部分の画像データが書き込まれる。映像制御部24は、制御部21からの制御信号に従って、フレームバッファに書き込まれた画像データを、それぞれに対応する画面に描画することで表示させる。なお、例えば配信サーバ1からバッファメモリに保持されたコンテンツに音声データが含まれる場合がある。この場合、制御部21は、バッファメモリから音声データを再生して音声制御部26へ出力する。音声制御部26は、音声データからアナログ音声信号を生成し、生成したアナログ音声信号をスピーカ26aへ出力する。 The control unit 21 functions as a player that reproduces content by executing player software. The control unit 21 sequentially acquires the contents streamed from the distribution server 1 by the function of the player and reproduces the contents. The RAM in the control unit 21 is provided with a buffer memory. In the buffer memory, for example, moving image data included in the content streamed from the distribution server 1 is temporarily stored. The buffer memory temporarily stores, for example, pseudo camera work data distributed from the distribution server 1. The control unit 21 outputs moving image data from the buffer memory to the video RAM 23. In the video RAM 23, a frame buffer is provided in the RAM. For example, in the frame buffer, image data of a portion corresponding to the display range indicated by the pseudo camera work data in the image frame constituting the moving image reproduced by the moving image data is written. In accordance with the control signal from the control unit 21, the video control unit 24 displays the image data written in the frame buffer by drawing it on the corresponding screen. For example, audio data may be included in the content held in the buffer memory from the distribution server 1. In this case, the control unit 21 reproduces the audio data from the buffer memory and outputs it to the audio control unit 26. The voice control unit 26 generates an analog voice signal from the voice data, and outputs the generated analog voice signal to the speaker 26a.
 また、制御部21は、ユーザの疑似カメラワークの操作により、ディスプレイの画面に表示中の動画を構成する画像フレームにおける一部分の表示範囲の指示を受け付ける。例えば、制御部21は、画面に表示中の動画を構成する画像フレームにおいて表示される表示範囲の変更指示を受け付ける。制御部21は、この変更指示に応じて、画面に表示される表示範囲を変更表示する。言い換えれば、ユーザは、疑似カメラワークの操作により、視点位置、視線方向及び視野面積のうち少なくとも何れか1つを変更することで、画面に表示中の動画の表示範囲を変更させることができる。例えば、動画を構成する画像フレームが三次元仮想空間に配置された仮想スクリーンに投影されるものとし、三次元仮想空間において動画を見る人物が存在すると仮定する。視点位置は、その人物が動画を見ている位置である。視線方向は、その人物の動画に対する視線の方向である。視野面積は、例えば、三次元仮想空間に配置された仮想スクリーン上において、その人物の視野の範囲にある領域の面積である。なお、視野面積は、その人物の視野の範囲としてもよい。そして、疑似カメラワークの操作により、仮想スクリーン上において、動画の表示範囲が決定される。つまり、仮想スクリーンから、表示範囲として決定された範囲の画像が切り出され、切り出された画像が画面に表示される。 Further, the control unit 21 receives an instruction of a display range of a part of the image frame constituting the moving image being displayed on the display screen by the user's pseudo camera work operation. For example, the control unit 21 receives an instruction to change the display range displayed in the image frame constituting the moving image being displayed on the screen. The control unit 21 changes and displays the display range displayed on the screen in response to the change instruction. In other words, the user can change the display range of the moving image being displayed on the screen by changing at least one of the viewpoint position, the line-of-sight direction, and the visual field area by operating the pseudo camera work. For example, assume that image frames constituting a moving image are projected onto a virtual screen arranged in a three-dimensional virtual space, and that there is a person who views the moving image in the three-dimensional virtual space. The viewpoint position is a position where the person is watching the moving image. The line-of-sight direction is the direction of the line of sight of the person's moving image. The visual field area is, for example, the area of a region in the range of the visual field of the person on the virtual screen arranged in the three-dimensional virtual space. The visual field area may be the range of the visual field of the person. Then, the display range of the moving image is determined on the virtual screen by the operation of the pseudo camera work. That is, an image in the range determined as the display range is cut out from the virtual screen, and the cut out image is displayed on the screen.
 図3(A)~(C)は、仮想スクリーンの例と、仮想スクリーンに対する表示範囲の例とを示す図である。図3(A)の例では、仮想スクリーンとしてスクリーンSC1が定義される。スクリーンSC1は、長方形の平面スクリーンであり、長方形の平面に動画が投影される。スクリーンSC1上の表示範囲R1は、例えば、X座標、Y座標、幅及び高さにより規定される。例えば、スクリーンSC1の左上の頂点をスクリーンSC1の座標系における原点とする。X座標及びY座標は、視点位置を定める。X座標は、表示範囲R1の左上の頂点の横方向の座標であり、Y座標は、表示範囲R1の左上の頂点の縦方向の座標である。例えば三次元仮想空間において、スクリーンSC1から所定距離離れている点を視点と仮定してもよい。例えば、視点を通り、スクリーンSC1と垂直に交わる線を、視線とする。視線とスクリーンSC1とが交わる点が、表示範囲R1の中心となる。幅及び高さは、視野面積を定める。幅及び高さは、表示範囲R1の横の長さ及び縦の長さである。視線方向は、予め定められている。 3A to 3C are diagrams showing an example of a virtual screen and an example of a display range for the virtual screen. In the example of FIG. 3A, a screen SC1 is defined as a virtual screen. The screen SC1 is a rectangular flat screen, and a moving image is projected on the rectangular plane. The display range R1 on the screen SC1 is defined by, for example, an X coordinate, a Y coordinate, a width, and a height. For example, the upper left vertex of the screen SC1 is set as the origin in the coordinate system of the screen SC1. The X coordinate and the Y coordinate define the viewpoint position. The X coordinate is the horizontal coordinate of the upper left vertex of the display range R1, and the Y coordinate is the vertical coordinate of the upper left vertex of the display range R1. For example, a point that is a predetermined distance away from the screen SC1 in the three-dimensional virtual space may be assumed as the viewpoint. For example, a line passing through the viewpoint and perpendicularly intersecting the screen SC1 is defined as a line of sight. The point where the line of sight and the screen SC1 intersect is the center of the display range R1. The width and height define the viewing area. The width and the height are the horizontal length and the vertical length of the display range R1. The line-of-sight direction is determined in advance.
 図3(B)の例では、仮想スクリーンとしてスクリーンSC2が定義される。スクリーンSC2は、円筒形のスクリーンであり、円筒の側面に動画が投影される。円筒の側面は、仮想立体面の一例である。スクリーンSC2には、例えば円筒状のパノラマ動画が投影される。パノラマ動画は、例えば、全方位映像である。パノラマ動画は、360度より視野角が狭い部分方位映像であってもよい。スクリーンSC2上の表示範囲R2は、例えば、方位角、横視野角、及び高さにより規定される。方位角は、視線方向を定める。例えば、スクリーンSC2の円筒の中心軸の中点を、視点とする。また、視点を、三次元仮想空間の座標系における原点とし、スクリーンSC2の中心軸をZ軸とする。X軸は、原点を通り、Y軸及びZ軸に垂直である。Y軸は、原点を通り、X軸及びZ軸に垂直である。方位角は、視点からの視線の方向を定める。視線は、例えば、Z軸と垂直である。方位角は、例えば、X軸と視線とがなす角度である。横視野角及び高さは、視野面積を定める。横視野角は、視線の方向を中心とした横方向の視野の範囲を示す角度である。高さは、表示範囲R2の縦の長さである。方位角、横視野角及び高さに基づいて、三次元仮想空間における視野範囲を示す四角錐が定義される。この四角錐がビューボリュームである。ビューボリュームとは、三次元仮想空間において、投影変換の対象となる範囲をいう。実際のビューボリュームは四角錐台であるが、説明の便宜上、四角錐を用いる。ビューボリュームの頂点が視点であり、ビューボリュームの底面の中心を視線が通る。ビューボリュームの側面P21~P24のうち、Z軸と平行な側面P21と側面P22とがなす角度が横視野角である。ビューボリュームとスクリーンSC2とが交わる面の縦方向の長さが、高さである。そして、ビューボリュームとスクリーンSC2とが交わる面が、表示範囲R2である。視点位置は、予め定められている。 In the example of FIG. 3B, a screen SC2 is defined as a virtual screen. The screen SC2 is a cylindrical screen, and a moving image is projected on the side surface of the cylinder. The side surface of the cylinder is an example of a virtual solid surface. For example, a cylindrical panoramic video is projected on the screen SC2. The panoramic video is, for example, an omnidirectional video. The panoramic video may be a partial orientation video with a viewing angle narrower than 360 degrees. The display range R2 on the screen SC2 is defined by, for example, an azimuth angle, a horizontal viewing angle, and a height. The azimuth determines the viewing direction. For example, let the midpoint of the central axis of the cylinder of the screen SC2 be the viewpoint. The viewpoint is the origin in the coordinate system of the three-dimensional virtual space, and the center axis of the screen SC2 is the Z axis. The X axis passes through the origin and is perpendicular to the Y axis and the Z axis. The Y axis passes through the origin and is perpendicular to the X axis and the Z axis. The azimuth determines the direction of the line of sight from the viewpoint. The line of sight is, for example, perpendicular to the Z axis. The azimuth angle is, for example, an angle between the X axis and the line of sight. The horizontal viewing angle and height define the viewing area. The horizontal viewing angle is an angle indicating the range of the horizontal visual field centered on the direction of the line of sight. The height is the vertical length of the display range R2. Based on the azimuth angle, the horizontal viewing angle, and the height, a quadrangular pyramid indicating a viewing range in the three-dimensional virtual space is defined. This square pyramid is the view volume. A view volume refers to a range that is subject to projection transformation in a three-dimensional virtual space. Although the actual view volume is a quadrangular pyramid, a quadrangular pyramid is used for convenience of explanation. The vertex of the view volume is the viewpoint, and the line of sight passes through the center of the bottom surface of the view volume. Of the side surfaces P21 to P24 of the view volume, the angle formed by the side surface P21 and the side surface P22 parallel to the Z axis is the horizontal viewing angle. The length in the vertical direction of the surface where the view volume and the screen SC2 intersect is the height. The surface where the view volume and the screen SC2 intersect is the display range R2. The viewpoint position is determined in advance.
 図3(C)の例では、仮想スクリーンとしてスクリーンSC3が定義される。スクリーンSC3は、球状のスクリーンであり、球面に動画が表示される。スクリーンSC3には、例えば球状のパノラマ動画が表示される。スクリーンSC3上の表示範囲R3は、例えば、方位角、仰俯角、横視野角、縦視野角により規定される。方位角及び仰俯角は、視線方向を定める。三次元仮想空間において、例えば、スクリーンSC3に囲まれている範囲内に、視点が位置する。例えば、スクリーンSC3の球の中心を、視点とする。また、視点を、三次元仮想空間の座標系における原点とし、縦方向の座標軸をZ軸とする。X軸は、原点を通り、Y軸及びZ軸に垂直である。Y軸は、原点を通り、X軸及びZ軸に垂直である。方位角は、例えば、XZ平面と視線とがなす角度である。仰俯角は、例えば、XY平面と視線とがなす角度である。横視野角及び縦視野角は、視野面積を定める。横視野角は、視線の方向を中心とした横方向の視野の範囲を示す角度である。縦視野角は、視線の方向を中心とした縦方向の視野の範囲を示す角度である。XY平面上の線であって、原点を通り、視線と垂直に交わる線を、視線の縦回転軸とする。原点を通り、視線と縦回転軸とのそれぞれに垂直に交わる線を、視線の横回転軸とする。方位角、仰俯角、横視野角及び縦視野角に基づいて、三次元仮想空間における視野範囲を示す四角錐が定義される。この四角錐がビューボリュームである。ビューボリュームの頂点が視点であり、ビューボリュームの底面の中心を視線が通る。ビューボリュームの側面P31~P34のうち、Z軸と平行な側面P31と側面P32とがなす角度が横視野角である。側面P33と側面P34とがなす角度が縦視野角である。そして、ビューボリュームとスクリーンSC3とが交わる面が、表示範囲R3である。視点位置は、予め定められている。透視変換により、視点位置、視線方向及び視野面積に基づいて、仮想スクリーン上の表示範囲の三次元座標が、二次元座標に変換される。変換された二次元座標により、例えばパノラマ動画を構成する画像フレームのうちどの部分が表示範囲内にあるかを特定することができる。方位角及び仰俯角の少なくとも何れかが変化することにより、視線方向が変化すると、視線方向に応じて表示範囲R3が変化する。また、縦視野角および横視野角の少なくとも何れかが変化することにより、視野面積が変化すると、視野面積に応じて表示範囲R3は変化する。つまり、表示範囲R3は、視線方向および視野面積に応じた範囲となる。なお、スクリーンSC3は、一般に視点を完全に覆う立体であればよく、例えば、立方体等の形状をしたスクリーンであってもよい。 In the example of FIG. 3C, a screen SC3 is defined as a virtual screen. The screen SC3 is a spherical screen, and a moving image is displayed on a spherical surface. For example, a spherical panoramic video is displayed on the screen SC3. The display range R3 on the screen SC3 is defined by, for example, an azimuth angle, an elevation angle, a horizontal viewing angle, and a vertical viewing angle. The azimuth angle and the elevation angle determine the line-of-sight direction. In the three-dimensional virtual space, for example, the viewpoint is located within a range surrounded by the screen SC3. For example, the viewpoint is the center of the sphere of the screen SC3. The viewpoint is the origin in the coordinate system of the three-dimensional virtual space, and the vertical coordinate axis is the Z axis. The X axis passes through the origin and is perpendicular to the Y axis and the Z axis. The Y axis passes through the origin and is perpendicular to the X axis and the Z axis. The azimuth angle is, for example, an angle formed by the XZ plane and the line of sight. The elevation angle is, for example, an angle formed by the XY plane and the line of sight. The horizontal viewing angle and the vertical viewing angle define the viewing area. The horizontal viewing angle is an angle indicating the range of the horizontal visual field centered on the direction of the line of sight. The vertical viewing angle is an angle indicating the range of the vertical visual field around the direction of the line of sight. A line on the XY plane that passes through the origin and intersects the line of sight perpendicularly is defined as a vertical rotation axis of the line of sight. A line that passes through the origin and perpendicularly intersects the line of sight and the vertical rotation axis is defined as the horizontal rotation axis of the line of sight. Based on the azimuth angle, the elevation angle, the horizontal viewing angle, and the vertical viewing angle, a quadrangular pyramid indicating a viewing range in the three-dimensional virtual space is defined. This square pyramid is the view volume. The vertex of the view volume is the viewpoint, and the line of sight passes through the center of the bottom surface of the view volume. Of the side surfaces P31 to P34 of the view volume, the angle formed by the side surface P31 parallel to the Z axis and the side surface P32 is the horizontal viewing angle. The angle formed by the side surface P33 and the side surface P34 is the vertical viewing angle. The surface where the view volume and the screen SC3 intersect is the display range R3. The viewpoint position is determined in advance. The perspective transformation converts the three-dimensional coordinates of the display range on the virtual screen into two-dimensional coordinates based on the viewpoint position, the line-of-sight direction, and the visual field area. Based on the converted two-dimensional coordinates, for example, it is possible to specify which part of the image frame constituting the panoramic video is within the display range. When at least one of the azimuth angle and the elevation angle changes to change the viewing direction, the display range R3 changes according to the viewing direction. In addition, when at least one of the vertical viewing angle and the horizontal viewing angle changes to change the viewing area, the display range R3 changes according to the viewing area. That is, the display range R3 is a range corresponding to the line-of-sight direction and the visual field area. In general, the screen SC3 may be a solid that completely covers the viewpoint, and may be a screen having a cubic shape, for example.
 なお、スクリーンSC1~SC3のうち何れの仮想スクリーンが用いられるかは、例えば、動画データの種類に応じて、仮想スクリーンが決定されてもよい。例えば、パノラマ動画以外の動画に対しては、スクリーンSC1が決定され、円筒状のパノラマ動画に対しては、スクリーンSC2が決定され、球状のパノラマ動画に対しては、スクリーンSC3が決定されてもよい。 Note that which of the screens SC1 to SC3 is used may be determined according to the type of moving image data, for example. For example, the screen SC1 is determined for a video other than a panoramic video, the screen SC2 is determined for a cylindrical panoramic video, and the screen SC3 is determined for a spherical panoramic video. Good.
 また、制御部21は、画面に表示中の動画の上記表示範囲を示す疑似カメラワークデータを生成する。図4(A)~(C)は、制御部21により生成された疑似カメラワークデータの一例である。図4(A)は、仮想スクリーンが長方形のスクリーンSC1である場合の例を示す。図4(B)は、仮想スクリーンが円筒形のスクリーンSC2である場合の例を示す。図4(C)は、仮想スクリーンが球形のスクリーンSC3である場合の例を示す。なお、図4(A)の例において、例えば、アスペクト比が16対9のように決まっている場合、幅と高さの何れか一方が決まれば他方が決まるので、疑似カメラワークデータには幅と高さの何れか一方が含まれればよい。図4(A)~図4(C)の例では、0ミリ秒、16ミリ秒、33ミリ秒、49ミリ秒等のそれぞれの再生位置の画像フレームにおける表示範囲を示す疑似カメラワークデータを示している。なお、16ミリ秒は、ディスプレイのリフレッシュレート(60Hz)と同程度である。 In addition, the control unit 21 generates pseudo camera work data indicating the display range of the moving image being displayed on the screen. 4A to 4C are examples of pseudo camera work data generated by the control unit 21. FIG. FIG. 4A shows an example in which the virtual screen is a rectangular screen SC1. FIG. 4B shows an example in which the virtual screen is a cylindrical screen SC2. FIG. 4C shows an example in which the virtual screen is a spherical screen SC3. In the example of FIG. 4A, for example, when the aspect ratio is determined to be 16: 9, if one of the width and the height is determined, the other is determined. And any one of height may be included. In the examples of FIGS. 4A to 4C, pseudo camera work data indicating display ranges in image frames at respective reproduction positions such as 0 milliseconds, 16 milliseconds, 33 milliseconds, and 49 milliseconds are shown. ing. Note that 16 milliseconds is comparable to the display refresh rate (60 Hz).
 [2.通信システムSの動作]
 次に、本実施形態の通信システムSの動作について説明する。
[2. Operation of communication system S]
Next, the operation of the communication system S of the present embodiment will be described.
 (2-1.疑似カメラワークデータのアップロード動作)
 先ず、クライアント2においてコンテンツ再生中に疑似カメラワークデータが配信サーバ1へアップロードされる際の動作について説明する。
(2-1. Pseudo camera work data upload operation)
First, an operation when pseudo camera work data is uploaded to the distribution server 1 during content reproduction in the client 2 will be described.
 (2-1-1.クライアント2の処理)
 図5を参照して、疑似カメラワークデータのアップロード動作におけるクライアント2の処理を説明する。図5(A)は、クライアント2の制御部21におけるメイン処理を示すフローチャートである。図5(B)は、図5(A)に示すステップS4における入力処理の一例を示すフローチャートである。
(2-1-1. Processing of Client 2)
With reference to FIG. 5, the process of the client 2 in the upload operation of the pseudo camera work data will be described. FIG. 5A is a flowchart showing main processing in the control unit 21 of the client 2. FIG. 5B is a flowchart showing an example of the input process in step S4 shown in FIG.
 例えばクライアント2においてプレイヤーソフトウェアが起動すると、クライアント2はページリクエストを配信サーバ1へ送信する。そして、クライアント2は、ページリクエストに応じて配信サーバ1から送信されたWebページを受信して表示部24aにおけるディスプレイに表示する。このWebページには、例えば、コンテンツの情報が選択可能に表示される。Webページに表示されるコンテンツの情報は、配信サーバ1にアップロードされた複数のコンテンツの中の一部のコンテンツの情報である。これには、例えば、ユーザに推奨されるコンテンツの情報、またはユーザにより入力されたキーワードに基づき検索されたコンテンツの情報が該当する。コンテンツの情報には、例えば、コンテンツのタイトル等の情報が含まれる。 For example, when the player software is activated in the client 2, the client 2 transmits a page request to the distribution server 1. Then, the client 2 receives the Web page transmitted from the distribution server 1 in response to the page request and displays it on the display in the display unit 24a. On this Web page, for example, content information is displayed in a selectable manner. The content information displayed on the Web page is information on a part of the plurality of content uploaded to the distribution server 1. This corresponds to, for example, content information recommended for the user or content information searched based on a keyword input by the user. The content information includes, for example, information such as the content title.
 そして、ユーザが操作部25aを操作して再生対象のコンテンツの情報を選択すると、図5(A)に示すメイン処理を開始する。メイン処理が開始されると、制御部21は、ワークファイルを初期化し、選択されたコンテンツの再生を開始する(ステップS1)。これにより、配信サーバ1からストリーミング配信されたコンテンツに含まれる動画データにより再生された動画がディスプレイのメイン画面に表示される。ワークファイルは、疑似カメラワークデータをアップロードするためのファイルである。ワークファイルは、記憶部22に予め記憶される。ワークファイルの初期化により、再生が開始されたコンテンツのタイトルがワークファイルに設定される。ワークファイルには、コンテンツIDが設定されてもよい。 When the user operates the operation unit 25a to select content information to be played back, the main process shown in FIG. 5A is started. When the main process is started, the control unit 21 initializes the work file and starts playing the selected content (step S1). Thereby, the moving image reproduced by the moving image data included in the content streamed from the distribution server 1 is displayed on the main screen of the display. The work file is a file for uploading pseudo camera work data. The work file is stored in the storage unit 22 in advance. With the initialization of the work file, the title of the content that has been played back is set in the work file. A content ID may be set in the work file.
 なお、図5(A)の例では、メイン画面に表示された動画に対する疑似カメラワークの操作入力は「手動」に設定されているものとする。これにより、メイン画面に表示される動画の表示範囲は、例えば配信サーバ1から取得される疑似カメラワークデータに依らず、ユーザの疑似カメラワークの操作により変化することになる。 In the example of FIG. 5A, it is assumed that the operation input of the pseudo camera work for the moving image displayed on the main screen is set to “manual”. Thereby, the display range of the moving image displayed on the main screen does not depend on, for example, the pseudo camera work data acquired from the distribution server 1 and is changed by the user's pseudo camera work operation.
 次いで、制御部21は、現在の再生位置における動画の表示範囲を示す疑似カメラワークデータをワークファイルに格納する(ステップS2)。次いで、制御部21は、現在の再生位置に対してユーザによるシーン情報の入力があるか否かを判定する(ステップS3)。 Next, the control unit 21 stores pseudo camera work data indicating the moving image display range at the current reproduction position in the work file (step S2). Next, the control unit 21 determines whether or not there is scene information input by the user at the current playback position (step S3).
 図5(C),(D)は、シーン情報を入力するための画面例を示す図である。図5(C)に示す画面には、再生された動画が表示されていると共に、表示中の動画のシーンに表れる複数の人物それぞれに対応するボタンが選択可能に表示されている。この人物は、例えば歌手であり、被写体の一例である。これらのボタンは、シーン情報を入力するためのボタン(以下、「シーン情報入力ボタン」という)である。各シーン情報入力ボタンは、例えばコンテンツ再生中に、ユーザから操作部25aを介してシーン情報入力ボタンの表示指示があった場合に表示される。各シーン情報入力ボタンには、それぞれ、人物を識別するID(識別情報)が対応付けられている。この対応付けは、例えば配信サーバ1側でコンテンツ生成時に行われる。なお、図5(C)の例では、人物を識別するIDがシーン情報入力ボタンに対応付けられている。しかし、人物以外の動物や建物等の被写体が表示される動画である場合、これらの被写体を識別するIDがシーン情報入力ボタンに対応付けられる。一方、図5(D)に示す画面には、再生された動画が表示されていると共に、文字列等のテキスト情報を入力するためのテキスト入力欄が表示されている。テキスト入力欄は、例えばコンテンツ再生中に、ユーザから操作部25aを介してテキスト入力欄の表示指示があった場合に表示される。 FIGS. 5C and 5D are diagrams showing examples of screens for inputting scene information. On the screen shown in FIG. 5C, a reproduced moving image is displayed, and buttons corresponding to a plurality of persons appearing in the scene of the moving image being displayed are displayed so as to be selectable. This person is a singer, for example, and is an example of a subject. These buttons are buttons for inputting scene information (hereinafter referred to as “scene information input buttons”). Each scene information input button is displayed, for example, when the user gives an instruction to display the scene information input button via the operation unit 25a during content reproduction. Each scene information input button is associated with an ID (identification information) for identifying a person. This association is performed, for example, when content is generated on the distribution server 1 side. In the example of FIG. 5C, an ID for identifying a person is associated with the scene information input button. However, in the case of a moving image in which subjects such as animals other than people or buildings are displayed, IDs for identifying these subjects are associated with the scene information input buttons. On the other hand, on the screen shown in FIG. 5D, a reproduced moving image is displayed and a text input field for inputting text information such as a character string is displayed. The text input field is displayed, for example, when the user gives an instruction to display the text input field via the operation unit 25a during content reproduction.
 例えば、図5(C)に示す画面の表示状態で、ユーザが好きな人物に対応するシーン情報入力ボタンを選択すると、制御部21は、シーン情報の入力があると判定し(ステップS3:YES)、ステップS4の入力処理へ進む。シーン情報入力ボタンの選択は、例えばマウスによりシーン情報入力ボタンをクリック、または指やペン等でシーン情報入力ボタンをタップすることにより行われる。また、例えば、図5(D)に示す画面の表示状態で、ユーザがテキスト入力欄を指定すると、制御部21は、シーン情報の入力があると判定し(ステップS3:YES)、ステップS4の入力処理へ進む。テキスト入力欄の指定は、例えばマウスによりテキスト入力欄をクリック、または指やペン等でテキスト入力欄をタップすることにより行われる。一方、ユーザによるシーン情報の入力がないと判定された場合(ステップS3:NO)、ステップS6へ進む。 For example, in the display state of the screen shown in FIG. 5C, when the scene information input button corresponding to the person the user likes is selected, the control unit 21 determines that there is scene information input (step S3: YES). ), The process proceeds to the input process of step S4. The selection of the scene information input button is performed, for example, by clicking the scene information input button with a mouse or tapping the scene information input button with a finger or a pen. Further, for example, when the user designates a text input field in the display state of the screen shown in FIG. 5D, the control unit 21 determines that there is an input of scene information (step S3: YES), and in step S4 Proceed to input processing. The designation of the text input field is performed, for example, by clicking the text input field with the mouse or tapping the text input field with a finger or a pen. On the other hand, if it is determined that no scene information is input by the user (step S3: NO), the process proceeds to step S6.
 ステップS4の入力処理では、図5(B)に示すように、制御部21は、シーン情報の入力がシーン情報入力ボタンによる「ID入力」であるか否かを判定する。例えば、図5(C)に示す画面の表示状態でシーン情報入力ボタンが選択された場合、シーン情報入力ボタンによる「ID入力」であると判定され(ステップS41:YES)、ステップS42へ進む。一方、例えば、図5(D)に示す画面の表示状態でテキスト入力欄が指定された場合、シーン情報入力ボタンによる「ID入力」でないと判定され(ステップS41:NO)、ステップS43へ進む。 In the input process of step S4, as shown in FIG. 5B, the control unit 21 determines whether or not the input of the scene information is “ID input” by the scene information input button. For example, when the scene information input button is selected in the display state of the screen shown in FIG. 5C, it is determined that “ID input” is made by the scene information input button (step S41: YES), and the process proceeds to step S42. On the other hand, for example, when the text input field is designated in the display state of the screen shown in FIG. 5D, it is determined that it is not “ID input” by the scene information input button (step S41: NO), and the process proceeds to step S43.
 ステップS42では、制御部21は、選択されたシーン情報入力ボタンに対応するIDをシーン情報として記憶し、且つ、このシーン情報入力ボタンが選択された時の動画の再生位置を示す再生位置情報をシーン情報に対応付けて記憶する。一方、ステップS43では、制御部21は、テキスト入力と判断して、ユーザが例えばキーボード等から最初の1文字目を入力した時の動画の再生位置を示す再生位置情報を記憶する。なお、最初の1文字目を入力した時の動画の再生位置でなく、2文字目からテキスト入力完了までの間の何れかの時点における動画の再生位置を示す再生位置情報が記憶されるように構成してもよい。そして、制御部21は、ユーザによりテキスト入力欄に入力されたテキスト情報をシーン情報として、ステップS43で記憶された再生位置情報に対応付けて記憶する(ステップS44)。 In step S42, the control unit 21 stores the ID corresponding to the selected scene information input button as scene information, and displays reproduction position information indicating the reproduction position of the moving image when the scene information input button is selected. It is stored in association with the scene information. On the other hand, in step S43, the control unit 21 determines that the input is text, and stores playback position information indicating the playback position of the moving image when the user inputs the first character from, for example, a keyboard. It should be noted that the playback position information indicating the playback position of the moving image at any point in time from the second character to the completion of text input is stored instead of the playback position of the moving image when the first first character is input. It may be configured. Then, the control unit 21 stores the text information input in the text input field by the user as scene information in association with the reproduction position information stored in step S43 (step S44).
 図5(A)に示す処理に戻り、ステップS5では、制御部21は、図5(B)の処理で記憶されたシーン情報と再生位置情報とを、ステップS2で格納された疑似カメラワークデータに対応付けてワークファイルに格納する。これにより、疑似カメラワークデータにはシーン情報と再生位置情報とが付与される。次いで、制御部21は、ユーザによる疑似カメラワークデータのアップロード指示があるか否かを判定する(ステップS6)。アップロード指示があったと判定された場合(ステップS6:YES)、ステップS7へ進む。一方、アップロード指示がないと判定された場合(ステップS6:NO)、ステップS9へ進む。 Returning to the processing shown in FIG. 5A, in step S5, the control unit 21 uses the pseudo camera work data stored in step S2 to store the scene information and the reproduction position information stored in the processing in FIG. 5B. Store in a work file in association with. Thereby, scene information and reproduction position information are added to the pseudo camera work data. Next, the control unit 21 determines whether or not there is an instruction to upload pseudo camera work data by the user (step S6). When it is determined that there is an upload instruction (step S6: YES), the process proceeds to step S7. On the other hand, when it is determined that there is no upload instruction (step S6: NO), the process proceeds to step S9.
 ステップS7では、制御部21は、少なくとも、疑似カメラワークデータが格納されたワークファイルをネットワークNWを介して配信サーバ1へ送信する。これにより、動画の再生開始から再生終了までの一部分の疑似カメラワークデータがアップロードされる。次いで、制御部21は、ワークファイルの内容をクリアし(ステップS8)、ステップS2に戻る。これにより、空のワークファイルが記憶部22に残る。 In step S7, the control unit 21 transmits at least a work file storing pseudo camera work data to the distribution server 1 via the network NW. Thereby, a part of the pseudo camera work data from the start to the end of the playback of the moving image is uploaded. Next, the control unit 21 clears the contents of the work file (step S8) and returns to step S2. As a result, an empty work file remains in the storage unit 22.
 ステップS9では、制御部21は、コンテンツの終了位置まで再生したか否かを判定する。コンテンツの終了位置まで再生していないと判定された場合(ステップS9:NO)、ステップS2に戻り、上記処理を繰り返す。一方、コンテンツの終了位置まで再生したと判定された場合(ステップS9:YES)、ステップS10へ進む。 In step S9, the control unit 21 determines whether or not the content has been played to the end position of the content. If it is determined that the content has not been played back to the end position (step S9: NO), the process returns to step S2 and the above process is repeated. On the other hand, when it is determined that the content has been played to the end position (step S9: YES), the process proceeds to step S10.
 ステップS10では、制御部21は、疑似カメラワークデータをアップロードするかをユーザに問い合わせるメッセージとともにアップロードボタンを画面に表示する。次いで、制御部21は、ユーザによる疑似カメラワークデータのアップロード指示があるか否かを判定する(ステップS11)。例えば、ユーザがアップロードボタンを選択すると、制御部21は、アップロード指示があったと判定し(ステップS11:YES)、ステップS12へ進む。一方、アップロード指示がないと判定された場合(ステップS11:NO)、図5(A)に示す処理を終了する。ステップS12では、少なくとも疑似カメラワークデータが格納されたワークファイルをネットワークNWを介して配信サーバ1へ送信し、図5(A)に示す処理を終了する。 In step S10, the control unit 21 displays an upload button on the screen together with a message asking the user whether to upload the pseudo camera work data. Next, the control unit 21 determines whether there is an instruction to upload pseudo camera work data from the user (step S11). For example, when the user selects the upload button, the control unit 21 determines that there is an upload instruction (step S11: YES), and proceeds to step S12. On the other hand, when it is determined that there is no upload instruction (step S11: NO), the processing shown in FIG. In step S12, the work file storing at least the pseudo camera work data is transmitted to the distribution server 1 via the network NW, and the process shown in FIG.
(2-1-2.配信サーバ1の処理)
 図6を参照して、疑似カメラワークデータのアップロード動作における配信サーバ1の処理を説明する。図6は、配信サーバ1の制御部11における処理を示すフローチャートである。図6に示す処理は、配信サーバ1がクライアント2からワークファイルを受信した場合に開始される。図6に示す処理が開始されると、制御部11は、受信されたワークファイルをワークファイル記憶領域31cに記憶する(ステップS101)。次いで、制御部11は、受信されたワークファイルに設定されたコンテンツのタイトルからコンテンツの動画データを動画データ記憶領域31aから特定する(ステップS102)。
(2-1-2. Processing of Distribution Server 1)
With reference to FIG. 6, the process of the delivery server 1 in the upload operation of the pseudo camera work data will be described. FIG. 6 is a flowchart showing processing in the control unit 11 of the distribution server 1. The process shown in FIG. 6 is started when the distribution server 1 receives a work file from the client 2. When the process shown in FIG. 6 is started, the control unit 11 stores the received work file in the work file storage area 31c (step S101). Next, the control unit 11 specifies the moving image data of the content from the moving image data storage area 31a from the content title set in the received work file (step S102).
 次いで、制御部11は、受信されたワークファイルに格納された疑似カメラワークデータの中で、シーン情報及び再生位置情報が付与されている疑似カメラワークデータを特定する(ステップS103)。次いで、制御部11は、ステップS102で特定された動画データを構成する動画ブロックに対応付けられた座標位置及び再生位置と、特定した疑似カメラワークデータが示す表示範囲及び疑似カメラワークデータに付与された再生位置情報とに基づいて、1以上の動画ブロックを特定する(ステップS104)。例えば、動画データを構成する複数の動画ブロックの中から、特定された疑似カメラワークデータが示す表示範囲に上記座標位置が含まれ、且つ、特定された疑似カメラワークデータに付与された再生位置情報が示す再生位置における画像フレームの一部が含まれる動画ブロックが特定される。 Next, the control unit 11 specifies the pseudo camera work data to which the scene information and the reproduction position information are given from the pseudo camera work data stored in the received work file (step S103). Next, the control unit 11 is assigned to the coordinate position and reproduction position associated with the moving image block constituting the moving image data identified in step S102, the display range indicated by the identified pseudo camera work data, and the pseudo camera work data. Based on the playback position information, one or more moving image blocks are specified (step S104). For example, the reproduction position information given to the specified pseudo camera work data in which the coordinate position is included in the display range indicated by the specified pseudo camera work data among the plurality of video blocks constituting the moving picture data A moving image block including a part of the image frame at the reproduction position indicated by is identified.
 次いで、制御部11は、ステップS103で特定された疑似カメラワークデータに付与されたシーン情報中にテキスト情報が含まれているか否かを判定する(ステップS105)。シーン情報中にテキスト情報が含まれていると判定された場合(ステップS105:YES)、ステップS106へ進む。一方、シーン情報中にテキスト情報が含まれていないと判定された場合(ステップS105:NO)、ステップS108へ進む。この場合、シーン情報中には、例えば、人物を識別するIDが含まれていることになる。 Next, the control unit 11 determines whether or not text information is included in the scene information given to the pseudo camera work data specified in step S103 (step S105). When it is determined that text information is included in the scene information (step S105: YES), the process proceeds to step S106. On the other hand, when it is determined that the text information is not included in the scene information (step S105: NO), the process proceeds to step S108. In this case, for example, an ID for identifying a person is included in the scene information.
 ステップS106では、制御部11は、シーン情報中に含まれるテキスト情報を構文解析して単語情報を取り出す。これにより、例えばテキスト情報が例えば文章であった場合、文章中からワード(単語)が1以上取り出される。次いで、制御部11は、例えば予め記憶されたキーワード辞書を用いて、ステップS106で取り出された単語情報の中からキーワードを、登録対象となるシーン情報として抽出する(ステップS107)。 In step S106, the control unit 11 parses text information included in the scene information and extracts word information. Thereby, for example, when the text information is a sentence, one or more words (words) are extracted from the sentence. Next, the control unit 11 extracts a keyword from the word information extracted in step S106 as scene information to be registered using, for example, a keyword dictionary stored in advance (step S107).
 ステップS108では、制御部11は、疑似カメラワークデータに付与されたシーン情報またはステップS107で抽出されたシーン情報と同一又は類似するシーン情報が、ステップS104で特定された動画ブロックに既に対応付けられてシーン情報データベースに登録されているか否かを判定する。ここで、このシーン情報データベースは、ステップS102で特定された動画データに対応するシーン情報データベースである。シーン情報データベースは、ステップS108の処理前にシーン情報記憶領域31dから特定される。また、類似するシーン情報であるか否かの判定は、例えば予め記憶された同義語辞書又は類義語辞書が用いられて判定される。例えばステップS107で抽出されたシーン情報と同義語又は類義語の関係にあるシーン情報は、類似するシーン情報として判定される。そして、ステップS104で特定された動画ブロックに既に対応付けられてシーン情報データベースに登録されていないと判定された場合(ステップS108:NO)、ステップS109へ進む。一方、ステップS104で特定された動画ブロックに既に対応付けられてシーン情報データベースに登録されていると判定された場合(ステップS108:YES)、ステップS110へ進む。 In step S108, the control unit 11 already associates the scene information given to the pseudo camera work data or the scene information that is the same as or similar to the scene information extracted in step S107 with the moving image block specified in step S104. And whether it is registered in the scene information database. Here, this scene information database is a scene information database corresponding to the moving image data specified in step S102. The scene information database is specified from the scene information storage area 31d before the process of step S108. Further, whether or not the scene information is similar is determined by using, for example, a previously stored synonym dictionary or synonym dictionary. For example, scene information that is synonymous or synonymous with the scene information extracted in step S107 is determined as similar scene information. If it is determined that the moving image block identified in step S104 is already associated with the moving image block and is not registered in the scene information database (step S108: NO), the process proceeds to step S109. On the other hand, if it is determined that it is already associated with the moving image block specified in step S104 and registered in the scene information database (step S108: YES), the process proceeds to step S110.
 ステップS109では、制御部11は、疑似カメラワークデータに付与されたシーン情報またはステップS107で抽出されたシーン情報を、ステップS104で特定された動画ブロックに対応付けてシーン情報データベースに登録し、図6に示す処理を終了する。このように、ユーザにより入力されたシーン情報が、このシーン情報に対応するシーンが表示される動画ブロックに対応付けられてシーン情報データベースに登録される。そのため、複数のユーザの嗜好が反映されたシーン情報データベースを効率良く生成することができる。ステップS110では、制御部11は、ステップS104で特定された動画ブロックに対応付けて登録されているシーン情報の投稿回数を1インクリメントし、図6に示す処理を終了する。つまり、ステップS104で特定された動画ブロックに対応付けられた投稿回数に「1」が加算されてシーン情報データベースに更新登録される。このように、ユーザにより入力されたシーン情報の投稿回数が、このシーン情報に対応するシーンが表示される動画ブロックに対応付けられてシーン情報データベースに登録される。そのため、シーン情報が、ユーザから、より多く投稿されている注目度の高いシーンが表示される動画ブロックは、どの動画ブロックであるかを判定可能なシーン情報データベースを効率良く生成することができる。 In step S109, the control unit 11 registers the scene information added to the pseudo camera work data or the scene information extracted in step S107 in the scene information database in association with the moving image block specified in step S104. The process shown in FIG. As described above, the scene information input by the user is registered in the scene information database in association with the moving image block in which the scene corresponding to the scene information is displayed. Therefore, it is possible to efficiently generate a scene information database that reflects the preferences of a plurality of users. In step S110, the control unit 11 increments the posting number of the scene information registered in association with the moving image block specified in step S104 by 1, and ends the process shown in FIG. That is, “1” is added to the number of postings associated with the moving image block identified in step S104 and is updated and registered in the scene information database. As described above, the posting number of the scene information input by the user is registered in the scene information database in association with the moving image block in which the scene corresponding to the scene information is displayed. Therefore, it is possible to efficiently generate a scene information database that can determine which moving image block is a moving image block in which a scene with a high degree of attention posted with more scene information from the user is displayed.
 (2-2.疑似カメラワークデータのリクエスト動作)
 次に、クライアント2から配信サーバ1へ疑似カメラワークデータがリクエストされる際の動作について説明する。
(2-2. Pseudo camera work data request operation)
Next, the operation when pseudo camera work data is requested from the client 2 to the distribution server 1 will be described.
 (2-2-1.クライアント2の処理)
 図7を参照して、疑似カメラワークデータのリクエスト動作におけるクライアント2の処理を説明する。図7(A)は、クライアント2の制御部21における処理を示すフローチャートである。
(2-2-1. Processing of Client 2)
With reference to FIG. 7, the processing of the client 2 in the request operation for pseudo camera work data will be described. FIG. 7A is a flowchart showing processing in the control unit 21 of the client 2.
 図7(A)に示す処理は、例えば、プレイヤーソフトウェアの実行中に、ユーザから操作部25aを介して疑似カメラワークデータの検索指示があった場合に開始される。図7(A)に示す処理が開始されると、制御部21は、ユーザによる検索キーの入力があるか否かを判定する(ステップS21)。検索キーは、例えば、ユーザが好きな人物が表れるシーンを検索するためのキーである。検索キーは、動画の部分領域の検索に用いられる第1の検索情報の一例である。 The processing shown in FIG. 7A is started, for example, when the user gives a search instruction for pseudo camera work data via the operation unit 25a during execution of the player software. When the process shown in FIG. 7A is started, the control unit 21 determines whether or not there is a search key input by the user (step S21). The search key is, for example, a key for searching for a scene in which a user likes a person. The search key is an example of first search information used for searching a partial area of a moving image.
 図7(B),(C)は、検索キーを入力するための画面例を示す図である。図7(B)に示す画面には、再生された動画が表示されていると共に、表示中の動画のシーンに表れる複数の人物それぞれに対応するボタンが選択可能に表示されている。これらのボタンは、検索キーを入力するためのボタン(以下、「検索キー入力ボタン」という)である。各検索キー入力ボタンは、例えばコンテンツ再生中に、ユーザから操作部25aを介して検索キー入力ボタンの表示指示があった場合に表示される。各検索キー入力ボタンには、図5(C)に示すシーン情報入力ボタンと同様、人物を識別するIDが対応付けられている。一方、図7(C)に示す画面には、再生された動画が表示されていると共に、検索キーワードを含むテキスト情報を入力するための検索キーワード入力欄が表示されている。検索キーワード入力欄は、例えばコンテンツ再生中に、ユーザから操作部25aを介して検索キーワード入力欄の表示指示があった場合に表示される。 FIGS. 7B and 7C are diagrams showing examples of screens for inputting a search key. On the screen shown in FIG. 7B, a reproduced moving image is displayed, and buttons corresponding to a plurality of persons appearing in the scene of the moving image being displayed are selectable. These buttons are buttons for inputting search keys (hereinafter referred to as “search key input buttons”). Each search key input button is displayed, for example, when the user gives an instruction to display the search key input button via the operation unit 25a during content reproduction. Each search key input button is associated with an ID for identifying a person, like the scene information input button shown in FIG. On the other hand, on the screen shown in FIG. 7C, a reproduced moving image is displayed and a search keyword input field for inputting text information including the search keyword is displayed. The search keyword input field is displayed, for example, when the user gives an instruction to display the search keyword input field via the operation unit 25a during content reproduction.
 例えば、図7(B)に示す画面の表示状態で、ユーザが好きな人物に対応する検索キー入力ボタンを選択すると、制御部21は、ユーザによる検索キーの入力があると判定し(ステップS21:YES)、ステップS22へ進む。検索キー入力ボタンの選択方法は、シーン情報入力ボタンと同様である。また、例えば、図7(C)に示す画面の表示状態で、ユーザが検索キーワード入力欄を指定すると、制御部21は、ユーザによる検索キーの入力と判定し(ステップS21:YES)、ステップS22へ進む。検索キーワード入力欄の指定方法は、テキスト入力欄と同様である。一方、ユーザによる検索キーの入力がないと判定された場合(ステップS21:NO)、ステップS28へ進む。 For example, when the search key input button corresponding to the person the user likes is selected in the display state of the screen shown in FIG. 7B, the control unit 21 determines that there is a search key input by the user (step S21). : YES), the process proceeds to step S22. The selection method of the search key input button is the same as that of the scene information input button. Further, for example, when the user designates a search keyword input field in the display state of the screen shown in FIG. 7C, the control unit 21 determines that the search key is input by the user (step S21: YES), and step S22. Proceed to The method for specifying the search keyword input field is the same as that for the text input field. On the other hand, if it is determined that the user has not entered a search key (step S21: NO), the process proceeds to step S28.
 ステップS22では、制御部21は、検索キーの入力が検索キー入力ボタンによる「ID入力」であるか否かを判定する。例えば、図7(B)に示す画面の表示状態で検索キー入力ボタンが選択された場合、検索キー入力ボタンによる「ID入力」であると判定され(ステップS22:YES)、ステップS23進む。一方、例えば、図7(C)に示す画面の表示状態で検索キーワード入力欄が指定された場合、検索キー入力ボタンによる「ID入力」でないと判定され(ステップS22:NO)、ステップS24へ進む。 In step S22, the control unit 21 determines whether or not the input of the search key is “ID input” by the search key input button. For example, when the search key input button is selected in the display state of the screen shown in FIG. 7B, it is determined that “ID input” is made by the search key input button (step S22: YES), and the process proceeds to step S23. On the other hand, for example, when the search keyword input field is specified in the display state of the screen shown in FIG. 7C, it is determined that it is not “ID input” by the search key input button (step S22: NO), and the process proceeds to step S24. .
 ステップS23では、制御部21は、選択された検索キー入力ボタンに対応するIDを検索キーとして記憶する。ここで、検索キー入力ボタンが選択された時の動画の再生位置を示す再生位置情報を検索キーに対応付けて記憶するように構成してもよい。ステップS24では、制御部21は、ユーザにより検索キーワード入力欄に入力されたテキスト情報を検索キーとして記憶する。ここで、ユーザが例えばキーボード等から最初の1文字目を入力した時の動画の再生位置を示す再生位置情報を検索キーに対応付けて記憶するように構成してもよい。なお、最初の1文字目を入力した時の動画の再生位置でなく、2文字目からテキスト入力完了までの間の何れかの時点における動画の再生位置を示す再生位置情報が記憶されるように構成してもよい。 In step S23, the control unit 21 stores the ID corresponding to the selected search key input button as a search key. Here, the reproduction position information indicating the reproduction position of the moving image when the search key input button is selected may be stored in association with the search key. In step S24, the control unit 21 stores the text information input in the search keyword input field by the user as a search key. Here, for example, playback position information indicating the playback position of the moving image when the user inputs the first character from a keyboard or the like may be stored in association with the search key. It should be noted that the playback position information indicating the playback position of the moving image at any point in time from the second character to the completion of text input is stored instead of the playback position of the moving image when the first first character is input. It may be configured.
 次いで、制御部21は、疑似カメラワークデータのリクエストを、ネットワークNWを介して配信サーバ1へ送信する(ステップS25)。このリクエストは、疑似カメラワークデータの要求である。疑似カメラワークデータのリクエストには、例えばユーザにより選択されたコンテンツのタイトル、及びステップS23またはステップS24で記憶された検索キーが含まれる。疑似カメラワークデータのリクエストには、コンテンツの識別するコンテンツIDが含まれてもよい。また、疑似カメラワークデータのリクエストには、検索キーに対応付けられた再生位置情報が含まれるように構成してもよい。そして、制御部21は、疑似カメラワークデータのリクエストに応じて配信サーバ1から送信されたワークファイルを受信する(ステップS26)。次いで、制御部21は、受信したワークファイルに格納された疑似カメラワークデータに従って、メイン画面とは異なるサブ画面に動画を表示させる(ステップS27)。ここで、配信サーバ1から複数のワークファイルが受信される場合がある。この場合、サブ画面は、サムネイル画面として複数表示される。このサムネイル画面により、疑似カメラワークデータの一覧を表示することができる。 Next, the control unit 21 transmits a request for pseudo camera work data to the distribution server 1 via the network NW (step S25). This request is a request for pseudo camera work data. The request for pseudo camera work data includes, for example, the title of the content selected by the user and the search key stored in step S23 or step S24. The request for pseudo camera work data may include a content ID for identifying the content. Further, the request for pseudo camera work data may be configured to include reproduction position information associated with the search key. And the control part 21 receives the work file transmitted from the delivery server 1 according to the request | requirement of pseudo camera work data (step S26). Next, the control unit 21 displays a moving image on a sub-screen different from the main screen according to the pseudo camera work data stored in the received work file (step S27). Here, a plurality of work files may be received from the distribution server 1. In this case, a plurality of sub screens are displayed as thumbnail screens. With this thumbnail screen, a list of pseudo camera work data can be displayed.
 図7(D)は、メイン画面MVとサブ画面SV1~SV5の一例を示す図である。図7(D)の例では、サブ画面SV1~SV5には、配信サーバ1から受信されたそれぞれの疑似カメラワークデータに従って、動画が表示されている。受信された疑似カメラワークデータが示す表示範囲には、上述した検索キーに基づいて検索された動画ブロックに含まれるシーンが含まれる。また、サブ画面SV1~SV5に表示されている動画の再生位置は同一になっている。つまり、サブ画面SV1~SV5に表示されている画像フレームは同一であるが、この画像フレームにおける表示範囲が互いに異なっている。これは、例えば仮想カメラのアングルや視界の広さなどが異なることを意味する。ユーザは、サブ画面SV1~SV5に表示された動画により、ユーザは、コンテンツ再生中に見たいシーンを見ることができる。なお、サブ画面SV1~SV5に表示中の何れかの動画が、ユーザにより選択指示された場合、メイン画面MVに表示中の動画が、選択指示された動画に切換えられる。 FIG. 7D is a diagram showing an example of the main screen MV and the sub screens SV1 to SV5. In the example of FIG. 7D, moving images are displayed on the sub screens SV1 to SV5 according to the respective pseudo camera work data received from the distribution server 1. The display range indicated by the received pseudo camera work data includes scenes included in the moving image block searched based on the search key described above. Further, the playback positions of the moving images displayed on the sub screens SV1 to SV5 are the same. That is, the image frames displayed on the sub screens SV1 to SV5 are the same, but the display ranges in the image frames are different from each other. This means that, for example, the angle of the virtual camera and the field of view are different. The user can see the scene he / she wants to see during the content reproduction by the moving images displayed on the sub-screens SV1 to SV5. When any of the moving images displayed on the sub screens SV1 to SV5 is instructed to be selected by the user, the moving image being displayed on the main screen MV is switched to the selected moving image.
 ステップS28では、例えばユーザからプレイヤーの終了指示があるか否かを判定する。プレイヤーの終了指示があったと判定された場合(ステップS28:YES)、図7(A)に示す処理は終了する。一方、プレイヤーの終了指示がないと判定された場合(ステップS28:NO)、ステップS21に戻り、上記処理を継続する。 In step S28, for example, it is determined whether or not there is a player termination instruction from the user. If it is determined that the player has instructed to end (step S28: YES), the processing shown in FIG. 7A ends. On the other hand, if it is determined that there is no instruction to end the player (step S28: NO), the process returns to step S21 and the above process is continued.
 (2-2-2.配信サーバ1の処理)
 図8を参照して、疑似カメラワークデータのリクエスト動作における配信サーバ1の処理を説明する。図8は、配信サーバ1の制御部11における処理を示すフローチャートである。図8に示す処理は、配信サーバ1がクライアント2から疑似カメラワークデータのリクエストを受信した場合に開始される。図8に示す処理が開始されると、制御部11は、受信されたリクエストから検索キーを取得する(ステップS111)。ここで、リクエストには、文章から構成されたテキスト情報が含まれる場合がある。この場合、制御部11は、テキスト情報を構文解析することで文章中から検索キーとして検索キーワードを取得する。また、リクエストには、再生位置情報が含まれる場合がある。この場合、制御部11は、リクエストから検索キー及び再生位置情報を取得する。
(2-2-2. Processing of Distribution Server 1)
With reference to FIG. 8, the processing of the distribution server 1 in the request operation for pseudo camera work data will be described. FIG. 8 is a flowchart showing processing in the control unit 11 of the distribution server 1. The process illustrated in FIG. 8 is started when the distribution server 1 receives a request for pseudo camera work data from the client 2. When the process illustrated in FIG. 8 is started, the control unit 11 acquires a search key from the received request (step S111). Here, the request may include text information composed of sentences. In this case, the control unit 11 acquires a search keyword as a search key from the sentence by parsing the text information. The request may include playback position information. In this case, the control unit 11 acquires a search key and reproduction position information from the request.
 次いで、制御部11は、リクエストに含まれるコンテンツのタイトルまたはコンテンツIDに対応付けられたシーン情報データベースをシーン情報記憶領域31dから特定する(ステップS112)。次いで、制御部11は、ステップS111で取得された検索キーと、ステップS112で特定されたシーン情報データベースに登録されたシーン情報とに基づいて、検索キーに対応するシーン情報が対応付けられた動画ブロックをシーン情報データベースから検索する(ステップS113)。ここで、検索キーに対応するシーン情報とは、検索キーと一致するシーン情報である。また、検索キーが複数ある場合、検索キーに対応するシーン情報とは、全ての検索キーを含むシーン情報である。なお、ステップS111で再生位置情報が取得される場合がある。この場合、制御部11は、シーン情報データベースを参照して、取得された再生位置情報が示す再生位置の画像フレームにおける動画ブロックの中から、検索キーに対応するシーン情報が対応付けられた動画ブロックを検索する。 Next, the control unit 11 specifies the scene information database associated with the title or content ID of the content included in the request from the scene information storage area 31d (step S112). Next, the control unit 11, based on the search key acquired in step S <b> 111 and the scene information registered in the scene information database specified in step S <b> 112, a moving image in which scene information corresponding to the search key is associated. A block is searched from the scene information database (step S113). Here, the scene information corresponding to the search key is scene information that matches the search key. When there are a plurality of search keys, the scene information corresponding to the search key is scene information including all the search keys. Note that playback position information may be acquired in step S111. In this case, the control unit 11 refers to the scene information database, and from among the video blocks in the image frame at the playback position indicated by the acquired playback position information, the video block associated with the scene information corresponding to the search key Search for.
 次いで、制御部11は、ステップS113の検索結果、動画ブロックが検索されたか否かを判定する(ステップS114)。そして、動画ブロックが検索されないと判定された場合(ステップS114:NO)、ステップS115へ進む。ステップS115では、制御部11は、検索対象のシーンが存在しないことを示す情報をクライアント2へ通知し、図8に示す処理を終了する。一方、動画ブロックが検索されたと判定された場合(ステップS114:YES)、ステップS116へ進む。 Next, the control unit 11 determines whether or not a moving image block has been searched as a result of the search in step S113 (step S114). And when it determines with a moving image block not being searched (step S114: NO), it progresses to step S115. In step S115, the control unit 11 notifies the client 2 of information indicating that there is no scene to be searched, and ends the process illustrated in FIG. On the other hand, when it is determined that a moving image block has been searched (step S114: YES), the process proceeds to step S116.
 ステップS116では、制御部11は、ステップS113で検索された動画ブロックを、検索対象のシーンを含む動画ブロックとして決定する。例えば、検索キーが示す人物等の被写体が表れる動画ブロックを含むシーンが決定される。次いで、制御部11は、ステップS116で決定された動画ブロックが含まれる表示範囲を示す疑似カメラワークデータをワークファイル記憶領域31cから取得する(ステップS117)。つまり、ステップS116で決定された動画ブロックを通過する疑似カメラワークデータが取得される。 In step S116, the control unit 11 determines the moving image block searched in step S113 as a moving image block including a scene to be searched. For example, a scene including a moving image block in which a subject such as a person indicated by the search key appears is determined. Next, the control unit 11 acquires pseudo camera work data indicating the display range including the moving image block determined in step S116 from the work file storage area 31c (step S117). That is, pseudo camera work data that passes through the moving image block determined in step S116 is acquired.
 次いで、制御部11は、ステップS117で取得された疑似カメラワークデータが所定数以上あるか否かを判定する(ステップS118)。ここで、所定数は、例えばクライアント2におけるサブ画面の数に設定される。そして、ステップS117で取得された疑似カメラワークデータが所定数以上ないと判定された場合(ステップS118:NO)、ステップS119へ進む。一方、ステップS117で取得された疑似カメラワークデータが所定数以上あると判定された場合(ステップS118:YES)、ステップS120へ進む。 Next, the control unit 11 determines whether or not there is a predetermined number or more of the pseudo camera work data acquired in Step S117 (Step S118). Here, the predetermined number is set to the number of sub-screens in the client 2, for example. And when it determines with the pseudo camera work data acquired by step S117 not being more than predetermined number (step S118: NO), it progresses to step S119. On the other hand, when it is determined that there is a predetermined number or more of the pseudo camera work data acquired in step S117 (step S118: YES), the process proceeds to step S120.
 ステップS119では、制御部11は、ステップS117で取得された疑似カメラワークデータを、クライアント2のユーザへ提供する疑似カメラワークデータとして決定する。ステップS120では、制御部11は、ステップS116で決定された動画ブロックに対応付けられたシーン情報の投稿回数に基づいて、ステップS117で取得された疑似カメラワークデータを順位付けする。例えば、制御部11は、疑似カメラワークデータが示す表示範囲を含む各動画ブロックに対応付けられた投稿回数の総和が多い順に、ステップS117で取得された疑似カメラワークデータを順位付けする。そして、制御部11は、順位付けされた順位が高い上位所定数の疑似カメラワークデータを、クライアント2のユーザへ提供する疑似カメラワークデータとして決定する(ステップS121)。ここで、上位所定数は、例えばクラアイント2で表示可能なサブ画面の数(図7(D)の例では、5つ)に基づき設定されるように構成するとよい。この場合、上述したリクエストには、サブ画面の数を示す情報が含まれる。これにより、シーン情報がより多く投稿されている注目度が高い動画ブロックを通過する疑似カメラワークデータを、クライアント2のユーザへ提供する疑似カメラワークデータとして決定することができる。 In step S119, the control unit 11 determines the pseudo camera work data acquired in step S117 as pseudo camera work data to be provided to the user of the client 2. In step S120, the control unit 11 ranks the pseudo camera work data acquired in step S117 based on the number of postings of scene information associated with the moving image block determined in step S116. For example, the control unit 11 ranks the pseudo camera work data acquired in step S117 in descending order of the total number of postings associated with each moving image block including the display range indicated by the pseudo camera work data. Then, the control unit 11 determines the upper predetermined number of pseudo camera work data having a higher ranking as pseudo camera work data to be provided to the user of the client 2 (step S121). Here, for example, the upper predetermined number may be set based on the number of sub-screens that can be displayed by the client 2 (five in the example of FIG. 7D). In this case, the request described above includes information indicating the number of sub screens. Thereby, the pseudo camera work data passing through the moving image block with a high degree of attention where more scene information is posted can be determined as the pseudo camera work data to be provided to the user of the client 2.
 次いで、制御部11は、ステップS119またはステップS121で決定された疑似カメラワークデータが格納されたワークファイルを、クライアント2へ送信し(ステップS122)、図8に示す処理を終了する。 Next, the control unit 11 transmits the work file storing the pseudo camera work data determined in step S119 or step S121 to the client 2 (step S122), and ends the process shown in FIG.
 なお、疑似カメラワークデータのリクエスト動作において、メイン画面に動画が表示されているときに、ユーザによる検索キーの入力される場合を例で示した。しかし、ユーザによる検索キーの入力、及びクライアント2から配信サーバ1へのリクエストの送信は、メイン画面に動画が表示されていないときに行われるものであってもよい。例えば、クライアント2のユーザの携帯端末から入力された検索キーを含むリクエストが配信サーバ1へ送信されるように構成してもよい。この場合、配信サーバ1の制御部11は、リクエストの受信後、ステップS119またはステップS121で決定された疑似カメラワークデータが格納されたワークファイルを、リクエストを送信した携帯端末へは送信しない。配信サーバ1の制御部11は、このワークファイルを、クライアント2及び携帯端末のユーザを識別するユーザIDに対応付けてワークファイル記憶領域31cに記憶する。その後、クライアント2が配信サーバ1へアクセスし、例えばユーザIDを用いてユーザのログインが行われた場合、配信サーバ1は、ユーザIDに対応付けられて記憶されたワークファイルを、クライアント2へ送信する。これにより、クライアント2は、受信したワークファイルに格納された疑似カメラワークデータに従って、メイン画面とは異なるサブ画面に動画を表示させる。 In addition, in the request operation of the pseudo camera work data, the case where the search key is input by the user when the moving image is displayed on the main screen is shown as an example. However, the input of the search key by the user and the transmission of the request from the client 2 to the distribution server 1 may be performed when a moving image is not displayed on the main screen. For example, a request including a search key input from the mobile terminal of the user of the client 2 may be transmitted to the distribution server 1. In this case, after receiving the request, the control unit 11 of the distribution server 1 does not transmit the work file storing the pseudo camera work data determined in step S119 or step S121 to the mobile terminal that has transmitted the request. The control unit 11 of the distribution server 1 stores the work file in the work file storage area 31c in association with the user ID for identifying the client 2 and the user of the mobile terminal. Thereafter, when the client 2 accesses the distribution server 1 and, for example, the user is logged in using the user ID, the distribution server 1 transmits the work file stored in association with the user ID to the client 2. To do. Thereby, the client 2 displays a moving image on a sub-screen different from the main screen according to the pseudo camera work data stored in the received work file.
 以上説明したように、上記実施形態によれば、配信サーバ1は、疑似カメラワークデータのリクエストをクライアント2から受信したとき、動画を構成する画像フレームにおける部分領域に対応付けられて予め記憶されたシーン情報に基づいて、リクエストに含まれる検索キーに対応するシーン情報に対応付けられた部分領域を決定し、決定された部分領域を含む表示範囲を示す疑似カメラワークデータを、クライアント2のユーザへ提供する疑似カメラワークデータとして決定する。そのため、検索キーを入力するユーザが所望する疑似カメラワークに対応する表示範囲を示す疑似カメラワークデータを効率良く検索し、ユーザに対して提供することができる。例えば、ユーザが見たい人物等の被写体が表れるシーンを含む表示範囲を示す疑似カメラワークデータをユーザに対して提供することができる。 As described above, according to the above-described embodiment, when the distribution server 1 receives a request for pseudo camera work data from the client 2, the distribution server 1 is stored in advance in association with the partial area in the image frame constituting the moving image. Based on the scene information, a partial area associated with the scene information corresponding to the search key included in the request is determined, and pseudo camera work data indicating a display range including the determined partial area is transmitted to the user of the client 2 It is determined as pseudo camera work data to be provided. Therefore, the pseudo camera work data indicating the display range corresponding to the pseudo camera work desired by the user who inputs the search key can be efficiently retrieved and provided to the user. For example, pseudo camera work data indicating a display range including a scene in which a subject such as a person the user wants to see can be provided to the user.
 また、ユーザにより検索キーが入力されたときの動画の再生位置を示す再生位置情報が上記リクエストに含まれる場合、配信サーバ1は、この再生位置情報が示す再生位置の画像フレームにおける部分領域の中から、リクエストに含まれる検索キーに対応するシーン情報に対応付けられた部分領域を決定する。そのため、動画の再生時間全体においてユーザが所望するタイミングにおける表示範囲を示す疑似カメラワークデータを効率良く検索し、ユーザに対して提供することができる。 In addition, when the request includes playback position information indicating the playback position of the moving image when the search key is input by the user, the distribution server 1 determines whether the playback position indicated by the playback position information is within the partial area in the image frame. Then, the partial area associated with the scene information corresponding to the search key included in the request is determined. Therefore, the pseudo camera work data indicating the display range at the timing desired by the user in the entire playback time of the moving image can be efficiently searched and provided to the user.
 なお、図8に示すステップS117において、制御部11は、ステップS112で特定されたシーン情報データベースに基づいて、ステップS116で決定された動画ブロックが含まれる表示範囲を示す疑似カメラワークデータを生成することで取得するように構成してもよい。例えば、制御部11は、上述したシーン情報データベースにおける動画ブロックに対応付けられた投稿回数の中で、投稿回数が最も多い動画ブロックを中心とするか又は投稿回数が多い上位の複数の動画ブロックの重心を中心とする表示範囲を動画ブロックの再生位置ごとに決定し、決定した表示範囲を再生位置ごとに示す疑似カメラワークデータを生成する。 In step S117 shown in FIG. 8, the control unit 11 generates pseudo camera work data indicating the display range including the moving image block determined in step S116, based on the scene information database specified in step S112. You may comprise so that it may acquire. For example, the control unit 11 selects a plurality of upper video blocks that are centered on the video block with the highest number of postings or the highest number of postings among the postings associated with the video block in the scene information database described above. A display range centered on the center of gravity is determined for each playback position of the moving image block, and pseudo camera work data indicating the determined display range for each playback position is generated.
 図9(A)は、動画を構成する1画像フレームにおける部分領域をピクセルとした場合の表示範囲を示す図である。図9(B)は、動画を構成する1画像フレームにおける部分領域を動画ブロックとした場合の表示範囲を示す図である。図9(A)の例では、投稿回数が最も多いピクセルPを中心として、1画像フレームF全体の合計投稿回数の50%が含まれる領域が表示範囲R21として決定されている。この50%は、表示割合である。例えば、1画像フレームF全体の合計投稿回数が「30」であるとすると、表示範囲R21内の合計投稿回数は「15」になる。なお、投稿回数が最も多いピクセルが複数ある場合、これらのピクセルの重心が表示範囲の中心とされる。一方、図9(B)の例では、投稿回数が最も多い動画ブロックB1の中心を中心として、1画像フレームF全体の合計投稿回数の50%が含まれる領域が表示範囲R22になっている。なお、投稿回数が最も多い動画ブロックが複数ある場合、これらの動画ブロックの中心から求まる重心が表示範囲の中心とされる。また、図9(B)において、動画ブロックB1の隣接する動画ブロックB2~B9は、一部分の領域が表示範囲R22に含まれている。例えば、動画ブロックB2の30%の領域が表示範囲R22に含まれているとすると、動画ブロックB2の投稿回数の30%が表示範囲R22の投稿回数に含まれることになる。つまり、表示範囲R22の投稿回数が、1画像フレームF全体の合計投稿回数の50%になるように、隣接する動画ブロックB2~B9が分割されることになる。 FIG. 9A is a diagram showing a display range when a partial region in one image frame constituting a moving image is a pixel. FIG. 9B is a diagram illustrating a display range when a partial area in one image frame constituting a moving image is a moving image block. In the example of FIG. 9A, an area including 50% of the total number of postings of the entire one image frame F is determined as the display range R21 with the pixel P having the highest number of postings as the center. This 50% is a display ratio. For example, if the total number of postings for the entire image frame F is “30”, the total number of postings in the display range R21 is “15”. When there are a plurality of pixels with the highest number of postings, the center of gravity of these pixels is set as the center of the display range. On the other hand, in the example of FIG. 9B, the display range R22 is an area including 50% of the total number of postings of the entire image frame F, centering on the center of the moving image block B1 having the highest number of postings. When there are a plurality of moving image blocks with the highest number of postings, the center of gravity obtained from the center of these moving image blocks is set as the center of the display range. In FIG. 9B, a part of the moving image blocks B2 to B9 adjacent to the moving image block B1 is included in the display range R22. For example, if 30% of the area of the moving image block B2 is included in the display range R22, 30% of the number of postings of the moving image block B2 is included in the number of postings of the display range R22. That is, the adjacent moving image blocks B2 to B9 are divided so that the number of postings in the display range R22 is 50% of the total number of postings in the entire image frame F.
 表示範囲R21又はR22の投稿回数が1画像フレームF全体の合計投稿回数の50%以上になるように決定すれば、より多く投稿されている注目度の高いシーンを表示する疑似カメラワークデータを生成することができる。ただし、1画像フレームF全体の合計投稿回数の50%という表示割合に限定されるものではない。例えば、表示範囲R21又はR22の投稿回数が1画像フレームF全体の合計投稿回数の40%以上になるように表示割合を決定してもよい。なお、仮想スクリーンが長方形のスクリーンSC1の場合、例えばアスペクト比を16:9などに固定して、表示範囲のサイズが調整される。 If the number of postings in the display range R21 or R22 is determined to be 50% or more of the total number of postings for the entire image frame F, pseudo camera work data that displays more highly posted scenes is generated. can do. However, the display ratio is not limited to 50% of the total number of postings of the entire image frame F. For example, the display ratio may be determined so that the number of postings in the display range R21 or R22 is 40% or more of the total number of postings in the entire image frame F. In the case where the virtual screen is a rectangular screen SC1, for example, the size of the display range is adjusted by fixing the aspect ratio to 16: 9 or the like.
 ところで、疑似カメラワークデータの自動生成処理により1画像フレームFごとに表示範囲を決定すると再生したときに、動画が連続せず見づらくなることがある。そのため、画像フレームFにおける表示範囲を、単位再生時間ごとに決定して、その間が連続的に変化するように補完してもよい。図9(C)は、5秒間隔ごとに決定された表示範囲R31~R33の間が連続的に変化するように補完された例を示す概念図である。図9(C)の例では、「0秒~5秒」の単位再生時間範囲、「5秒~10秒」の単位再生時間範囲、及び「10秒~15秒」の単位再生時間範囲のそれぞれにおいて表示範囲が決定されている。「0秒~5秒」の単位再生時間範囲における表示範囲R31は、この単位再生時間範囲の真中の2.5秒の再生位置における表示範囲として決定されている。5秒~10秒の単位再生時間範囲における表示範囲R32は、この単位再生時間範囲の真中の7.5秒の再生位置における表示範囲として決定されている。「10秒~15秒」の単位再生時間範囲における表示範囲R33は、この単位再生時間範囲の真中の12.5秒の再生位置における表示範囲として決定されている。そして、2.5秒の再生位置と5秒の再生位置との間に位置する画像フレームFにおける表示範囲、及び5秒の再生位置と7.5秒の再生位置との間に位置する画像フレームFにおける表示範囲は連続的に変化するように補完されている。このような補完は、図9(C)に示すように直線的でなくともよく、滑らかな曲線になるようにした方が望ましい。 By the way, when the display range is determined for each image frame F by the automatic generation process of the pseudo camera work data, the moving image may not be continuous and difficult to see. For this reason, the display range in the image frame F may be determined for each unit reproduction time, and complemented so that the interval continuously changes. FIG. 9C is a conceptual diagram showing an example in which the display ranges R31 to R33 determined every 5 seconds are complemented so as to continuously change. In the example of FIG. 9C, each of a unit playback time range of “0 to 5 seconds”, a unit playback time range of “5 to 10 seconds”, and a unit playback time range of “10 to 15 seconds”. The display range is determined in FIG. The display range R31 in the unit playback time range of “0 to 5 seconds” is determined as the display range at the playback position of 2.5 seconds in the middle of the unit playback time range. The display range R32 in the unit reproduction time range of 5 seconds to 10 seconds is determined as the display range at the reproduction position of 7.5 seconds in the middle of the unit reproduction time range. The display range R33 in the unit playback time range of “10 seconds to 15 seconds” is determined as the display range at the playback position of 12.5 seconds in the middle of this unit playback time range. The display range in the image frame F positioned between the playback position of 2.5 seconds and the playback position of 5 seconds, and the image frame positioned between the playback position of 5 seconds and the playback position of 7.5 seconds The display range in F is complemented so as to change continuously. Such complementation does not have to be linear as shown in FIG. 9C, and it is desirable to make it a smooth curve.
 図10(A)は、配信サーバ1の制御部11における疑似カメラワークデータの自動生成処理を示すフローチャートである。このフローチャートは、図9に示す例を考慮したものである。図10(A)に示す疑似カメラワークデータの自動生成処理は、例えば、シーン情報データベースが更新される度に、または所定回数(例えば、10回)更新される度に実行される。或いは、疑似カメラワークデータの自動生成処理は、定期的に実行されるように構成してもよい。あるいは、運用者等の判断で任意のタイミングで実行しても良い。疑似カメラワークデータの自動生成処理が開始されると、新規の疑似カメラワークデータが生成される。生成された疑似カメラワークデータは、この段階では、空の疑似カメラワークデータである。次いで、制御部11は、先頭要素として再生位置「0」における表示範囲を再生位置「0」に対応付けて新規の疑似カメラワークデータに登録する(ステップS201)。再生位置「0」における表示範囲は、例えば、再生位置「0」における画像フレームF全体として決定される。 FIG. 10A is a flowchart showing an automatic generation process of pseudo camera work data in the control unit 11 of the distribution server 1. This flowchart considers the example shown in FIG. The automatic generation process of pseudo camera work data shown in FIG. 10A is executed, for example, every time the scene information database is updated or every predetermined number of times (for example, 10 times). Or you may comprise so that the automatic generation process of pseudo camera work data may be performed regularly. Or you may perform at arbitrary timings by judgment of an operator etc. When the automatic generation process of pseudo camera work data is started, new pseudo camera work data is generated. At this stage, the generated pseudo camera work data is empty pseudo camera work data. Next, the control unit 11 registers the display range at the reproduction position “0” as the first element in the new pseudo camera work data in association with the reproduction position “0” (step S201). The display range at the reproduction position “0” is determined, for example, for the entire image frame F at the reproduction position “0”.
 次いで、制御部11は、変数iに「0」をセットする(ステップS202)。次いで、制御部11は、上述した単位再生時間範囲「T×i~T×(i+1)」に含まれる各再生位置における画像フレームFの集合を処理対象として決定する(ステップS203)。ここで、「T」は、1つの単位再生時間範囲の時間的な長さである。次いで、制御部11は、シーン情報データベースを参照して、ステップS203で決定された処理対象の中で、投稿回数が最も多い部分領域の中心を表示範囲の中心として決定する(ステップS204)。 Next, the control unit 11 sets “0” to the variable i (step S202). Next, the control unit 11 determines a set of image frames F at each reproduction position included in the above-described unit reproduction time range “T × i to T × (i + 1)” as a processing target (step S203). Here, “T” is the time length of one unit playback time range. Next, the control unit 11 refers to the scene information database and determines the center of the partial area having the highest number of postings as the center of the display range among the processing targets determined in step S203 (step S204).
 次いで、制御部11は、シーン情報データベースを参照して、表示割合が例えば0.5となるように画像フレームFにおける表示範囲を決定する(ステップS205)。この表示割合は、例えば、動画の再生時間全体の合計投稿回数を、ステップS203で決定された処理対象の合計投稿回数で除算することにより算出される。次いで、制御部11は、ステップS205で決定した表示範囲の再生位置を「T×i+T/2)」として決定する(ステップS206)。例えば、0秒~5秒の単位再生時間範囲である場合、再生位置「T×i+T/2)」は2.5秒として決定される。 Next, the control unit 11 refers to the scene information database and determines the display range in the image frame F so that the display ratio is, for example, 0.5 (step S205). This display ratio is calculated, for example, by dividing the total number of postings for the entire playback time of the moving image by the total number of postings to be processed determined in step S203. Next, the control unit 11 determines the reproduction position of the display range determined in step S205 as “T × i + T / 2)” (step S206). For example, in the unit playback time range of 0 to 5 seconds, the playback position “T × i + T / 2)” is determined as 2.5 seconds.
 次いで、制御部11は、新規の疑似カメラワークデータに登録された再生位置の中で、最後に登録された再生位置から、再生位置「T×i+T/2)」までの間の各再生位置における表示範囲を補完計算により決定する(ステップS207)。補完計算では、例えば、再生位置「0」における表示範囲と再生位置「2.5秒」における表示範囲とに基づき、再生位置「0」~再生位置「2.5秒」の間に位置する画像フレームFにおける表示範囲が連続的に変化するように計算される。なお、このような補完計算自体は、公知の方法を適用することができるので詳しい説明は省略する。 Next, the control unit 11 at each reproduction position from the last registered reproduction position to the reproduction position “T × i + T / 2) among the reproduction positions registered in the new pseudo camera work data. The display range is determined by complementary calculation (step S207). In the complementary calculation, for example, an image located between the reproduction position “0” and the reproduction position “2.5 seconds” based on the display range at the reproduction position “0” and the display range at the reproduction position “2.5 seconds”. The display range in the frame F is calculated so as to change continuously. In addition, since such a complementary calculation itself can apply a well-known method, detailed description is abbreviate | omitted.
 次いで、制御部11は、ステップS205で決定された表示範囲、及びステップS207で決定された表示範囲を、それぞれの再生位置に対応付けて新規の疑似カメラワークデータに登録する(ステップS208)。次いで、制御部11は、変数iを1インクリメントする(ステップS209)。次いで、制御部11は、「T×i」が動画の再生時間全体より大きいか否かを判定する(ステップS210)。「T×i」が動画の再生時間全体より大きくないと判定された場合(ステップS210:NO)、ステップS203に戻る。これにより、次の単位再生時間範囲において上記と同様の処理が実行される。「T×i」が動画の再生時間全体より大きいと判定された場合(ステップS210:YES)、疑似カメラワークデータの自動生成処理を終了する。 Next, the control unit 11 registers the display range determined in step S205 and the display range determined in step S207 in new pseudo camera work data in association with the respective reproduction positions (step S208). Next, the control unit 11 increments the variable i by 1 (step S209). Next, the control unit 11 determines whether “T × i” is greater than the entire playback time of the moving image (step S210). If it is determined that “T × i” is not greater than the entire playback time of the moving image (step S210: NO), the process returns to step S203. As a result, the same processing as described above is executed in the next unit reproduction time range. If it is determined that “T × i” is greater than the entire playback time of the moving image (step S210: YES), the automatic generation process of pseudo camera work data is terminated.
 次に、図11は、疑似カメラワークデータの自動生成処理の他の例を示す概念図である。図11の例では、ある再生位置における画像フレームFにおける部分領域を動画ブロックとした場合に、表示範囲が決定されるまでの様子を示している。図11に示す数値は、各動画ブロックの投稿回数である。疑似カメラワークデータの自動生成処理では、先ず、図11(A)に示すように、最も投稿回数の大きい動画ブロックB1が選定される。このときの表示割合は、1画像フレームF全体の合計投稿回数が「30」であるとすると、20%(=6/30)となる。この表示割合が、例えば50%を超えるまで動画ブロックの選定が繰り返される。次に、図11(B)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で最も投稿回数の大きい動画ブロックB3が選定される。このときの表示割合は、33%(=10/30)となる。次に、図11(C)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で動画ブロックB3の次に投稿回数の大きい動画ブロックB5が選定される。このときの表示割合は、43%(=13/30)となる。次に、図11(D)に示すように、選定された動画ブロックB1に隣接する動画ブロックの中で動画ブロックB3及びB5の次に投稿回数の大きい動画ブロックB8が選定される。このときの表示割合は、53%(=16/30)となる。このように表示割合が50%を超えた場合、図11(E)に示すように、上記選定された動画ブロックB1,B2,B4,及びB8を全て含む最小の領域が表示範囲R41として決定される。なお、アスペクト比が固定の場合、決定された表示範囲R41はアスペクト比に応じた表示範囲に調整される。 Next, FIG. 11 is a conceptual diagram showing another example of automatic generation processing of pseudo camera work data. In the example of FIG. 11, when the partial area in the image frame F at a certain reproduction position is a moving image block, the state until the display range is determined is shown. The numerical value shown in FIG. 11 is the number of postings of each moving image block. In the automatic generation process of the pseudo camera work data, first, as shown in FIG. 11A, the moving image block B1 having the largest number of postings is selected. The display ratio at this time is 20% (= 6/30), assuming that the total number of postings for the entire image frame F is “30”. The selection of the moving image block is repeated until the display ratio exceeds 50%, for example. Next, as shown in FIG. 11B, the video block B3 having the largest number of postings is selected from the video blocks adjacent to the selected video block B1. The display ratio at this time is 33% (= 10/30). Next, as shown in FIG. 11C, the video block B5 having the largest number of postings after the video block B3 is selected from the video blocks adjacent to the selected video block B1. The display ratio at this time is 43% (= 13/30). Next, as shown in FIG. 11D, among the moving image blocks adjacent to the selected moving image block B1, the moving image block B8 having the largest number of postings after the moving image blocks B3 and B5 is selected. The display ratio at this time is 53% (= 16/30). When the display ratio exceeds 50% in this way, as shown in FIG. 11E, the minimum area including all the selected moving image blocks B1, B2, B4, and B8 is determined as the display range R41. The When the aspect ratio is fixed, the determined display range R41 is adjusted to a display range corresponding to the aspect ratio.
 図10(B)は、疑似カメラワークデータの自動生成処理の他の例を示すフローチャートである。このフローチャートは、図11に示す例を考慮したものである。図10(B)に示す疑似カメラワークデータの自動生成処理の開始条件は、図10(A)に示す疑似カメラワークデータの自動生成処理の開始条件と同様である。なお、図10(B)に示すステップS211~S213の処理は、図10(A)に示すステップS201~S203の処理と同様である。 FIG. 10B is a flowchart showing another example of automatic generation processing of pseudo camera work data. This flowchart considers the example shown in FIG. The start condition of the automatic generation process of pseudo camera work data shown in FIG. 10B is the same as the start condition of the automatic generation process of pseudo camera work data shown in FIG. Note that the processing in steps S211 to S213 shown in FIG. 10B is the same as the processing in steps S201 to S203 shown in FIG.
 図10(B)に示すステップS214では、制御部11は、シーン情報データベースを参照して、ステップS213で決定された処理対象の中で、投稿回数が最も多い動画ブロックを選定する。次いで、制御部11は、シーン情報データベースを参照して、ステップS214で選定された動画ブロックが配置された画像フレームFにおいて、ステップS214で選定された動画ブロックに隣接する動画ブロックの中で最も投稿回数の大きい動画ブロックを選定する(ステップS215)。なお、ステップS215で選定された動画ブロックは以降のステップS216の処理で選定対象外に設定される。 In step S214 shown in FIG. 10B, the control unit 11 refers to the scene information database and selects a moving image block having the largest number of postings among the processing targets determined in step S213. Next, the control unit 11 refers to the scene information database, and in the image frame F in which the moving image block selected in step S214 is arranged, the control unit 11 posts most of the moving image blocks adjacent to the moving image block selected in step S214. A moving image block with a large number of times is selected (step S215). Note that the moving image block selected in step S215 is set as a non-selection target in the subsequent step S216.
 次いで、制御部11は、シーン情報データベースを参照して、表示割合が例えば0.5以上になったか否かを判定する(ステップS216)。ここで、表示割合は、図10(A)に示すステップS205の処理の場合と同様である。表示割合が例えば0.5以上になっていないと判定された場合(ステップS216:NO)、ステップS215に戻る。これにより、例えば、ステップS214で選定された動画ブロックに隣接する動画ブロックの中で次に投稿回数の大きい動画ブロックが選定される。一方、表示割合が例えば0.5以上になったと判定された場合(ステップS216:YES)、ステップS217へ進む。ステップS217では、制御部11は、ステップS214及びステップS215で選定された動画ブロックを全て含む最小の領域を表示範囲として決定し、ステップS218へ移行する。図10(B)に示すステップS218~S222の処理は、図10(A)に示すステップS206~S210の処理と同様である。以上のように、疑似カメラワークデータの自動生成処理により生成された疑似カメラワークデータは、図8に示すステップS122において、クライアント2へ送信される。 Next, the control unit 11 refers to the scene information database and determines whether or not the display ratio is, for example, 0.5 or more (step S216). Here, the display ratio is the same as in the case of the process of step S205 shown in FIG. For example, when it is determined that the display ratio is not 0.5 or more (step S216: NO), the process returns to step S215. Thereby, for example, a moving image block having the next largest number of postings is selected from the moving image blocks adjacent to the moving image block selected in step S214. On the other hand, when it is determined that the display ratio is 0.5 or more (step S216: YES), the process proceeds to step S217. In step S217, the control part 11 determines the minimum area | region containing all the moving image blocks selected by step S214 and step S215 as a display range, and transfers to step S218. The processes in steps S218 to S222 shown in FIG. 10B are the same as the processes in steps S206 to S210 shown in FIG. As described above, the pseudo camera work data generated by the automatic generation process of the pseudo camera work data is transmitted to the client 2 in step S122 shown in FIG.
 以上説明したように、疑似カメラワークデータの自動生成処理によれば、シーン情報データベースを利用して、より多く投稿されている注目度の高いシーンを含む表示範囲を示す疑似カメラワークデータを自動的に生成して、生成された疑似カメラワークデータを、ユーザに対して推奨する適切な疑似カメラワークデータとして決定することができる。 As described above, according to the automatic generation process of the pseudo camera work data, the pseudo camera work data indicating the display range including the scene with a high degree of attention that is posted more is automatically used by using the scene information database. And the generated pseudo camera work data can be determined as appropriate pseudo camera work data recommended to the user.
 なお、上記実施形態において、クライアント2は配信サーバ1からコンテンツ及びコンテンツの疑似カメラワークデータを受信する構成を示した。しかし、ハイブリッド型またはピア型のピアツーピアネットワークにおいて、クライアント2が他のクライアント2からコンテンツ及びコンテンツの疑似カメラワークデータを受信する場合に対しても本開示は適用できる。この場合、クライアント2が本開示の情報処理装置として機能する。また、上記実施形態において、クライアント2が記憶装置3と接続可能であるように構成してもよい。この場合、クライアント2は記憶装置3から取得したコンテンツを再生する。そして、クライアント2は、記憶装置3から取得した疑似カメラワークデータに従って、動画を表示することになる。 In the above embodiment, the client 2 has been shown to receive content and pseudo camera work data of the content from the distribution server 1. However, the present disclosure can also be applied to a case where the client 2 receives content and pseudo camera work data of the content from another client 2 in a hybrid type or peer type peer-to-peer network. In this case, the client 2 functions as the information processing apparatus of the present disclosure. In the above embodiment, the client 2 may be connected to the storage device 3. In this case, the client 2 reproduces the content acquired from the storage device 3. Then, the client 2 displays a moving image according to the pseudo camera work data acquired from the storage device 3.
1 配信サーバ
2 クライアント
11 記憶装置
21 制御部
22 記憶部
S 通信システムS
DESCRIPTION OF SYMBOLS 1 Distribution server 2 Client 11 Storage device 21 Control part 22 Storage part S Communication system S

Claims (4)

  1.  動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の前記表示範囲を再生位置ごとに示す表示範囲情報の要求であって、前記動画の前記画像フレームにおける1以上の画素から構成される領域の検索に用いられる第1の検索情報を含む前記要求を端末装置から受信する受信手段と、
     複数の前記領域それぞれに対応付けられた第2の検索情報であって、前記領域の特徴を示す第2の検索情報を記憶する記憶手段と、
     前記記憶手段に記憶された前記第2の検索情報に基づいて、前記受信手段により受信された前記第1の検索情報に対応する前記第2の検索情報が対応付けられた前記領域を前記記憶手段から検索して決定する第1決定手段と、
     前記第1決定手段により決定された前記領域を含む前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定する第2決定手段と、
     を備えることを特徴とする情報処理装置。
    The display range displayed by the display means in the image frame constituting the video is a request for display range information indicating the display range of the video that can be changed according to the playback position of the video for each playback position, and Receiving means for receiving, from a terminal device, the request including first search information used for searching for an area composed of one or more pixels in the image frame of a moving image;
    Storage means for storing second search information associated with each of the plurality of areas, the second search information indicating characteristics of the areas;
    Based on the second search information stored in the storage unit, the storage unit is configured to associate the region with the second search information corresponding to the first search information received by the reception unit. First determining means for searching and determining from;
    Second determination means for determining display range information indicating the display range including the area determined by the first determination means as display range information to be provided to the terminal device;
    An information processing apparatus comprising:
  2.  前記領域に対応付けられた前記第2の検索情報は、前記領域を含む前記動画の表示範囲に表れる被写体を示し、
     前記受信手段は、被写体を示す前記第1の検索情報を含む前記要求を受信し、
     前記第1決定手段は、前記領域に対応付けられた前記第2の検索情報に基づいて、前記受信手段により受信された前記第1の検索情報が示す被写体が表れる表示範囲を含む前記領域を決定し、
     前記第2決定手段は、前記第1決定手段により決定された前記領域を含む前記表示範囲を示す前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定することを特徴とする請求項1に記載の情報処理装置。
    The second search information associated with the area indicates a subject appearing in a display range of the moving image including the area,
    The receiving means receives the request including the first search information indicating a subject;
    The first determining unit determines the region including a display range in which a subject represented by the first search information received by the receiving unit appears based on the second search information associated with the region. And
    The said 2nd determination means determines the said display range information which shows the said display range including the said area | region determined by the said 1st determination means as display range information provided to the said terminal device. The information processing apparatus according to 1.
  3.  前記受信手段は、前記端末装置において前記動画の表示中に前記第1の検索情報が入力されたときの前記動画の再生位置を示す再生位置情報と前記第1の検索情報とを含む前記要求を受信し、
     前記第1決定手段は、前記受信手段により受信された再生位置情報が示す再生位置の前記画像フレームにおける前記領域の中から、前記受信手段により受信された前記第1の検索情報に対応する前記第2の検索情報に対応付けられた前記領域を決定し、
     前記第2決定手段は、前記第1決定手段により決定された前記領域を含む前記表示範囲を示す前記表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定することを特徴とする請求項1又は2に記載の情報処理装置。
    The receiving means includes the request including reproduction position information indicating a reproduction position of the moving image when the first search information is input while the moving image is displayed on the terminal device, and the first search information. Receive
    The first determining means includes the first search information corresponding to the first search information received by the receiving means from the region in the image frame at the reproduction position indicated by the reproduction position information received by the receiving means. Determining the region associated with the search information of 2;
    The said 2nd determination means determines the said display range information which shows the said display range including the said area | region determined by the said 1st determination means as display range information provided to the said terminal device. The information processing apparatus according to 1 or 2.
  4.  コンピュータにより行われる情報処理方法であって、
     動画を構成する画像フレーム内で、表示手段により表示される表示範囲が、動画の再生位置に応じて変化可能な動画の前記表示範囲を再生位置ごとに示す表示範囲情報の要求であって、前記動画の前記画像フレームにおける1以上の画素から構成される領域の検索に用いられる第1の検索情報を含む前記要求を端末装置から受信する受信ステップと、
     複数の前記領域それぞれに対応付けられた第2の検索情報であって、前記領域の特徴を示す第2の検索情報を記憶する記憶手段に記憶された前記第2の検索情報に基づいて、前記受信ステップにより受信された前記第1の検索情報に対応する前記第2の検索情報が対応付けられた前記領域を検索して決定する第1決定ステップと、
     前記第1決定ステップにより決定された前記領域を含む前記表示範囲を示す表示範囲情報を、前記端末装置へ提供する表示範囲情報として決定する第2決定ステップと、
     を含むことを特徴とする情報処理方法。
    An information processing method performed by a computer,
    The display range displayed by the display means in the image frame constituting the video is a request for display range information indicating the display range of the video that can be changed according to the playback position of the video for each playback position, and A receiving step of receiving from the terminal device the request including first search information used for searching for an area composed of one or more pixels in the image frame of a moving image;
    Based on the second search information stored in storage means for storing second search information that is associated with each of the plurality of regions, and that stores second search information indicating the characteristics of the regions, A first determination step of searching and determining the region associated with the second search information corresponding to the first search information received by the reception step;
    A second determination step of determining display range information indicating the display range including the region determined in the first determination step as display range information to be provided to the terminal device;
    An information processing method comprising:
PCT/JP2014/054651 2013-02-27 2014-02-26 Information processing device and information processing method WO2014132988A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-037497 2013-02-27
JP2013037497A JP5870944B2 (en) 2013-02-27 2013-02-27 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
WO2014132988A1 true WO2014132988A1 (en) 2014-09-04

Family

ID=51428251

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054651 WO2014132988A1 (en) 2013-02-27 2014-02-26 Information processing device and information processing method

Country Status (2)

Country Link
JP (1) JP5870944B2 (en)
WO (1) WO2014132988A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967126B2 (en) * 2014-03-28 2016-08-10 ブラザー工業株式会社 Terminal device and program
JP6388532B2 (en) * 2014-11-28 2018-09-12 富士通株式会社 Image providing system and image providing method
JP2018182428A (en) * 2017-04-06 2018-11-15 株式会社フューチャリズムワークス Video distribution device, video distribution system, and video distribution method
JP6980496B2 (en) 2017-11-21 2021-12-15 キヤノン株式会社 Information processing equipment, information processing methods, and programs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855131A (en) * 1994-08-12 1996-02-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for identifying object in dynamic image
JP2007013479A (en) * 2005-06-29 2007-01-18 Matsushita Electric Ind Co Ltd Camera work information application and evaluation device
JP2008181515A (en) * 1999-07-09 2008-08-07 Toshiba Corp Method of describing object area information, method of processing video information, and information processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0855131A (en) * 1994-08-12 1996-02-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for identifying object in dynamic image
JP2008181515A (en) * 1999-07-09 2008-08-07 Toshiba Corp Method of describing object area information, method of processing video information, and information processor
JP2007013479A (en) * 2005-06-29 2007-01-18 Matsushita Electric Ind Co Ltd Camera work information application and evaluation device

Also Published As

Publication number Publication date
JP2014164685A (en) 2014-09-08
JP5870944B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
JP6558587B2 (en) Information processing apparatus, display apparatus, information processing method, program, and information processing system
CN105745938B (en) Multi-angle of view audio and video interactive playback
US20180160194A1 (en) Methods, systems, and media for enhancing two-dimensional video content items with spherical video content
KR20160112898A (en) Method and apparatus for providing dynamic service based augmented reality
JP6787394B2 (en) Information processing equipment, information processing methods, programs
TWI617930B (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
JP5870944B2 (en) Information processing apparatus and information processing method
WO2016098467A1 (en) Information processing system, server, program, and information processing method
US10970932B2 (en) Provision of virtual reality content
US10740618B1 (en) Tracking objects in live 360 video
US10061492B2 (en) Path-linked viewpoints from point of interest
US11474661B2 (en) Methods, systems, and media for presenting media content previews
JP6684306B2 (en) Terminal device, video distribution device, program
WO2020079996A1 (en) Information processing device, information processing method, and information processing program
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
JP2017108356A (en) Image management system, image management method and program
JP6451013B2 (en) Terminal apparatus, moving image display method, and program
JP6336309B2 (en) Terminal device, video distribution device, program
JP5791744B1 (en) Terminal apparatus, moving image display method, and program
JP5942932B2 (en) Terminal device and program
JP6390932B2 (en) Terminal apparatus, moving image display method, and program
KR102372181B1 (en) Display device and method for control thereof
JPH11174950A (en) Processor and method for information processing, and computer-readable memory
JP5791745B1 (en) Video distribution apparatus, video distribution method, and program
US20230333727A1 (en) Immersive gallery with linear scroll

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14757559

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14757559

Country of ref document: EP

Kind code of ref document: A1