WO2019244731A1 - ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム - Google Patents

ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム Download PDF

Info

Publication number
WO2019244731A1
WO2019244731A1 PCT/JP2019/023224 JP2019023224W WO2019244731A1 WO 2019244731 A1 WO2019244731 A1 WO 2019244731A1 JP 2019023224 W JP2019023224 W JP 2019023224W WO 2019244731 A1 WO2019244731 A1 WO 2019244731A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual viewpoint
file
viewpoint video
data
access information
Prior art date
Application number
PCT/JP2019/023224
Other languages
English (en)
French (fr)
Inventor
裕尚 伊藤
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2019244731A1 publication Critical patent/WO2019244731A1/ja
Priority to US17/122,931 priority Critical patent/US11431957B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Definitions

  • the present invention relates to processing of a virtual viewpoint video file.
  • Japanese Patent Laying-Open No. 2017-212828 generates data (hereinafter, referred to as material data) such as a foreground texture image, a background texture image, and a 3D model based on a plurality of captured images obtained using a plurality of cameras. Discloses that a virtual viewpoint video is generated using the material data.
  • a user who has viewed a virtual viewpoint video generated based on a virtual camera work set by another person may want to generate an original virtual viewpoint video based on another virtual camera work.
  • it is conceivable to check the location of the material data for generating the virtual viewpoint video acquire the material data, and generate new virtual viewpoint video data, but this requires a complicated operation. If the material data cannot be found, new virtual viewpoint video data may not be generated.
  • the present invention has been made in view of the above problems, and an object thereof is to enable a device that has acquired virtual viewpoint video data to easily generate new virtual viewpoint video data corresponding to a new virtual viewpoint. That is.
  • the file generation device of the present invention has, for example, the following configuration. That is, a file generation device that generates a virtual viewpoint video file corresponding to virtual viewpoint video data generated based on a captured image obtained by capturing a predetermined imaging region by a plurality of imaging devices and a virtual viewpoint. Acquiring means for acquiring access information used for requesting material data for generating virtual viewpoint video data; and a virtual viewpoint including the access information acquired by the acquiring means and the virtual viewpoint video data.
  • the image processing apparatus includes a file generation unit that generates a video file, and an output unit that outputs a virtual viewpoint video file generated by the file generation unit.
  • a device that has acquired virtual viewpoint video data can easily generate new virtual viewpoint video data corresponding to a new virtual viewpoint.
  • FIG. 9 is a sequence diagram regarding generation of a virtual viewpoint video file.
  • FIG. 7 is a sequence diagram regarding reproduction of a virtual viewpoint video file.
  • FIG. 4 is a diagram illustrating access information to material data. It is an example of the structure of the box based on ISOBMFF. It is an example of the structure of the box based on ISOBMFF. It is an example of a file structure based on ISOBMFF.
  • FIG. 3 is a diagram illustrating an example of describing access information in a movie box conforming to ISOBMFF.
  • FIG. 3 is a diagram illustrating an example of describing access information in a movie box conforming to ISOBMFF.
  • FIG. 3 is a diagram illustrating an example of describing access information in a movie box conforming to ISOBMFF.
  • FIG. 5 is a diagram illustrating a method of describing access information in a still image format.
  • FIG. 5 is a diagram illustrating a method of describing access information in a still image format.
  • FIG. 4 is a diagram illustrating tag information of material data access information. It is the figure which illustrated the top screen of the video portal site. It is the figure which illustrated the moving image reproduction screen of the moving image portal site.
  • FIG. 4 is a diagram illustrating a generation screen of a virtual viewpoint video. It is a functional block diagram of a second embodiment. It is a functional block diagram of other embodiments.
  • FIG. 2 is a diagram illustrating a hardware configuration of a file processing device 20.
  • FIG. 1 is a block diagram for explaining functions of the material server 10, the file processing device 20, and the file server 30 in the first embodiment.
  • the function of each device in the present embodiment is realized by the hardware resources shown in FIG.
  • FIG. 16 is a diagram for explaining the hardware configuration of the file processing device 20.
  • the hardware configurations of the material server 10 and the file server 30 are the same as those of the file processing device 20.
  • a CPU 1601 executes a program stored in a ROM 1603 and / or a hard disk drive (HDD) 1605 using a RAM 1602 as a work memory. Thereby, various processes described later are executed.
  • HDD hard disk drive
  • An HDD interface (I / F) 1604 is an interface for connecting the file processing device 20 to a secondary storage device such as the HDD 1605 or an optical disk drive.
  • the input interface (I / F) 106 is an interface for connecting an input device 1607 such as a touch panel, a keyboard, a mouse, a digital camera, and a scanner for inputting one or a plurality of coordinates to the file processing apparatus 20.
  • An input interface (I / F) 1606 is, for example, a serial bus interface such as USB or IEEE1394.
  • An output interface (I / F) 1608 is an interface for connecting the output device 1609 such as a display and the file processing device 20.
  • the network interface (I / F) 1610 is an interface for connecting the file processing device 20 to external devices (for example, the material server 10 and the file server 30).
  • the CPU 1601 can exchange external device data via the network I / F 1610.
  • the file processing device 20 may include a plurality of CPUs 1601. Further, one or more dedicated hardware different from the CPU 1601 may be provided, and at least a part of the processing by the CPU 1601 may be performed by the dedicated hardware. Examples of dedicated hardware include a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and a DSP (Digital Signal Processor).
  • dedicated hardware include a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and a DSP (Digital Signal Processor).
  • FIG. 3 is a sequence diagram for explaining the flow of processing of the material server 10, the file processing device 20, and the file server 30 when generating a virtual viewpoint video file.
  • the function and operation of each device will be described with reference to FIGS. 1 and 3.
  • the file processing device 20 requests a material list from the material server 10 (S101). Specifically, the data receiving unit 200 of the file processing device 20 transmits a request for a material list to the external interface unit 100 of the material server 10 in response to an input of a user operation.
  • the material list is data that lists material data that can be provided by the material server 10.
  • the material data is data used for generating a virtual viewpoint video.
  • the material data include three-dimensional shape data indicating a three-dimensional shape of an object (for example, a sports player or a ball), texture data of the object, and texture data of a background image.
  • a virtual viewpoint video corresponding to the position and orientation of the virtual viewpoint can be generated.
  • images captured by a plurality of cameras and camera information regarding the position, attitude, and angle of view of each camera may be used. By using these material data, it is possible to generate a virtual viewpoint video corresponding to the position and orientation of the virtual viewpoint (virtual camera).
  • the shape and texture data of an object existing in the photographing region can be obtained by using photographed images obtained by performing synchronous photographing of a predetermined photographing region from different directions by a plurality of cameras.
  • a known method such as VisualHull can be used.
  • the camera information relating to the position, posture, and image angle of each camera shown in FIG. 2 can be obtained, for example, based on a captured image of each camera.
  • the material list of the present embodiment includes the type of material data that can be provided, the time zone, the shooting location, and access information for requesting the material data.
  • the name of the material list is used in the present embodiment, the data is not necessarily in the form of a list. Further, all of the above-described information (type, time zone, shooting location, access information) is not always essential information. Some of the information described above may not be included in the material list, and other information may be added.
  • the access information may include, for example, the IP address of a recording device (material server 10) that records material data, or a URL (Uniform Resource Locator) indicating the location of the material data.
  • the access information may include, for example, at least one of a name of a file storing the material data (file name) and identification information (for example, a title) for identifying the material data.
  • step S102 of FIG. 2 the file processing device 20 receives the material list from the material server 10. Specifically, when the external interface unit 100 of the material server 10 receives the request for the material list, the external interface unit 100 acquires the material list from the data storage unit 102 via the data list acquiring unit 101, and stores the material list in the file processing device 20. Is transmitted to the data receiving unit 200.
  • the file processing device 20 requests material data from the material server 10 (S103). Specifically, the data receiving unit 200 of the file processing device 20 transmits a request for material data to the external interface unit 100 of the material server 10 in response to a material data selecting operation by the user.
  • the file processing device 20 receives the material data from the material server 10 (S104). Specifically, when the external interface unit 100 of the material server 10 receives a request for material data from the file processing device 20, the external interface unit 100 acquires the material data from the data storage unit 102 via the data acquisition unit 103. Then, the material data is transmitted to the data receiving unit 200 of the file processing device 20.
  • the file processing device 20 acquires information on the virtual viewpoint (S105). Specifically, input of virtual viewpoint information regarding the position, orientation, angle of view, and the like of the virtual viewpoint from virtual viewpoint input unit 202 is received.
  • the virtual viewpoint information is assumed to be information determined based on a user operation. However, the present invention is not limited to this, and the virtual camera may be automatically operated.
  • the virtual viewpoint video generation unit 201 of the file processing device 20 generates virtual viewpoint video data based on the material data acquired in S104 and the virtual viewpoint information input in S105 (S106).
  • the file generation unit 204 of the file processing device 20 generates a virtual viewpoint video file based on the virtual viewpoint video data generated in S106 (S107).
  • the file processing device 20 of the present embodiment generates a virtual viewpoint video file including access information of a request for material data used for generating virtual viewpoint video data.
  • FIG. 1 illustrates an example in which the access information providing unit 205 adds the access information after the file generating unit 204 generates the virtual viewpoint video file, but is not limited thereto.
  • virtual viewpoint video data may be added after generating a virtual viewpoint video file in which access information is described.
  • the file processing device 20 outputs the virtual viewpoint video file generated in S107 to the file server 30 (S109). Specifically, the file output unit 206 of the file processing device 20 transmits the virtual viewpoint video file to the file receiving unit 305 of the file server 30.
  • the file server 30 records the virtual viewpoint video file received from the file processing device 20 (S109).
  • the recorded virtual viewpoint video file is open to the public, it is provided to another file processing device 20 (for example, a smartphone or a tablet PC).
  • the output destination of the virtual viewpoint video file is not limited to the file server 30.
  • it may be output to a hard disk connected to the file processing device 20, or may be output to another terminal (for example, a smartphone or a tablet PC).
  • FIG. 1 shows an example in which the material server 10, the file processing device 20, and the file server 30 are connected one by one, but the present invention is not limited to this, and various modifications may be made.
  • the material server 10 and the file server 30 may be the same (or regarded as the same) server, or there may be a system in which a plurality of material servers 10 and a plurality of file servers 30 exist.
  • the file processing device 20 can transmit a material list request to the plurality of material servers 10.
  • the file processing device 20 can transmit a virtual viewpoint video file to the plurality of file servers 30.
  • the file processing device 20 has both a function of generating a virtual viewpoint video file and a function of reproducing the virtual viewpoint video file, but the present invention is not limited to this. That is, the function for generating the virtual viewpoint video file and the function for reproducing the virtual viewpoint video file may exist as different devices. That is, the file processing device 20 of the present embodiment can also be called a file generating device or a file reproducing device.
  • the file processing device 20 of the present embodiment is assumed to generate virtual viewpoint video data after receiving all the material data specified by the user in a lump, but to partially convert the material data every predetermined time.
  • the virtual viewpoint video data may be generated while obtaining the virtual viewpoint video.
  • the file processing device 20 requests a file list from the file server 30 (S201).
  • the file list is information indicating a list of content files that can be provided by the file server 30 to the file processing device 20. However, the data need not necessarily be in the form of a list.
  • the content file indicated by the file list includes a virtual viewpoint video file.
  • the file list receiving unit 207 of the file processing device 20 transmits a request for a file list to the external interface unit 300 of the file server 30 when receiving a user operation related to acquisition of a file list.
  • the file processing device 20 acquires a file list from the file server 30 (S202). Specifically, upon receiving a request from the file processing device 20, the external interface unit 300 of the file server 30 acquires a file list from the file storage unit 302 via the file list acquisition unit 301. Then, the file list is transmitted to the file processing device 20.
  • the file processing device 20 transmits to the file server 30 a request for a virtual viewpoint video file designated by the user among the plurality of content files indicated in the file list (S203). Specifically, the file requesting unit 208 of the file processing device 20 transmits a request including the identification information of the virtual viewpoint video file specified by the user to the external interface unit 300 of the file server 30.
  • the file processing device 20 receives the virtual viewpoint video file from the file server 30 (S204). Specifically, when the external interface unit 300 of the file server 30 receives a request for a virtual viewpoint video file from the file processing device 20, the external interface unit 300 stores the requested virtual viewpoint video file in the file storage unit via the file acquisition unit 303. 302. Then, the obtained virtual viewpoint video file is transmitted to the file receiving unit 210 of the file processing device 20.
  • the file processing device 20 plays back the virtual viewpoint video file acquired in S204 (S205). Specifically, the file reproducing unit 211 of the file processing device 20 decodes the virtual viewpoint video data included in the virtual viewpoint video file received by the file receiving unit 210, and outputs the decoding result to the video output unit 203. Send. Then, the video output unit 203 displays the virtual viewpoint video. At this time, if there is audio data, it is reproduced together with the video.
  • the file processing device 20 determines whether an instruction to acquire material data has been input (S206).
  • the instruction to acquire the material data is typically input by a user operation.
  • the user inputs a material data acquisition instruction when the user desires to view a video from a different viewpoint from the video while reproducing the virtual viewpoint video based on the virtual viewpoint video file acquired from the file server 30.
  • the reproduction of the virtual viewpoint video is continued.
  • the file processing device 20 requests the material server from the file server 30 (S207). Specifically, the material data request unit 209 of the file processing device 20 transmits a request for material data to the file server 30 in response to an input of a user operation related to acquisition of material data.
  • the request for the material data is made based on the access information of the material data. For example, when the access information is a combination of the IP address and the file name of the material server 10, the access information is included in the request for the material data.
  • the material data requesting unit 209 can acquire the material data by transmitting a GET request for the URL. In this case, the GET request may be transmitted directly to the material server 10 instead of the file server 30.
  • the metadata analysis unit 306 of the file server 30 receives a request for material data from the file processing device 20, it refers to the access information included in the request. If the access request is not included in the request for the material data (No in S208), an error is notified to the file processing device 20 (S209). On the other hand, when the access request is included in the request for the material data, the file server 30 transmits the request for the material data to the material server 10 (S210). Specifically, a request for material data is transmitted from the data receiving unit 307 of the file server 30 to the data transmitting unit 104 of the material server 10.
  • the file server 30 acquires the material data and the access information from the material server 10 (S211), and provides the material data and the access information to the file processing device (S212). However, the material data and the access information may be directly transmitted from the material server 10 to the file processing device 20. Steps S213 to S217 in FIG. 4 are the same as S105 to S109 in FIG.
  • an access information version 501A indicates the version of the access information 500, and is information for responding to a change in a parameter stored for each version.
  • the access information flag 502A indicates valid information among information included in the access information 500. For example, bit-assigned data or the like in which 1 indicates valid as a binary value can be used.
  • the database URL 503A indicates the URL of a server (database) that records material data.
  • the database IP address 504A indicates the IP address of a server (database) that records material data.
  • the data ID 505A is an ID (identification information) for uniquely specifying the material data in the server (database) that records the material data.
  • the data name 506A is a data name (identification information) for uniquely specifying the material data in a server (database) that records the material data. Specific examples of the identification information include the title and file name of the material data.
  • the video generation portal site URL 507A is a URL of a portal site including a virtual viewpoint video generation function.
  • the site specified by the URL provides a service that can generate a virtual viewpoint video from the material data specified by the user.
  • the time information 508 of the data used for the video generation indicates the start time and the end time corresponding to the virtual viewpoint video.
  • This time information is information based on the shooting time of the real camera corresponding to the virtual viewpoint video. By using this time information, the user can generate a virtual viewpoint video at the same time again.
  • FIG. 6A is a diagram illustrating the structure of the box. As shown in FIG. 6B, it is also possible to adopt a structure in which a box is included as data in the box.
  • FIG. 7 shows the data structure of a file conforming to ISOBMFF.
  • a file conforming to ISOBMFF includes boxes of ftyp 701 (File ⁇ Compatibility ⁇ Box), moov 702 (Movie ⁇ Box), and mdat 703 (Media ⁇ Data ⁇ Box).
  • the file type information 701 stores information on the file format, for example, the fact that the file conforms to ISOBMFF, the version of the box, the name of the manufacturer that created the file, and the like.
  • the moov 702 (movie box) stores metadata such as a time axis and an address for managing media data.
  • the mdat 703 (media data box) stores media data that is actually reproduced as a moving image.
  • moov 702 can be called a metadata area for storing metadata
  • mdat 703 can be called a media data area for storing media data.
  • FIG. 8 is a diagram showing an example in which the moov 702 describes the access information 500 to the material data.
  • information can be added to meta 801 indicating meta information of the entire file.
  • the access information 500 can be described in the box meta 802 of each track as shown in FIG. 8B.
  • a new box for storing the access information 500 may be defined. In this way, even when an edited moving image in which virtual viewpoint videos generated from different material data are mixed is generated, it is possible to access the material data from each track.
  • Original_Data_Access_info represents the access information 500 to the material data.
  • This box is Box Type: 'odai' Container: Meta box ('meta') Mandatory: No Quantity: Zero or one
  • FIG. 9A shows an example in which the access information 500 is described in a file format conforming to the Exif standard.
  • FIG. 9A defines the used camera information as Data Access Info Image File Directory (hereinafter, DAI IFD) 902 and stores access information 500 to the material data.
  • DAI IFD Data Access Info Image File Directory
  • FIG. 10 shows an example of the configuration of tag information of DAI @ IFD.
  • DAI @ IFD Pointer 901 is a pointer indicating DAI @ IFD902.
  • the version of the DAI tag is a value starting from 1, and indicates the version of the format of the following data.
  • the access information flag is a value of 1 or 0 for each bit, and indicates whether the following information is valid or not, and is represented by a 4-byte unsigned integer.
  • the number of characters of the database URL indicates the number of characters of the database URL, and is represented by a 4-byte unsigned integer.
  • the database URL indicates the URL of the database and is expressed in ASCII.
  • ASCII is an 8-bit byte containing one 7-bit ASCII code.
  • the database IP address indicates the IP address of the database, and is expressed in ASCII.
  • the data ID is an ID for uniquely specifying data, and is represented by a 4-byte unsigned integer.
  • the data name character number indicates the number of characters in the data name, and is represented by a 4-byte unsigned integer.
  • the data name indicates a data name and is expressed in ASCII.
  • the number of characters of the video generation portal site URL indicates the number of characters of the URL of the video generation portal site, and is represented by a 4-byte unsigned integer.
  • the video generation portal site URL indicates the URL of a portal site that provides a virtual viewpoint video generation service, and is expressed in ASCII.
  • the data use start time and the data use end time indicate from which time to which time the material viewpoint data was used to generate the virtual viewpoint video.
  • the data use start time and the data use end time are represented by 4-byte unsigned integers, for example, using a system that indicates hours, minutes, seconds, and frames in 1-byte decimal numbers.
  • the order and data length of the above information are not limited to these.
  • not all information shown in FIG. 10 is indispensable as the access information 500. Further, information other than the information shown in FIG. 10 may be included in the access information 500.
  • FIG. 9B shows an example in which the access information 500 is stored in a format compliant with APP3 (811), which is an undefined APPn marker that is not defined in the Exif standard but can be used arbitrarily by a vendor or an industry group. ing.
  • APP3 811
  • a region for storing the access information 500 to the material data is additionally defined in the existing Exif standard still image file format, and a virtual viewpoint video with virtual viewpoint parameters can be generated.
  • the ISOBMFF standard as the moving image format and the Exif standard as the still image format have been described as examples.
  • the format is not limited to this, and other formats or original formats may be used.
  • the value and expression of each parameter included in the access information 500 are not limited to the above example.
  • the file processing device 20 operates as a client of a video distribution service that uses a web page as a video portal site.
  • the file processing device 20 has a web browser.
  • the web browser analyzes the web page data transmitted from the file server 30 and reconfigures the screen, so that the user browses the video portal site.
  • FIG. 11 is a diagram exemplifying a top screen of a video portal site.
  • the top screen includes a search bar 1100 for searching for a moving image by a keyword, a menu screen 1101 for searching for a moving image from a genre, etc., a recommended file list 1102, and the like.
  • Each moving image indicated by the recommended file list 1102 includes a thumbnail screen, a title, a contributor, and the number of times of viewing. For example, when the user clicks a moving image with a mouse or the like, a transition is made to a moving image reproduction screen.
  • FIG. 12 is a diagram exemplifying a moving image reproduction screen.
  • the moving image reproduction screen includes a moving image window 1200 on which a moving image is displayed, a reproduction button, a stop button, and a reproduction operation bar 1201 including a seek bar for specifying a temporal reproduction position.
  • the moving image reproduction screen has an access button 1202 for material data.
  • the metadata analysis unit 306 of the file server 30 of the present embodiment determines whether the virtual viewpoint video file provided to the file processing device 20 includes the access information 500. Then, when it is determined that the access information 500 is included, the file server 30 can add an access button 1202 (predetermined area) to the material data on the moving image reproduction screen displayed by the file processing device 20. .
  • FIG. 13 is a diagram illustrating a screen on which the file processing apparatus 20 acquires material data from the file server 30 (or the material server 10) and generates a virtual viewpoint video. The screen in FIG.
  • 13 includes a window 1300 for reproducing a virtual viewpoint video, a time designation bar 1301 for specifying a time to be edited, an edit start button 1302, an edit stop button 1303, a still operation button 1304, and a virtual viewpoint video. It has a playback bar 1305.
  • the user specifies the time to start editing on the time specification bar 1301.
  • the time starts to advance, and the user operates the virtual viewpoint using a mouse, a dedicated controller, or the like.
  • a virtual viewpoint video based on the original viewpoint is generated.
  • the edit stop button 1303 the editing ends.
  • a newly generated virtual viewpoint video can be confirmed.
  • a virtual viewpoint video file including virtual viewpoint video data and access information 500 for accessing material data used for generating the virtual viewpoint video data is generated.
  • the file processing device 20 that has acquired the virtual viewpoint video file can access the material data based on the access information, and can easily generate virtual viewpoint videos of different viewpoints.
  • the present invention is not limited to this.
  • the file processing device 20 may directly request the material server 10 for the material data.
  • the material data access button 1202 is not limited to this, and may be an expression that does not directly indicate whether the material data can be accessed, such as a “reconfigurable button” or an “edit button”.
  • FIG. 14 is a block diagram for explaining details of the material server 40, the file processing device 50, and the file server 60 in the second embodiment. The same numbers are given to the same blocks as in FIG. 1 and the description is omitted.
  • the fact that the file processing device 50 outputs a virtual viewpoint video file having virtual viewpoint video data and access information to material data to the file server 60 is common to the first embodiment and the second embodiment.
  • the file processing device 50 acquires a virtual viewpoint video file from the file server 60, acquires material data from the material server 40 based on the access information included in the file, and obtains a virtual viewpoint image based on the new virtual viewpoint. A case of generating video data will be described.
  • the file receiving unit 501 of the file processing device 50 transmits the metadata in the virtual viewpoint video file to the metadata analyzing unit 502 in response to a predetermined user operation (for example, an instruction to acquire material data).
  • the metadata analysis unit 502 analyzes the metadata received from the file reception unit 501 and extracts access information to the material data of the virtual viewpoint video file. If the access information to the material data is not included in the metadata, the metadata analysis unit 502 notifies the file reception unit 501 of the fact. In this case, the video output unit 203 displays an image indicating that the material data cannot be accessed.
  • the metadata analysis unit 502 transmits the access information to the data receiving unit 503.
  • Specific examples of the access information are as described in the first embodiment. That is, there may be a combination of the IP address of the device (material server 10) that records the material data and identification information (data ID) for specifying the material data. Another example of the access information may be a URL indicating the location of specific material data.
  • the data receiving unit 503 acquires material data based on the access information. For example, when the access information is the IP address and the data ID of the material server 40, the data receiving unit 503 requests the external interface unit 100 of the material server 40 to specify the data ID and request the material data.
  • the external interface unit 100 of the material server 40 acquires the material data from the data storage unit 102 via the data acquisition unit 103, and transmits the acquired data to the file processing device 50 via the data transmission unit 104.
  • the data receiving unit 503 of the file processing device 50 provides the material data received from the material server 40 to the virtual viewpoint video generation unit 201 and also provides access information to the access information providing unit 205. In this way, even when a virtual viewpoint video file is generated based on newly generated virtual viewpoint video data, access information of the material data used for the generation can be included.
  • the file processing device 50 analyzes the access information to the material data for generating the virtual viewpoint video, and acquires the material data.
  • the material data can be obtained without the intervention of the file server 60. Therefore, effects such as a reduction in the time required for obtaining the material data and a reduction in the load on the entire system can be expected.
  • the three-dimensional shape of the foreground is determined based on the positional relationship between the components (eg, voxels) of the three-dimensional shape data of the object (foreground) and the components (eg, pixels) of the captured image.
  • the description is made on the assumption that coloring is performed.
  • such a coloring process involves a three-dimensional calculation, so that the processing load is high. Therefore, there is a possibility that the function as the file processing device 50 cannot be realized by a terminal such as a smartphone. Therefore, for example, by using the following method, it is possible to generate a virtual viewpoint video even in a terminal having a low processing performance such as a smartphone.
  • the material server 40 determines whether the color of each component of the three-dimensional shape data of the object is determined in advance, and colored three-dimensional shape data is generated. Then, the material server 40 provides the colored three-dimensional shape data to the file processing device 50 as material data. In this way, the virtual viewpoint video generation unit 201 of the file processing device 50 can omit the coloring process for the three-dimensional shape data.
  • a method of reducing the processing load such as reducing the image size or reducing the frame rate may be adopted.
  • Material data and a rendering method may be selected in accordance with the performance and load status of the processing terminal (file processing device 50).
  • the virtual viewpoint video file may be a file conforming to a file format of a moving image, a file conforming to a file format of a still image, or a file conforming to a file format of an image sequence. May be.
  • a still image file including still image data (virtual viewpoint still image) and access information may be generated and provided to the file processing device 20.
  • the file processing device 20 reproduces a still image based on the still image data.
  • the file processing device 20 may acquire material data from the material server 10 and generate a still image based on another angle different from the still image. In this way, for example, when the user wants to view from another angle while reproducing a still image based on one angle, a new still image whose angle has been changed can be easily generated.
  • an image file including access information to a still image before the image processing is performed may be provided to the file processing device 20 that performs image processing such as image size change, trimming, and color adjustment. . In this way, the original still image can be reprocessed.
  • an image file including access information to the moving image before performing the image processing is transmitted to a moving image processing apparatus that performs processing such as changing an image size, changing a frame rate, and trimming in a time direction. May be provided.
  • FIG. 15 shows an example of a file processing device 70 including an encryption unit 700 for encrypting access information to material data and an decryption unit 800 for decrypting access information to material data.
  • the file processing device 70 generates a virtual viewpoint video file including access information to the material data encrypted by the encryption unit 700. Further, the file processing device 70 sets a specific bit of the access information flag to indicate that the access information is encrypted. Here, the 31st bit is used as an access information flag.
  • the file server 80 checks the access information flag in the analysis of the access information to the material data, and checks whether the access information to the material data is encrypted. I do.
  • the decryption unit 800 If it has been encrypted, it requests the decryption unit 800 to decrypt the access information to the material data, obtains access information to the decrypted material data, and accesses the material data. As a result, the confidentiality of the access information to the material data can be enhanced, and unauthorized access can be prevented.
  • the file processing device 20 has both the function of generating the virtual viewpoint video file and the function of reproducing the virtual viewpoint video file.
  • a first file processing device (file generating device) having only a function of generating a virtual viewpoint video file and a second file processing device corresponding to the file processing device 20 in FIG. 1 may be provided.
  • the file processing device 20 may acquire virtual viewpoint video data and access information from the virtual viewpoint video generation device, and generate a virtual viewpoint video file including the virtual viewpoint video data and access information.
  • the virtual viewpoint video data and the access information may be obtained from different devices.
  • the material server 10 and the file server 30 may be integrated.
  • the present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
  • a circuit for example, an ASIC

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ファイル処理装置20は、仮想視点映像データの生成のための素材データの要求のために用いられるアクセス情報を取得し(S104)、前記取得されたアクセス情報と仮想視点映像データとを含む仮想視点映像ファイルを生成し(S107)、前記生成された仮想視点映像ファイルを出力する(S108)。

Description

ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
 本発明は、仮想視点映像ファイルの処理に関する。
 複数のカメラを用いて得られる複数の撮像画像に基づいて、仮想カメラの位置及び向きに応じた仮想視点画像を作る方法が知られている。
 特開2017-211828号公報は、複数のカメラを用いて得られる複数の撮影画像に基づいて、前景テクスチャ画像、背景テクスチャ画像、及び3Dモデルなどのデータ(以下では素材データと呼ぶ)を生成し、該素材データを用いて仮想視点映像を生成することを開示している。
特開2017-211828号公報
 仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを生成することは容易ではなかった。
 例えば、他者が設定した仮想カメラワークに基づいて生成された仮想視点映像を閲覧したユーザが、別の仮想カメラワークに基づくオリジナルの仮想視点映像を生成したいと考える場合がある。その場合、仮想視点映像の生成のための素材データの所在を調べ、該素材データを取得し、新たな仮想視点映像データを生成することが考えられるが、それでは煩雑な作業が発生する。また、素材データを見つけることができなければ、新たな仮想視点映像データを生成できないこともあり得る。
 本発明は上記の課題を鑑みてなされたものであり、その目的は、仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを容易に生成できるようにすることである。
 上記課題を解決するため、本発明のファイル生成装置は、例えば以下の構成を有する。すなわち、複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを生成するファイル生成装置であって、仮想視点映像データの生成のための素材データの要求のために用いられるアクセス情報を取得する取得手段と、前記取得手段により取得されたアクセス情報と前記仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成手段と、前記ファイル生成手段により生成された仮想視点映像ファイルを出力する出力手段と、を有する。
 本発明によれば、仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを容易に生成できるようになる。
第一実施形態の機能ブロック図である。 撮影システムを説明するための図である。 仮想視点映像ファイルの生成に関するシーケンス図である。 仮想視点映像ファイルの再生に関するシーケンス図である。 素材データへのアクセス情報を例示した図である。 ISOBMFFに準拠するボックスの構造の一例である。 ISOBMFFに準拠するボックスの構造の一例である。 ISOBMFFに基づくファイル構造の一例である。 ISOBMFFに準拠するムービーボックスにアクセス情報を記述する例を示す図である。 ISOBMFFに準拠するムービーボックスにアクセス情報を記述する例を示す図である。 ISOBMFFに準拠するムービーボックスにアクセス情報を記述する例を示す図である。 静止画フォーマットにアクセス情報を記述する方法を例示した図である。 静止画フォーマットにアクセス情報を記述する方法を例示した図である。 素材データアクセス情報のタグ情報を例示した図である。 動画ポータルサイトのトップ画面を例示した図である。 動画ポータルサイトの動画再生画面を例示した図である。 仮想視点映像の生成画面を例示した図である。 第二実施形態の機能ブロック図である。 その他の実施形態の機能ブロック図である。 ファイル処理装置20のハードウェア構成を示す図である。
 <第一実施形態>
 図1は、第一実施形態における素材サーバ10、ファイル処理装置20、及びファイルサーバ30の機能を説明するためのブロック図である。なお、本実施形態における各装置の機能は、図16にて示すハードウェア資源により実現される。図16はファイル処理装置20のハードウェア構成を説明するための図であるが、素材サーバ10及びファイルサーバ30のハードウェア構成もファイル処理装置20のそれと同様である。図16において、CPU1601は、RAM1602をワークメモリとして、ROM1603及び/又はハードディスクドライブ(HDD)1605に格納されたプログラムを実行する。これにより、後述する様々な処理が実行される。HDDインタフェース(I/F)1604は、ファイル処理装置20と、HDD1605や光ディスクドライブなどの二次記憶装置とを接続するためのインタフェースである。入力インタフェース(I/F)106は、1又は複数の座標を入力するためのタッチパネル、キーボード、マウス、デジタルカメラ、及びスキャナなどの入力デバイス1607とファイル処理装置20とを接続するためのインタフェースである。入力インタフェース(I/F)1606は、例えばUSBやIEEE1394等のシリアルバスインタフェースである。出力インタフェース(I/F)1608は、ディスプレイなどの出力デバイス1609とファイル処理装置20とを接続するためのインタフェースである。ネットワークインタフェース(I/F)1610は、ファイル処理装置20と外部の装置(例えば、素材サーバ10及びファイルサーバ30)とを接続するためのインタフェースである。CPU1601は、ネットワークI/F1610を介して外部の装置データのやり取りを行うことが可能である。
 なお、ファイル処理装置20は複数のCPU1601を有してもよい。また、CPU1601とは異なる専用の1又は複数のハードウェアを有し、CPU1601による処理の少なくとも一部を専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、GPU(Graphics Processing Unit)やASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などがある。
 図3は、仮想視点映像ファイルを生成するときの素材サーバ10、ファイル処理装置20、及びファイルサーバ30の処理の流れを説明するためのシーケンス図である。以下、図1及び図3を用いて各装置の機能及び動作について説明する。
 まず、ファイル処理装置20は、素材サーバ10に対して素材リストを要求する(S101)。具体的には、ファイル処理装置20のデータ受信部200は、ユーザ操作の入力に応じて、素材サーバ10の外部インタフェース部100に対して素材リストの要求を送信する。本実施形態において、素材リストとは、素材サーバ10が提供可能な素材データをリスト化したデータである。
 また、本実施形態において素材データとは、仮想視点映像の生成のために用いられるデータである。素材データの一例としては、オブジェクト(例えばスポーツ選手やボールなど)の3次元形状を示す3次元形状データと、該オブジェクトのテクスチャデータと、背景画像のテクスチャデータである。これらの素材データを用いることで、仮想視点(仮想カメラ)の位置と向きに応じた仮想視点映像を生成することができる。また、素材データの別の例としては、複数のカメラによる撮影画像と、各カメラの位置、姿勢、及び画角に関するカメラ情報であっても良い。これらの素材データを用いることによっても、仮想視点(仮想カメラ)の位置と向きに応じた仮想視点映像を生成することができる。なお、このような素材データは、図2に示すような撮像システムを用いることによって得られる。図2に示すように、複数のカメラが所定の撮影領域を異なる方向から同期撮影を行うことで得られる撮影画像を用いることによって、該撮影領域内に存在するオブジェクトの形状やテクスチャデータが得られる。具体的なアルゴリズムとしては、VisualHullなど公知の手法を用いることができる。また、図2に示す各カメラの位置、姿勢、及び画像角度に関するカメラ情報は、例えば、各カメラの撮影画像に基づいて得ることができる。
 なお、本実施形態の素材リストには、提供可能な素材データの種別、時間帯、撮影場所、及び、該素材データを要求するためのアクセス情報が含まれる。なお、本実施形態では素材リストという名称を用いているが、必ずしもリスト形式のデータでなければならないわけではない。また、上述した情報(種別、時間帯、撮影場所、アクセス情報)のすべてが必ずしも必須の情報であることは限らない。上述した情報のうち一部が素材リストに含まれていなくても良いし、別の情報が加えられていても良い。
 また、アクセス情報は、例えば、素材データを記録する記録装置(素材サーバ10)のIPアドレス、又は、素材データの所在を示すURL(Uniform Resource Locator)を含み得る。また、アクセス情報は、例えば、素材データを格納するファイルの名称(ファイル名)、及び、素材データを識別するための識別情報(例えばタイトル)のうち、少なくとも何れか一方を含んでいても良い。
 図2のS102において、ファイル処理装置20は、素材サーバ10から素材リストを受信する。具体的には、素材サーバ10の外部インタフェース部100は、素材リストの要求を受けると、データリスト取得部101を介してデータ蓄積部102から素材リストを取得し、その素材リストをファイル処理装置20のデータ受信部200に対して送信する。
 そして、ファイル処理装置20は、素材サーバ10に対して素材データを要求する(S103)。具体的には、ファイル処理装置20のデータ受信部200は、ユーザによる素材データの選択操作に応じて、素材サーバ10の外部インタフェース部100に対して素材データの要求を送信する。
 そして、ファイル処理装置20は、素材サーバ10から素材データを受信する(S104)。具体的には、素材サーバ10の外部インタフェース部100は、ファイル処理装置20から素材データの要求を受けると、データ取得部103を介してデータ蓄積部102から素材データを取得する。そして、該素材データをファイル処理装置20のデータ受信部200に対して送信する。
 そして、ファイル処理装置20は、仮想視点の情報を取得する(S105)。具体的には、仮想視点入力部202から仮想視点の位置、向き、及び画角などに関する仮想視点情報の入力を受付ける。本実施形態において、仮想視点情報はユーザ操作に基づいて決定される情報であるものとするが、これに限らず、自動的に仮想カメラが操縦されるようにしても良い。
 そして、ファイル処理装置20の仮想視点映像生成部201は、S104において取得された素材データと、S105において入力された仮想視点情報とに基づいて、仮想視点映像データを生成する(S106)。
 そして、ファイル処理装置20のファイル生成部204は、S106において生成された仮想視点映像データに基づいて仮想視点映像ファイルを生成する(S107)。本実施形態のファイル処理装置20は、仮想視点映像データの生成のために用いられた素材データの要求のアクセス情報を含む仮想視点映像ファイルを生成する。なお、図1は、ファイル生成部204が仮想視点映像ファイルを生成したあとにアクセス情報付与部205がアクセス情報を付加する例を示しているが、これに限らない。例えば、アクセス情報が記述された仮想視点映像ファイルを生成したあとに、仮想視点映像データを付加するようにしても良い。
 そして、ファイル処理装置20は、S107において生成された仮想視点映像ファイルをファイルサーバ30へ出力する(S109)。具体的には、ファイル処理装置20のファイル出力部206が、ファイルサーバ30のファイル受信部305に対して仮想視点映像ファイルを送信する。
 そして、ファイルサーバ30は、ファイル処理装置20から受け取った仮想視点映像ファイルを記録する(S109)。記録された仮想視点映像ファイルは、一般公開された場合、他のファイル処理装置20(例えばスマートフォンやタブレットPCなど)へ提供される。
 なお、仮想視点映像ファイルの出力先はファイルサーバ30に限らない。例えば、ファイル処理装置20に接続されるハードディスクに出力されても良いし、他の端末(例えばスマートフォンやタブレットPCなど)に出力されても良い。
 また、図1は、素材サーバ10、ファイル処理装置20、及びファイルサーバ30がそれぞれ1台ずつ接続される例を示しているが、これに限らず、種々の変形例があり得る。例えば、素材サーバ10とファイルサーバ30が同一の(又は同一とみなせる)サーバであっても良いし、複数の素材サーバ10と複数のファイルサーバ30が存在するシステムもあり得る。例えば、素材サーバ10が複数存在する場合、ファイル処理装置20は該複数の素材サーバ10に対して、素材リストの要求を送信しうる。また、複数のファイルサーバ30が存在する場合、ファイル処理装置20は該複数のファイルサーバ30に対して、仮想視点映像ファイルを送信しうる。また、図1では、ファイル処理装置20が仮想視点映像ファイルを生成する機能と、仮想視点映像ファイルを再生する機能の両方を有している例を示しているが、これに限らない。すなわち、仮想視点映像ファイルを生成するための機能と、仮想視点映像ファイルを再生するための機能とが別の装置として存在することもありうる。すなわち、本実施形態のファイル処理装置20は、ファイル生成装置やファイル再生装置と呼ぶこともできる。
 また、本実施形態のファイル処理装置20は、ユーザにより指定された素材データを一括ですべて受信してから仮想視点映像データを生成することを想定しているが、所定時間ごとの素材データを部分的に取得しながら、仮想視点映像データを生成しても良い。
 次に、本実施形態のファイル処理装置20が仮想視点映像ファイルを再生するときの素材サーバ10、ファイル処理装置20、及びファイルサーバ30の処理の流れについて、図1及び図4を用いて説明する。
 まず、ファイル処理装置20は、ファイルサーバ30に対してファイルリストを要求する(S201)。ファイルリストとは、ファイルサーバ30がファイル処理装置20に対して提供可能なコンテンツファイルの一覧を示す情報である。ただし、必ずしもリスト形式のデータである必要はない。また、ファイルリストが示すコンテンツファイルには、仮想視点映像ファイルが含まれる。本実施形態のファイル処理装置20のファイルリスト受信部207は、ファイルリストの取得に関するユーザ操作を受け付けると、ファイルリストの要求をファイルサーバ30の外部インタフェース部300に対して送信する。
 そして、ファイル処理装置20は、ファイルサーバ30からファイルリストを取得する(S202)。具体的には、ファイルサーバ30の外部インタフェース部300は、ファイル処理装置20からの要求を受信すると、ファイルリスト取得部301を介してファイル蓄積部302からファイルリストを取得する。そして、そのファイルリストをファイル処理装置20に対して送信する。
 そして、ファイル処理装置20は、ファイルリストにおいて示された複数のコンテンツファイルのうち、ユーザにより指定された仮想視点映像ファイルの要求をファイルサーバ30に対して送信する(S203)。具体的には、ファイル処理装置20のファイル要求部208が、ユーザにより指定された仮想視点映像ファイルの識別情報を含む要求をファイルサーバ30の外部インタフェース部300に対して送信する。
 そして、ファイル処理装置20は、ファイルサーバ30から仮想視点映像ファイルを受信する(S204)。具体的には、ファイルサーバ30の外部インタフェース部300は、ファイル処理装置20から仮想視点映像ファイルの要求を受けると、該要求された仮想視点映像ファイルを、ファイル取得部303を介してファイル蓄積部302から取得する。そして、該取得された仮想視点映像ファイルをファイル処理装置20のファイル受信部210に対して送信する。
 そして、ファイル処理装置20は、S204において取得した仮想視点映像ファイルを再生する(S205)。具体的には、ファイル処理装置20のファイル再生部211が、ファイル受信部210により受信された仮想視点映像ファイルに含まれる仮想視点映像データをデコードし、デコードの結果を映像出力部203に対して送信する。そして、映像出力部203は、仮想視点映像を表示させる。このとき、オーディオデータもあれば、映像と合わせて再生される。
 そして、ファイル処理装置20は、素材データの取得指示が入力されたか判定する(S206)。素材データの取得指示は、典型的には、ユーザ操作により入力される。ユーザは、ファイルサーバ30から取得した仮想視点映像ファイルに基づく仮想視点映像を再生中に、該映像とは異なる視点から映像を視聴したいと考えた場合に、素材データの取得指示を入力する。素材データの取得指示が入力されなかった場合、仮想視点映像の再生が継続される。
 一方、素材データの取得指示が入力された場合、ファイル処理装置20は、素材データをファイルサーバ30に対して要求する(S207)。具体的には、ファイル処理装置20の素材データ要求部209が、素材データの取得に関するユーザ操作の入力に応じて、ファイルサーバ30に対して素材データの要求を送信する。この素材データの要求は、素材データのアクセス情報に基づいて行われる。例えば、アクセス情報が素材サーバ10のIPアドレスとファイル名の組み合わせである場合、該アクセス情報が素材データの要求に含まれる。また、例えば、アクセス情報がURLである場合、素材データ要求部209は、該URLに対するGETリクエストを送信することにより、素材データを取得できる。この場合、GETリクエストはファイルサーバ30ではなく、素材サーバ10に直接送信されることがある。
 ファイルサーバ30のメタデータ解析部306は、ファイル処理装置20から素材データの要求を受け付けた場合、該要求に含まれるアクセス情報を参照する。もし素材データの要求にアクセス情報が含まれていない場合(S208でNo)、ファイル処理装置20に対してエラーが通知される(S209)。一方、素材データの要求にアクセス情報が含まれる場合、ファイルサーバ30は、素材サーバ10に対して素材データの要求を送信する(S210)。具体的には、ファイルサーバ30のデータ受信部307から素材サーバ10のデータ送信部104に対して素材データの要求が送信される。その後、ファイルサーバ30は素材サーバ10から素材データ及びアクセス情報を取得し(S211)、その素材データとアクセス情報をファイル処理装置へ提供する(S212)。ただし、素材サーバ10からファイル処理装置20に対して直接的に素材データとアクセス情報が送信されるようにしても良い。図4のS213~S217は、図3のS105~S109と同様である。
 次に図5を用いて、素材データのアクセス情報について詳細に説明する。図5において、アクセス情報バージョン501Aは、アクセス情報500のバージョンを示し、バージョンごとに格納するパラメータが変わることに対応するための情報である。
 アクセス情報フラグ502Aは、アクセス情報500に含まれる情報のうち、有効な情報を示す。たとえば、二値の値で、1が有効を示すようなビットアサインのデータ等を使用できる。
 データベースURL503Aは、素材データを記録するサーバ(データベース)のURLを示す。データベースIPアドレス504Aは、素材データを記録するサーバ(データベース)のIPアドレスを示す。
 データID505Aは、素材データを記録するサーバ(データベース)において、素材データを一意に特定するためのID(識別情報)である。また、データ名506Aは、素材データを記録するサーバ(データベース)において、素材データを一意に特定するためのデータ名(識別情報)である。識別情報の具体例としては、素材データのタイトルやファイル名などである。
 映像生成ポータルサイトURL507Aは、仮想視点映像の生成機能を含むポータルサイトのURLである。このURLによって特定されるサイトは、ユーザが指定した素材データから仮想視点映像を生成できるサービスを提供するものとする。
 映像生成に用いたデータの時間情報508は、仮想視点映像に対応する開始時間及び終了時間等を示す。この時間情報は、仮想視点映像に対応する実カメラの撮影時刻に基づく情報である。この時間情報を用いることで、ユーザは同じ時間の仮想視点映像を再度生成することができる。
 なお、図5で示す情報のすべてがアクセス情報として含まれていなければならないわけではないことに留意されたい。
 次に、アクセス情報をISO/IEC14496-12(MPEG-4 Part12) ISO base media format(以下、ISOBMFF)規格に準拠した動画用ファイルフォーマットに格納する場合の例について詳細に説明する。
 ISOBMFFは、サイズとタイプを示す情報とデータとが格納されるボックスという単位でファイルを扱う。図6Aはボックスの構造を例示した図である。図6Bのように、ボックスの中にデータとしてボックスを含む構造とすることも可能である。
 図7はISOBMFFに準拠したファイルのデータ構造を示している。図7に示すように、ISOBMFFに準拠したファイルは、ftyp701(File Type Compatibility Box)、moov702(Movie Box)、及びmdat703(Media Data Box)のボックスを含む。ftyp701にはファイルフォーマットの情報、例えばファイルがISOBMFFに準拠していることや、ボックスのバージョン、ファイルを作成したメーカ名称等が格納される。moov702(ムービーボックス)には、メディアデータを管理するための時間軸、アドレスなどのメタデータが格納される。mdat703(メディアデータボックス)には、実際に動画として再生されるメディアデータが格納される。本実施形態において、moov702はメタデータを格納するためのメタデータ領域、mdat703はメディアデータを格納するためのメディアデータ領域と呼ぶことができる。
 図8は、moov702に、素材データへのアクセス情報500を記述する例を示した図である。図8Aのように、ファイル全体のメタ情報を示すmeta801に情報を付与することができる。またトラックごとに異なる映像をつなぎ合わせて編集されたファイルの場合は、図8Bのように、各トラックのボックスmeta802にアクセス情報500を記述することも可能である。また、図8Cのように、アクセス情報500を格納する新たなボックスを定義しても良い。こうすることで、異なる素材データから生成された仮想視点映像を混在させた編集動画を生成した場合でも、それぞれのトラックから素材データへアクセスすることが可能となる。
 アクセス情報500を格納するための新たなボックスの例を以下に示す。
aligned(8) class MetaBox (handler_type)
extends FullBox(‘meta’, version = 0, 0) {
HandlerBox(handler_type) theHandler;
PrimaryItemBox primary_resource; // optional
DataInformationBox file_locations; // optional
ItemLocationBox item_locations; // optional
ItemProtectionBox protections; // optional
ItemInfoBox item_infos; // optional
IPMPControlBox IPMP_control; // optional
ItemReferenceBox item_refs; // optional
ItemDataBox item_data; // optional
Original_Data_Access_info // optional
Box other_boxes[]; // optional
 ここで、Original_Data_Access_infoが素材データへのアクセス情報500を表す。このボックスは
Box Type: ‘odai’
Container: Meta box (‘meta’)
Mandatory: No
Quantity: Zero or one
そのシンタックスは
aligned(8) class ItemLocationBox extends FullBox(‘odai’,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1) {
unsigned int(32) index_size;
} else {
unsigned int(32) reserved;
unsigned int(32) ; //

for (i=0, i<4; i++) {
unsigned char(8) Information Version[i]; //アクセス情報バージョン}
unsigned int(32) Access Info Flag; //アクセス情報フラグ
unsigned int(32) Database URL Character Num;
//データベースURL文字数
for (i=0, i<Database URL Character Num; i++) {
char(8) Database URL[i]; /データベースURL

for (i=0, i<15; i++) {
char(8) Database IP Address[i]; //データベースIPアドレス

unsigned int(32) Data Name Character Num; //データ名 文字数
for (i=0, i<Database Name Character Num; i++) {
char(8) Database Name[i]; //データ名

unsigned int(32) Video Create Portal Site URL Character Num;
//映像生成ポータルサイトURL 文字数
for (i=0, i< Video Create Portal Site URL Character Num; i++) {
char(8) Video Create Portal Site URL [i];
//映像生成ポータルサイトURL

unsigned int(32) Start Time Of Using Data; //データ使用開始時間
unsigned int(32) End Time Of Using Data; //データ使用終了時間

となる。なお、アクセス情報500はボックスで構成されるため、図8Cのように別途設定しても構わない。また、ISOBMFFは一例であり、アクセス情報500が他のファイルフォーマットに準拠したファイルにメタデータとして格納されるようにしても良い。
 以下、カメラ映像機器工業会規格DC-008-2012デジタルスチルカメラ用画像ファイルフォーマット規格Exif2.3に準拠したフォーマットでアクセス情報500を記述する場合の例について説明する。図9Aは、Exif規格に準拠したファイルフォーマットに、アクセス情報500を記述する場合の例を示している。
 図9Aは、使用カメラ情報を、Data Access Info Image File Directory(以下、DAI IFD)902として定義し、素材データへのアクセス情報500を格納している。図10に、DAI IFDのタグ情報の構成の一例を示す。また、DAI IFD Pointer901は、DAI IFD902を指し示すポインタである。
 図10において、DAIタグのバージョンは1から始まる値であり、以下に続くデータのフォーマットのバージョンを表している。アクセス情報フラグはビットごとの1又は0の値で、以下に続く情報が有効か否かを示し、4バイト符号なし整数で表現される。データベースURL文字数は、データベースURLの文字数を示し、4バイト符号なし整数で表現される。データベースURLは、データベースのURLを示し、ASCIIで表現される。ASCIIは、1つの7ピットASCIIコードを納めた8ビットバイトである。データベースIPアドレスは、データベースのIPアドレスを示し、ASCIIで表現される。データIDは、データを一意に特定するためのIDであり、4バイト符号なし整数で表現される。データ名文字数は、データ名の文字数を示し、4バイト符号なし整数で表現される。データ名は、データ名を示し、ASCIIで表現される。
 映像生成ポータルサイトURL文字数は、映像生成ポータルサイトのURLの文字数を示し、4バイト符号なし整数で表現される。映像生成ポータルサイトURLは仮想視点映像生成のサービスを提供するポータルサイトのURLを示し、ASCIIで表現される。データ使用開始時間及びデータ使用終了時間は、どの時間からどの時間までの素材データで仮想視点映像が生成されたかを示す。データ使用開始時間及びデータ使用終了時間は、4バイト符号なし整数で表現され、たとえば1バイトずつ10進数で時間、分、秒、及びフレームを示す方式を用いる。ただし、上記の情報の順序、データ長はこれに限定されない。また、図10で示すすべての情報がアクセス情報500として必須であるとは限らない。また、図10で示す情報以外の情報がアクセス情報500に含まれることもありうる。
 図9Bは、Exif規格では定義されていないが、ベンダーあるいは業界団体が任意に利用することができる未定義のAPPnマーカであるAPP3(811)に準拠する形式でアクセス情報500を格納する例を示している。このように、既存の静止画用ファイルフォーマットであるExif規格に、素材データへのアクセス情報500を格納するための領域を追加定義し、仮想視点パラメータ付き仮想視点映像を生成することができる。
 上記実施形態では、動画フォーマットとしてISOBMFF規格、静止画フォーマットとしてExif規格を例に説明したが、フォーマットはこれに限るものではなく、他の規格であっても、独自のフォーマットであっても構わない。また、アクセス情報500に含まれる各パラメータの値及び表現は上述の例に限定されない。
 また、今回はネットワークでつながった機器同士が連携する例について紹介したが、ひとつの装置内に素材データと、その素材データから生成された仮想視点映像がある場合は、ローカルフォルダパス等で素材データへのアクセス情報を表現することもできる。
 次に、webページを動画ポータルサイトとする動画配信サービスのクライアントとして、ファイル処理装置20が動作する場合の例について説明する。ファイル処理装置20は、webブラウザを有するものとする。webブラウザは、ファイルサーバ30から送信されたwebページデータを解析し、画面を再構成することで、ユーザは動画ポータルサイトを閲覧する。
 図11は動画ポータルサイトのトップ画面を例示した図である。トップ画面は、キーワードで動画を検索可能な検索バー1100、ジャンル等から動画を検索できるメニュー画面1101、おすすめファイルリスト1102などから構成される。おすすめファイルリスト1102により示される各動画は、サムネイル画面、タイトル、投稿者、及び視聴回数などで構成される。例えばユーザが、マウスなどで動画をクリックすると、動画再生画面に遷移する。
 図12は、動画再生画面を例示した図である。動画再生画面は、動画が表示される動画ウィンドウ1200、再生ボタン、停止ボタン、及び時間的な再生位置を指定するシークバーなどを備えた再生操作バー1201を有する。また、動画再生画面は、素材データへのアクセスボタン1202を有する。
 例えば、本実施形態のファイルサーバ30のメタデータ解析部306は、ファイル処理装置20に対して提供する仮想視点映像ファイルにアクセス情報500が含まれているかを判定する。そしてファイルサーバ30は、アクセス情報500が含まれていると判定された場合、ファイル処理装置20により表示される動画再生画面上に、素材データへのアクセスボタン1202(所定領域)を加えることができる。
 ユーザが再生中の仮想視点映像と同じ素材データに基づいて異なる視点の仮想視点映像を生成したいと考えた場合、素材データへのアクセスボタン1202を押下(クリック)する。そのユーザ操作に応じて、素材データ要求部209がファイルサーバ30に対し、素材データを要求し、前述の通り、ファイルサーバ30(又は素材サーバ10)から素材データを取得する。図13は、ファイル処理装置20がファイルサーバ30(又は素材サーバ10)から素材データを取得して、仮想視点映像を生成するための画面を例示する図である。図13の画面は、仮想視点映像を再生するウィンドウ1300、編集対象とする時間の指定のための時間指定バー1301、編集スタートボタン1302、編集ストップボタン1303、静止操作ボタン1304、及び、仮想視点映像再生バー1305を有する。
 ユーザは、時間指定バー1301で、編集を開始する時間を指定する。そして、編集スタートボタン1302を押下すると時間が進み始め、ユーザはマウスや専用コントローラなどを使って仮想視点を操作する。これにより、オリジナルの視点に基づく仮想視点映像が生成される。ユーザが編集ストップボタン1303を押下すると編集が終了する。仮想視点映像再生バー1305を操作すると、新たに生成された仮想視点映像を確認することができる。
 以上、第一実施形態では、仮想視点映像データと、該仮想視点映像データの生成に用いられた素材データにアクセスするためのアクセス情報500とを含む仮想視点映像ファイルを生成する。これにより、該仮想視点映像ファイルを取得したファイル処理装置20は、アクセス情報に基づいて素材データへアクセス可能となり、異なる視点の仮想視点映像を簡単に生成できるようになる。
 なお、本実施形態では素材データの取得をファイルサーバ30経由で行う例を中心に説明したが、これに限定さない。例えば、素材データ要求部209がメタデータ解析部306の機能を持つことで、ファイル処理装置20が直接的に素材サーバ10に素材データを要求しても良い。
 なお、素材データへのアクセスボタン1202はこれに限らず、「再構成可能ボタン」または「編集ボタン」のように、素材データへのアクセスの可否を直接あらわさない表現にしても良い。
 <第二実施形態>
 第一実施形態では、ファイル処理装置20が、素材サーバ10に記録された素材データをファイルサーバ30経由で取得する場合の例を中心に説明した。これに対し、第二実施形態では、ファイル処理装置20が素材サーバ10から直接的に素材データを取得する形態について説明する。
 図14は、第二実施形態における素材サーバ40、ファイル処理装置50、及びファイルサーバ60の詳細を説明するためのブロック図である。図1と同様のブロックについては、同じ番号を付与し、その説明を省略する。
 ファイル処理装置50が、仮想視点映像データと素材データへのアクセス情報とを有する仮想視点映像ファイルをファイルサーバ60に出力することについては第一実施形態と第二実施形態において共通である。
 本実施形態では、ファイル処理装置50がファイルサーバ60から仮想視点映像ファイルを取得し、該ファイルに含まれるアクセス情報に基づいて素材サーバ40から素材データを取得し、新たな仮想視点に基づく仮想視点映像データを生成するケースを説明する。
 ファイル処理装置50のファイル受信部501は、所定のユーザ操作(例えば素材データの取得指示)の入力に応じて、メタデータ解析部502に仮想視点映像ファイル中のメタデータを送信する。
 メタデータ解析部502は、ファイル受信部501から受け取ったメタデータを解析し、仮想視点映像ファイルの素材データへのアクセス情報を抽出する。メタデータ解析部502は、素材データへのアクセス情報がメタデータに含まれていない場合は、ファイル受信部501にその旨を通知する。この場合、映像出力部203は、素材データへのアクセスができない旨を示す画像を表示する。メタデータにアクセス情報が含まれている場合、メタデータ解析部502は、アクセス情報をデータ受信部503に送信する。アクセス情報の具体例は第一実施形態において説明した通りである。すなわち、素材データを記録する装置(素材サーバ10)のIPアドレスと、素材データを特定するための識別情報(データID)の組み合わせなどがありうる。また、アクセス情報の別の例としては、特定の素材データに所在を表すURLなどもありうる。
 データ受信部503は、アクセス情報に基づいて素材データの取得を行う。例えば、アクセス情報が素材サーバ40のIPアドレスとデータIDであった場合、データ受信部503は、素材サーバ40の外部インタフェース部100に該データIDを指定して素材データを要求する。
 素材サーバ40の外部インタフェース部100は、データ取得部103を介してデータ蓄積部102から素材データを取得し、データ送信部104を介してファイル処理装置50へ送信する。なお、ファイル処理装置50のデータ受信部503は、素材サーバ40から受け取った素材データを仮想視点映像生成部201に提供すると共に、アクセス情報をアクセス情報付与部205に対して提供する。このようにすることで、新たに生成される仮想視点映像データに基づいて仮想視点映像ファイルを生成する場合においても、その生成に用いられた素材データのアクセス情報を含めることができるようになる。
 以上、第二実施形態によれば、ファイル処理装置50が、仮想視点映像を生成するための素材データへのアクセス情報を解析し、素材データを取得する。このような方法によれば、ファイルサーバ60を介さずに素材データを取得できるため、素材データの取得に要する時間の削減や、システム全体の負荷削減などの効果が期待できる。
 <その他の実施形態>
 第一及び第二実施形態では、オブジェクト(前景)の3次元形状データの構成要素(例えばボクセル)と撮影画像の構成要素(例えば画素)との位置の対応関係に基づいて、前景の3次元形状に色づけが行われるケースを想定して説明している。しかしながら、このような色づけ処理は三次元計算を伴うため、処理負荷が高い。したがって、ファイル処理装置50としての機能をスマートフォンなどの端末によって実現することができない可能性も考えられる。そこで、例えば下記のような方式を用いることにより、スマートフォンなど処理性能が高くない端末においても仮想視点映像の生成ができるようになる。
 まず、素材サーバ40において、あらかじめオブジェクトの3次元形状データの各構成要素の色を決定し、色つきの3次元形状データを生成する。そして、素材サーバ40は、色つきの3次元形状データを素材データとしてファイル処理装置50へ提供する。このようにすれば、ファイル処理装置50の仮想視点映像生成部201は3次元形状データに対する色づけ処理を省略することができる。
 また、色づけ処理の省略に代えて、又は、色づけ処理の省略に加えて、画像サイズを小さくする、フレームレートを低くするなどの処理負荷の低減方法を採用しても良い。処理端末(ファイル処理装置50)の性能や負荷状況に合わせて素材データやレンダリング方法が選択されるようにしても良い。
 また、仮想視点映像ファイルは、動画のファイルフォーマットに準拠したファイルであっても良いし、静止画のファイルフォーマットに準拠したファイルであっても良いし、イメージシーケンスのファイルフォーマットに準拠したファイルであっても良い。
 例えば、静止画データ(仮想視点静止画)とアクセス情報を含む静止画ファイルを生成し、それをファイル処理装置20に提供されるようにしても良い。この場合、ファイル処理装置20は、静止画データに基づく静止画を再生する。そして、所定のユーザ操作の入力に応じて、ファイル処理装置20が素材サーバ10から素材データを取得し、該静止画とは別のアングルに基づく静止画を生成するようにしても良い。このようにすれば、例えば、ユーザがあるアングルに基づく静止画を再生中に、別のアングルから見たいと考えたときに、アングルを変更した新たな静止画を容易に生成できるようになる。
 また、画像サイズの変更や、トリミング、及び、色調整などの画像処理を行うファイル処理装置20に対して、画像処理の実施前の静止画へのアクセス情報を含む画像ファイルを提供しても良い。このようにすれば、オリジナルの静止画を再処理することが可能となる。また同様に、動画についても、画像サイズの変更や、フレームレートの変更、時間方向のトリミングなどの処理を行う動画処理装置に対して、画像処理の実施前の動画へのアクセス情報を含む画像ファイルを提供するようにしても良い。
 また、素材データへのアクセス情報を暗号化しても良い。図15は、素材データへのアクセス情報を暗号化する暗号化部700と、素材データへのアクセス情報の暗号化を解除する暗号化解除部800を含むファイル処理装置70の例を示している。ファイル処理装置70は、暗号化部700で暗号化された素材データへのアクセス情報を含む仮想視点映像ファイルを生成する。また、ファイル処理装置70は、アクセス情報が暗号化されていることを示すために、アクセス情報フラグの特定のビットを立てる。ここでは、31ビット目をアクセス情報フラグとして使用するものとする。一方、ファイルサーバ80は、ファイル処理装置70から素材データを要求された場合、素材データへのアクセス情報の解析において、アクセス情報フラグを確認し、素材データへのアクセス情報が暗号化されているか確認する。暗号化されていた場合、暗号化解除部800に素材データへのアクセス情報の暗号化解除を要求し、暗号化が解除された素材データへのアクセス情報を取得し、素材データへアクセスする。これにより素材データへのアクセス情報の秘匿性を高め、不正なアクセスを防止することが可能となる。
 また、上述の実施形態では、ファイル処理装置20が仮想視点映像ファイルを生成する機能と、仮想視点映像ファイルを再生する機能の両方を有している場合の例を中心に説明した。しかしながら、この例に限らない。例えば、仮想視点映像ファイルを生成する機能のみを有する第1ファイル処理装置(ファイル生成装置)と、図1のファイル処理装置20に対応する第2ファイル処理装置が存在するようにしても良い。
 また、上述の実施形態では、ファイル処理装置20が仮想視点映像生成部201とファイル生成部204の両方を有している場合の例を中心に説明した。しかしこれに限らない。例えば、ファイル処理装置20は、仮想視点映像生成装置から仮想視点映像データとアクセス情報を取得し、該仮想視点映像データとアクセス情報とを含む仮想視点映像ファイルを生成するようにしても良い。また、仮想視点映像データとアクセス情報が異なる装置から取得されるようにしても良い。また、素材サーバ10とファイルサーバ30が一体であっても良い。このように、図1のシステム構成には種々の変形例が存在することに留意されたい。
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2018年6月20日提出の日本国特許出願特願2018-116888を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (17)

  1.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを生成するファイル生成装置であって、
     仮想視点映像データの生成のための素材データの要求のために用いられるアクセス情報を取得する取得手段と、
     前記取得手段により取得されたアクセス情報と前記仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成手段と、
     前記ファイル生成手段により生成された仮想視点映像ファイルを出力する出力手段と、を有することを特徴とするファイル生成装置。
  2.  仮想視点の位置及び向きに関する仮想視点情報を入力する視点入力手段と、
     前記視点入力手段により入力された仮想視点情報に基づいて、前記仮想視点映像データを生成する映像生成手段と、を有することを特徴とする請求項1に記載のファイル生成装置。
  3.  前記アクセス情報は、前記素材データを記録する記録装置のIPアドレス、及び、前記素材データの所在を示すURLのうち、少なくとも何れか一方を含むことを特徴とする請求項1に記載のファイル生成装置。
  4.  前記アクセス情報は、前記素材データを格納するファイルのファイル名、及び、前記素材データを識別するための識別情報のうち、少なくとも何れか一方を含むことを特徴とする請求項1に記載のファイル生成装置。
  5.  前記素材データは、オブジェクトの3次元形状データと、前記オブジェクトのテクスチャデータと、背景画像のテクスチャデータと、前記複数の撮像装置による撮影画像と、前記複数の撮像装置の位置及び姿勢に関する撮像装置情報と、のうち、少なくとも何れか1つを含むことを特徴とする請求項1に記載のファイル生成装置。
  6.  前記仮想視点映像ファイルはメタデータ領域とメディアデータ領域とを含み、
     前記ファイル生成手段は、前記メタデータ領域に前記アクセス情報が記述され、前記メディアデータ領域に前記仮想視点映像データが記述された前記仮想視点映像ファイルを生成することを特徴とする請求項1に記載のファイル生成装置。
  7.  前記取得手段は、前記素材データを記録する記録装置から前記アクセス情報を取得することを特徴とする請求項1に記載のファイル生成装置。
  8.  前記アクセス情報は、ISO/IEC14496-12に基づく動画用ファイルフォーマットのムービーボックスに格納されることを特徴とする請求項1に記載のファイル生成装置。
  9.  前記アクセス情報は、静止画用ファイルフォーマットに対応するExifに準拠した形式で格納されることを特徴とする請求項1に記載のファイル生成装置。
  10.  前記アクセス情報を暗号化する暗号化手段を有し、
     前記生成手段は、前記暗号化手段により暗号化されたアクセス情報を含む仮想視点映像ファイルを生成することを特徴とする請求項1に記載のファイル生成装置。
  11.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルの処理を行う処理装置であって、
     前記仮想視点映像ファイルを取得する取得手段と、
     前記取得手段により取得された仮想視点映像ファイルに含まれる仮想視点映像データの生成のための素材データのアクセスに関するアクセス情報を、前記仮想視点映像ファイルから抽出する抽出手段と、
     前記抽出手段により抽出された前記アクセス情報を用いることによって、前記素材データの取得を要求する要求手段と、
     前記要求手段による要求に基づいて取得された素材データを用いることによって、前記仮想視点映像ファイルに格納された仮想視点映像データとは異なる仮想視点に基づく他の仮想視点映像データを生成する生成手段と、を有することを特徴とする処理装置。
  12.  前記仮想視点映像ファイルを提供するファイルサーバと、前記素材データを提供する素材サーバとは異なることを特徴とする請求項11に記載の処理装置。
  13.  前記取得手段により取得された前記仮想視点映像ファイルに含まれる仮想視点映像データを再生する再生手段と、
     前記再生手段による前記仮想視点映像データの再生画面上に表示される所定領域に対するユーザ操作を受け付ける受付手段と、を有し、
     前記要求手段は、前記受付手段による前記ユーザ操作の受け付けに応じて、前記素材データの取得を要求することを特徴とする請求項11に記載の処理装置。
  14.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを生成するファイル生成方法であって、
     仮想視点映像データの生成のための素材データの要求のために用いられるアクセス情報を取得する取得工程と、
     前記取得工程により取得されたアクセス情報と前記仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成工程と、
     前記ファイル生成工程により生成された仮想視点映像ファイルを出力する出力工程と、を有することを特徴とするファイル生成方法。
  15.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを処理する処理方法であって、
     前記仮想視点映像ファイルを取得する取得工程と、
     前記取得工程により取得された仮想視点映像ファイルに含まれる仮想視点映像データの生成のための素材データのアクセスに関するアクセス情報を、前記仮想視点映像ファイルから抽出する抽出工程と、
     前記抽出工程により抽出された前記アクセス情報を用いることによって、前記素材データの取得を要求する要求工程と、
     前記要求工程による要求に基づいて取得された素材データを用いることによって、前記仮想視点映像ファイルに格納された仮想視点映像データとは異なる仮想視点に基づく他の仮想視点映像データを生成する生成工程と、を有することを特徴とする処理方法。
  16.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを生成するファイル生成方法を実行するためのプログラムが記憶された、コンピュータが読み取り可能な記憶媒体であって、前記ファイル生成方法は、
     仮想視点映像データの生成のための素材データの要求のために用いられるアクセス情報を取得する取得工程と、
     前記取得工程により取得されたアクセス情報と前記仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成工程と、
     前記ファイル生成工程により生成された仮想視点映像ファイルを出力する出力工程と、を有する。
  17.  複数の撮像装置が所定の撮影領域を撮影することにより得られる撮影画像と、仮想視点と、に基づいて生成される仮想視点映像データに応じた仮想視点映像ファイルを処理する処理方法を実行するためのプログラムが記憶された、コンピュータが読み取り可能な記憶媒体であって、前記処理方法は、
     前記仮想視点映像ファイルを取得する取得工程と、
     前記取得工程により取得された仮想視点映像ファイルに含まれる仮想視点映像データの生成のための素材データのアクセスに関するアクセス情報を、前記仮想視点映像ファイルから抽出する抽出工程と、
     前記抽出工程により抽出された前記アクセス情報を用いることによって、前記素材データの取得を要求する要求工程と、
     前記要求工程による要求に基づいて取得された素材データを用いることによって、前記仮想視点映像ファイルに格納された仮想視点映像データとは異なる仮想視点に基づく他の仮想視点映像データを生成する生成工程と、を有する。
PCT/JP2019/023224 2018-06-20 2019-06-12 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム WO2019244731A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/122,931 US11431957B2 (en) 2018-06-20 2020-12-15 File generation apparatus, file generation method, processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018116888A JP7218105B2 (ja) 2018-06-20 2018-06-20 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
JP2018-116888 2018-06-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/122,931 Continuation US11431957B2 (en) 2018-06-20 2020-12-15 File generation apparatus, file generation method, processing apparatus, and non-transitory computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2019244731A1 true WO2019244731A1 (ja) 2019-12-26

Family

ID=68983326

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023224 WO2019244731A1 (ja) 2018-06-20 2019-06-12 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11431957B2 (ja)
JP (1) JP7218105B2 (ja)
WO (1) WO2019244731A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212591A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2018513574A (ja) * 2015-02-10 2018-05-24 ノキア テクノロジーズ オサケユイチア 画像シーケンストラックを処理する方法、装置、及びコンピュータプログラムプロダクト

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2005200888B2 (en) * 2005-02-28 2009-01-08 Canon Kabushiki Kaisha Visualising camera position in recorded video
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
WO2012105121A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
JP6429829B2 (ja) 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
WO2019012817A1 (ja) * 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513574A (ja) * 2015-02-10 2018-05-24 ノキア テクノロジーズ オサケユイチア 画像シーケンストラックを処理する方法、装置、及びコンピュータプログラムプロダクト
JP2017212591A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Also Published As

Publication number Publication date
US11431957B2 (en) 2022-08-30
JP2019220847A (ja) 2019-12-26
JP7218105B2 (ja) 2023-02-06
US20210105450A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
EP1249002B1 (en) Authenticating metadata and embedding metadata in watermarks of media signals
CN1604080B (zh) 图象文件容器
US20080195924A1 (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
US20020105529A1 (en) Generation and display of multi-image video streams
JP2009506475A (ja) 統合マルチメディアファイルフォーマット構造と、統合マルチメディアファイルフォーマット構造に基づくマルチメディアサービスシステム及び方法
JP2005513831A (ja) 多数の異種装置に配信するためのマルチメディアデータの変換
US20150035999A1 (en) Method for sharing digital photos securely
JP2000069442A (ja) 動画システム
JP6004283B2 (ja) マルチメディアコンテンツ編集サーバ、マルチメディアコンテンツ編集方法、プログラム及び集積回路
JP5349058B2 (ja) メディア・パッケージを生成するためのデバイスおよび方法
JP2006308952A (ja) 文字情報生成装置及び方法、文字情報表示装置及び方法、デジタル映画上映方法及びシステム、並びに、字幕表示装置
JP2005130196A (ja) コンテンツ提供サービスシステム
EP1357495A1 (en) Content data encoding system and content registering system
WO2019244731A1 (ja) ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
EP3952275A1 (en) File generation device, file generation method, file reproduction device, file reproduction method, and program
US20230006818A1 (en) File processing device and file processing method
JP2010206540A (ja) ファイル生成装置、ファイル再生装置およびコンピュータプログラム
US8565425B2 (en) Recording medium, method for manufacturing the same and apparatus for reproducing the same
JP4017436B2 (ja) 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体
US20230104640A1 (en) File processing device, file processing method, and program
JPH11284865A (ja) 画像データの暗号化出力装置および画像再生装置並びにデジタルフォトサービスシステム
KR20220108063A (ko) 데이터 처리 장치, 데이터 처리 방법, 및 프로그램
JP2004310331A (ja) プログラム、その方法およびその装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19822008

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19822008

Country of ref document: EP

Kind code of ref document: A1