WO2020080100A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2020080100A1
WO2020080100A1 PCT/JP2019/038847 JP2019038847W WO2020080100A1 WO 2020080100 A1 WO2020080100 A1 WO 2020080100A1 JP 2019038847 W JP2019038847 W JP 2019038847W WO 2020080100 A1 WO2020080100 A1 WO 2020080100A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
information
transmitted
mmt
character code
Prior art date
Application number
PCT/JP2019/038847
Other languages
English (en)
French (fr)
Inventor
幸一 内村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2020080100A1 publication Critical patent/WO2020080100A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program, and particularly relates to an information processing device, an information processing method, and a program capable of appropriately transmitting content transmitted by MMT to an external device. .
  • MMT MPEG Media Transport
  • HD High Definition
  • BD Blu-ray (registered trademark) Disc
  • a standard for transferring 4K / 8K content once recorded in HDD etc. to an external device via a network or transferring 4K / 8K content received by a receiver to an external device via a network About does not yet exist.
  • the present technology has been made in view of such a situation, and is to enable the content transmitted by MMT to be appropriately transmitted to an external device.
  • the information processing apparatus includes a content acquisition unit that acquires content transmitted by MMT, a recording control unit that records the content, and an external external device that is a destination of the content via a network. And a management unit that generates brightness attribute information regarding a brightness attribute of the content, which is transmitted to the apparatus as property information of the content, when the content is recorded.
  • the information processing device receives the brightness attribute information regarding the brightness attribute of the content, which is transmitted as the property information of the content from an external device that receives and records the content transmitted by the MMT.
  • a communication control unit that receives and transmits a response including the brightness attribute information to the external device.
  • the information processing apparatus includes a content acquisition unit that acquires content transmitted by MMT, a recording control unit that records the content, and an external device that is a destination of the content via a network.
  • a management unit that generates character code information representing a character code of a text included in an AV stream forming the content, which is transmitted to the device as property information of the content when the content is recorded.
  • the information processing device is a text included in an AV stream that composes the content, transmitted as property information of the content from an external device that receives and records the content transmitted by the MMT.
  • the communication control unit that receives the character code information indicating the character code and transmits the response including the character code information to the external device.
  • FIG. 12 is a diagram illustrating an example of a device description, which follows FIG. 11. It is a figure which shows the example of acquisition of the list of videos. It is a figure which shows the example of the HTTP request which requests
  • 6 is a flowchart illustrating recording medium selection performed in step S3 of FIG. 5. It is a figure which shows the example of GetRecordDestinations. It is a figure which shows the example of a GetRecordDestinations action. It is a figure which shows the example of a GetRecordDestinations response.
  • FIG. 19 is a block diagram illustrating a configuration example of hardware of a computer.
  • FIG. 1 is a diagram showing a first example of a use case of 4K / 8K contents.
  • a television program is broadcast as 4K / 8K content, and the Use case after reception is shown. The same applies to FIGS. 2 and 3.
  • 4K / 8K content is content with higher resolution than HD resolution, such as 4K resolution (for example, 3840 x 2160 pixels) or 8K resolution (for example, 7680 x 4320 pixels).
  • HDR High Dynamic Range 4K / 8K content broadcasting with a wide dynamic range of brightness is possible with the next-generation broadcasting standards.
  • Recorder 1 can receive broadcast 4K / 8K content and record it on a recording medium such as a built-in HDD or optical disk. It is also possible to record 4K / 8K content on the external HDD of TV (Television) 2.
  • the STB 3 and the recorder 4 in FIG. 1 are devices installed in the same home, for example.
  • the STB 3 and the recorder 4 are connected to a home network using a wireless LAN or the like and can communicate with each other.
  • the broadcasted content is HD content that was broadcast using MPEG-2 TS, such a move over the network is possible.
  • -Use case-2 Saving of 4K / 8K content recorded in HDD
  • Fig. 2 is a diagram showing a second example of the use case of 4K / 8K content.
  • an external HDD is connected to TV2.
  • No standard has been established for transferring 4K / 8K content received by the TV 2 and once recorded in an external HDD to the recorder 4 via the network and recording it on the optical disc loaded in the recorder 4.
  • the 4K / 8K content once recorded on the external HDD is linked to the TV 2 and can be played back and viewed only on the TV 2.
  • the content recorded on the external HDD is HD content that was broadcast using MPEG-2 TS, evacuation using a move over the network is possible.
  • FIG. 3 is a diagram showing a third example of the use case of 4K / 8K contents.
  • the mobile terminal 5 is, for example, a device such as a smartphone carried by a user who is out.
  • the standard for transmitting 4K / 8K content recorded on the HDD built in the recorder 1 to the mobile terminal 5 via the network and viewing on the mobile terminal 5 has not been established.
  • the user of the mobile terminal 5 cannot view the content recorded in the recorder 1 at home on the mobile terminal 5 by streaming, that is, so-called streaming viewing.
  • the content recorded on the HDD built into the recorder 1 is HD content broadcast using MPEG-2 TS, such streaming viewing is possible.
  • the content to be transferred is HD content broadcast by the conventional standard.
  • FIG. 4 is a diagram showing a configuration example of a network system.
  • the network system in FIG. 4 is, for example, a system built in the home.
  • the network system in FIG. 4 is configured by connecting devices D1 and D2 via a router 13 together with an STB 11 and a recorder 12.
  • the STB 11 and the recorder 12 are connected to the same TV via an HDMI (registered trademark) (High-Definition Multimedia Interface) cable or the like.
  • Different TVs may be connected to the STB 11 and the recorder 12.
  • STB 11 receives content transmitted via a transmission path for broadcasting or a transmission path for communication such as the Internet.
  • programs # 1 to # 3 have been received.
  • the drive of the recorder 12 is loaded with an optical disc 21 such as a BD.
  • the recorder 12 is a device that incorporates the HDD 22.
  • the devices D1 and D2 are devices, such as recorders, PCs, and mobile terminals, that support communication by DHCP (Dynamic Host Configuration Protocol) managed by the router 13.
  • DHCP Dynamic Host Configuration Protocol
  • step S1 STB 11 accepts selection of content to be uploaded.
  • the STB 11 displays a program guide on a TV (not shown) and allows the user to select a program to be uploaded from among the programs being broadcast.
  • step S2 STB 11 selects a device.
  • the device selection selects the device to which the content is uploaded. Details of device selection will be described later with reference to the flowchart of FIG.
  • step S3 STB 11 selects a recording medium.
  • the recording medium As the recording destination of the content is selected.
  • the selection of the recording medium is performed on the recording medium included in the device selected in step S2. Details of recording medium selection will be described later with reference to the flowchart in FIG.
  • step S4 STB 11 uploads the content. Details of content upload will be described later with reference to the flowchart in FIG. When the upload of the target content is completed, the processing of FIG. 5 ends.
  • step S11 the STB 11 performs M-Search and acquires a list of compatible devices.
  • M-Search is a device detection method that uses UPnP (Universal Plug and Play).
  • M-Search is performed by the client device multicasting an M-Search request, which is an M-Search message, to each device existing in the same network as itself.
  • the device that receives the M-Search request sends an M-Search response including the URL of the device.
  • step S12 the STB 11 acquires Device description from each corresponding device based on the URL acquired by M-Search.
  • the Device description includes information about each compatible device, such as the friendly name that is the device name.
  • step S13 the STB 11 presents the friendly name included in the Device description to the user. For example, the user sees the friendly name displayed on the TV and selects the device to which the content is uploaded.
  • the process returns to step S2 in FIG. 5 and the subsequent processing is performed.
  • FIG. 7 is a diagram showing an example of M-Search performed in step S11.
  • STB 11 sends an M-Search request to each device.
  • the corresponding device which is a device compatible with UPnP, transmits an M-Search response as indicated by an arrow A12.
  • STB 11 receives the M-Search response and acquires a list of compatible devices.
  • the recorder 12 is the corresponding device 1 and the device D2 is the corresponding device 2, as shown by being surrounded by the frames F1 and F2.
  • FIG. 8 is a diagram showing an example of an M-Search request.
  • the M-Search request which is a device search request, includes the IP address of the STB 11, which is the issuer of the M-Search request, as shown in the third line. Further, as shown in the fifth line, information indicating that the STB 11 has the function of MediaServer is included.
  • FIG. 9 is a diagram showing an example of a device list acquired based on the M-Search response.
  • the description from the first line to the tenth line is the description obtained based on the M-Search response transmitted from the recorder 12 which is the compatible device 1.
  • "LOCATION: http://169.254.226.30:64220/description.xml" on the 4th line indicates the URL of the corresponding device 1.
  • FIG. 10 is a diagram showing an example of obtaining the device description performed in step S12.
  • STB 11 transmits HTTP GET, which is a device description request, to recorder 12 which is compatible device 1.
  • the HTTP GET destined for the recorder 12 includes the URL of the recorder 12 included in the M-Search response.
  • the device description is transmitted from the recorder 12 which has received the HTTP GET, as indicated by an arrow A22.
  • the HTTP GET is similarly transmitted from the STB 11, and the device description transmitted from the device D2 which has received the HTTP GET is acquired.
  • 11 and 12 are diagrams showing examples of the device description.
  • the Device description in FIGS. 11 and 12 is, for example, the Device description acquired from the recorder 12.
  • the description on the 4th to 6th lines in Fig. 11 indicates the UPnP version supported by the device, and the description on the 8th line indicates the capability of the device as a UPnP Device.
  • the descriptions on the 9th to 16th lines represent the capability of the device as HDRL / SPRL / JLAB, and the descriptions on the 17th to 30th lines represent the description of the device used when being shown to the user.
  • “ ⁇ friendlyName> BDZ ⁇ / friendlyName>” on the 17th line indicates that the friendly name of the recorder 12 is “BDZ”.
  • various types of information such as a manufacturer (manufacturer), a manufacturer URL (manufacturerURL), and a model name (modelDescription) are described.
  • the description from the first line to the 16th line in FIG. 12 indicates the UPnP function supported by the description of the device.
  • the description from the second line to the eighth line indicates that the recorder 12 supports the function of Content Directory.
  • the description in the 9th to 15th lines indicates that the recorder 12 supports the CMS (Connection Manager Service) function.
  • FIG. 13 is a diagram showing an example of acquisition of a list of videos supported by a compatible device.
  • the STB 11 sends an HTTP request for a list of supported videos to the recorder 12 which is the compatible device 1.
  • FIG. 14 is a diagram showing an example of an HTTP request for requesting a list of supported videos.
  • FIG. 15 is a diagram showing an example of an HTTP response including information indicating a list of supported videos.
  • MPEG_TS_JP_T on the 6th line indicates that the recorder 12 supports processing of contents up to 2K (HD) resolution by MPEG-2 TS.
  • the upload destination device is selected as described above.
  • step S21 the STB 11 performs GetRecordDestinations, and acquires RecordDestination from the corresponding device, which is the device selected in step S1 such as the recorder 12.
  • RecordDestination includes information about the recording medium of the device.
  • step S22 the STB 11 presents the friendlyNamedestID to the user based on the RecordDestination acquired by GetRecordDestinations.
  • the user sees the friendlyNamedestID displayed on the TV, for example, and selects the recording medium as the recording destination of the content.
  • the STB 11 When the recording medium is selected, the STB 11 performs GetRecordContainerID and acquires the ContainerID from the recorder 12 in step S23.
  • ContainerID is the ID of the recording medium selected by the user. After the ContainerID is acquired, the process returns to step S3 in FIG. 5 and the subsequent processing is performed.
  • FIG. 17 is a diagram showing an example of GetRecordDestinations performed in step S21.
  • the STB 11 sends a GetRecordDestinations action to the recorder 12.
  • the recorder 12 which has received the GetRecordDestinations action, transmits a GetRecordDestinations response as indicated by an arrow A42.
  • the GetRecordDestinations response transmitted by the recorder 12 includes RecordDestination including information about the optical disc 21 and information about the HDD 22, as surrounded by a frame F11.
  • FIG. 18 is a diagram showing an example of the GetRecordDestinations action.
  • the first line "POST / upnp / control / ContentDirectory HTTP / 1.1”
  • “Host: 169.254.226.30: 64220” in the second line represents the URL of the compatible device 1.
  • the description from the 12th line to the 14th line indicates that a list of recording media supported by the compatible device 1 is requested.
  • FIG. 19 is a diagram showing an example of the GetRecordDestinations response.
  • GetRecordDestinationInfo is appropriately performed, for example, before presenting the friendlyNamedestID to the user.
  • FIG. 20 is a diagram showing an example of GetRecordDestinationInfo.
  • the GetRecordDestinationInfo action is sent from the STB 11 to the recorder 12, as indicated by arrow A51.
  • the recorder 12 which has received the GetRecordDestinationInfo action transmits a GetRecordDestinationInfo response as indicated by an arrow A52.
  • the GetRecordDestinationInfo response transmitted by the recorder 12 includes RecordDestinationInfo including detailed information about the optical disc 21, for example.
  • FIG. 21 is a diagram showing an example of the GetRecordDestinationInfo action.
  • “Host: 169.254.226.30:64220” on the second line indicates the URL of the compatible device 1.
  • “ ⁇ RecordDestinationID> bd1.cache ⁇ / RecordDestinationID>” on the 12th line indicates that the details of bd1.cache are requested.
  • FIG. 22 is a diagram showing an example of the GetRecordDestinationInfo response.
  • BD in the 10th line indicates that BD is loaded in "bd1.cache” as a recording medium.
  • FIG. 23 is a diagram showing an example of GetRecordContainerID performed in step S23.
  • the STB 11 sends a GetRecordContainerID action to the recorder 12.
  • the recorder 12 which has received the GetRecordContainerID action, transmits a GetContainerID response as indicated by an arrow A62.
  • the GetContainerID response transmitted by the recorder 12 includes the ContainerID of the HDD 22 selected by the user as the recording destination, as indicated by the frame F21. GetContainerID is a process for determining how to specify the recording destination.
  • FIG. 24 is a diagram showing an example of the GetRecordContainerID action.
  • “Host: 169.254.226.30:64220” on the second line indicates the URL of the compatible device 1.
  • “ ⁇ RecordDestinationID> hdd1 ⁇ / RecordDestinationID>” on the 12th line indicates that the HDD 22 is designated as the recording medium.
  • the description on the 23rd to 25th lines indicates the format, file size, etc. of the file to be uploaded.
  • FIG. 25 is a diagram showing an example of the GetRecordContainerID response.
  • step S31 the STB 11 performs CreateObject with the ContainerID specified as an argument, and acquires the importURI from the recording medium selected in step S3.
  • importURI represents the post destination of the content by HTTP Post.
  • step S32 STB 11 uploads the content by HTTP Post specifying importURI as an argument.
  • step S33 STB 11 determines whether the content upload is completed.
  • step S33 determines in step S33 that the content upload has not been completed, the process returns to step S32 and the content upload is repeated.
  • FIG. 27 is a diagram showing an example of CreateObject performed in step S31.
  • the STB 11 sends a CreateObject action to the recorder 12.
  • the recorder 12 that has received the CreateObject action transmits a response including the importURI, as indicated by an arrow A72.
  • CreateObject is the process for determining how to specify the post destination (upload destination) when uploading content by HTTP Post.
  • 28 and 29 are diagrams showing an example of the CreateObject action.
  • a CreateObject action including the description as shown in FIGS. 28 and 29 is transmitted from the STB 11 to the recorder 12.
  • “Host: 169.254.226.30: 64220” on the fourth line of FIG. 28 represents the URL of the recorder 12 that is the upload destination device.
  • " ⁇ ContainerID> DLNA.ORG_AnyContainer ⁇ / ContainerID>” in the 15th line represents the ContainerID, that is, the designation of the recording destination. If the ContainerID is "AnyContainer", it means that the recording destination is left to the device.
  • the description on the 11th to 20th lines in FIG. 29 is information regarding the content to be uploaded.
  • the 12th line " ⁇ arib: objectType> SPTV_CS ⁇ / arib: objectType>” represents the type of content.
  • FIG. 30 is a diagram showing an example of a response including an importURI.
  • the 11th to 20th lines are the notification from the recorder 12 to the STB 11 regarding the recording method.
  • a response including such a description is sent from the recorder 12 that receives the CreateObject action.
  • HTTP Post starts uploading the AV data, which is the actual data of the content.
  • the STB 11 needs to notify the recorder 12 of the property information, which is information about the content to be uploaded, by performing CreateObject.
  • the CreateObject action transmitted by the STB 11 includes, as an argument, property information that is information regarding the content to be uploaded such as the title name of the content and the content type.
  • STB11 needs to extract the information used as property information from the various information transmitted with the content and manage it as the information to be included in the CreateObject action.
  • FIG. 31 is a diagram showing a configuration example of a network system according to an embodiment of the present technology.
  • the network system of FIG. 31 is constructed in a home, for example, like the network system of FIG.
  • the network system in FIG. 31 is configured by connecting a recorder 101 and a recorder 102 via a network.
  • the recorder 101 and the recorder 102 are information processing devices that process various types of information including content.
  • the recorder 101 is used as a reference, the recorder 102 is an external device.
  • the network system of FIG. 31 is also provided with a router that controls communication in the network and another external device that can be a device to which content is uploaded. A duplicate description will be omitted as appropriate.
  • MMT broadcasting is broadcasting that uses MMT (MPEG Media Transport) as a content transmission method.
  • the 4K / 8K content transmitted from the server 111 via the Internet using MMT may be processed in the network system of FIG.
  • any transmission path may be used.
  • the processing of MMT contents transmitted through terrestrial waves, broadcast waves, cable television networks, and communication networks is performed in the network system of FIG.
  • the following mainly describes the processing of content transmitted by MMT broadcasting, but the processing of content transmitted via other transmission paths is performed in the same way.
  • Recorder 101 receives 4K / 8K content broadcast by MMT broadcasting. Between the recorder 101 and an external device on the network, various kinds of exchanges as described above are performed according to a predetermined protocol.
  • Usecase-1 move (Fig. 1)
  • Usecase-2 save (Fig. 2)
  • Usecase-3 streaming streaming (Fig. 3) is performed for 4K / 8K contents.
  • the use case-1 move is performed, for example, so that the recorder 101 receives the broadcast 4K / 8K content, uploads it to the recorder 102, and records it in the HDD of the recorder 102.
  • the 4K / 8K content received by the recorder 101 may be recorded once in the HDD in the recorder 101, and the recorded 4K / 8K content may be uploaded.
  • the recorder 101 uploads the 4K / 8K contents once recorded in the built-in HDD to the recorder 102, and records them in the optical disk or HDD loaded in the recorder 102. Is done in this way.
  • the streaming of Use case-3 is performed, for example, between the recorder 101 and the portable terminal of the user of the recorder 101.
  • the recorder 101 uploads the 4K / 8K content once recorded in the built-in HDD to the mobile terminal and makes it viewable on the mobile terminal by streaming.
  • the viewing of 4K / 8K contents by streaming may be performed between the recorder 101 and the recorder 102.
  • the recorder 101 uploads the 4K / 8K content once recorded in the built-in HDD to the recorder 102 so that it can be viewed on the TV connected to the recorder 102.
  • the recorder 101 performs CreateObject on the property information of the 4K / 8K content to be uploaded before starting the upload of the 4K / 8K content. Therefore, it is necessary to notify the external device.
  • the recorder 101 needs to refer to various information transmitted together with the 4K / 8K content, set property information, and include it in the CreateObject action.
  • the recorder 101 has a function of setting information used as property information with reference to control information transmitted by MMT broadcasting and performing CreateObject.
  • the brightness attribute information indicating whether the 4K / 8K content to be uploaded is HDR (High Dynamic Range) content or SDR (Standard Dynamic Range) content is used as property information in CreateObject.
  • HDR High Dynamic Range
  • SDR Standard Dynamic Range
  • the recorder 102 determines whether the 4K / 8K content to be uploaded is the HDR content or the SDR content based on the luminance attribute information obtained by the CreateObject. Can be specified.
  • the character code information indicating the character code type of the text in SI (Service Information) included in the AV stream that constitutes the 4K / 8K content to be uploaded is used as property information in CreateObject.
  • SI includes program information for programs that are 4K / 8K content.
  • the program information is composed of text data representing various kinds of information about the program such as the program name and synopsis.
  • the character code of the program information included in the AV stream of MMT broadcasting is specified in ARIB as UTF-8.
  • the recorder 102 By performing the CreateObject including the character code information, the recorder 102, based on the character code information obtained by CreateObject, the character code of the program information included in the AV stream forming the 4K / 8K content to be uploaded. Can be specified.
  • Some devices that receive MMT content and record it on a recording medium such as an HDD perform MMT-TS conversion that converts MMT content to TS (Transport Stream) content, and then convert TS after MMT-TS conversion.
  • TS Transport Stream
  • the program information included in the AV stream may remain as UTF-8 text, or may be converted to text with another character code such as ARIB-8 unit code.
  • the receiving device will not accept the text when it expects content that contains UTF-8 text to be uploaded. Cannot be displayed.
  • the recorder 102 can specify the character code of the program information included in the AV stream, and prevent so-called garbled characters from occurring. Become.
  • FIG. 32 is a diagram showing the structure of MMT-SI, which is control information for MMT broadcasting.
  • the MMT-SI indicating the information related to the MMT package structure and the broadcasting service includes a message storing a table and a descriptor, a table having elements and attributes indicating specific information, and details. It is composed of information of three layers of descriptors indicating various information.
  • ⁇ Message is stored in MMTP payload and transmitted using MMTP packet.
  • the value of payload_type when the message composes the MMTP payload is 0x02.
  • One message is stored in one MMTP payload.
  • the recorder 101 refers to the description of at least one of a message (control message), a table, and a descriptor that constitutes such MMT-SI, and generates property information.
  • the content to be processed in the network system of FIG. 31 is assumed to be 4K / 8K content, but HD content may be processed.
  • content that is appropriately transmitted using the MMT and is the processing target in the network system in FIG. 31 is simply referred to as content.
  • Example of property information 33 to 35 are diagrams showing examples of property information.
  • Property information including 27 types shown in FIGS. 33 to 35 is used for CreateObject.
  • the property information is set by the recorder 101 based on the information extracted from the MMT broadcast wave (MMT broadcast signal).
  • the leftmost number represents the property information number.
  • each property information will be described using the assigned numbers as appropriate.
  • “property information P1” represents property information to which the number “1” is assigned. The same applies to property information to which other numbers are assigned.
  • the property information P1 is property information whose property name is “arib: objectType”.
  • the property information P1 represents the origin of the object.
  • the property information P2 is property information whose property name is “dc: title”.
  • the property information P2 represents an event name (program name).
  • the property information P3 is property information whose property name is "upnp: genre”.
  • the property information P3 represents the program genre.
  • the property information P4 is property information in which the property name is “upnp: chunnelName”.
  • the property information P4 represents a channel name.
  • the property information P5 is property information whose property name is "upnp: chunnelNr".
  • the property information P5 represents a channel number.
  • the property information P6 is property information whose property name is “upnp: scheduledStartTime”.
  • the property information P6 represents the program start time.
  • the property information P7 is property information whose property name is “upnp: scheduledEndTime”.
  • the property information P7 represents the program end time.
  • the property information P8 is property information whose property name is "dc: description”.
  • the property information P8 represents detailed program information.
  • the property information P9 is property information whose property name is "arib: longDescription".
  • the property information P9 represents detailed program information.
  • the property information P10 is property information whose property name is “res @ resolution”.
  • the property information P10 represents the resolution of the video of the program.
  • the property information P11 of FIG. 34 is property information having a property name of “upnp: rating”.
  • the property information P11 represents the minimum viewable age.
  • the property information P12 is property information whose property name is "arib: videoComponentType".
  • the property information P12 represents the type of video.
  • the property information P13 is property information whose property name is "arib: audioComponentType".
  • the property information P13 represents the type of audio.
  • the property information P14 is property information whose property name is "arib: audioComponentType @ qualityIndicator".
  • the property information P14 represents the audio quality mode.
  • the property information P15 is property information whose property name is "arib: copyControlInfo".
  • the property information P15 represents copy control information of the program.
  • the property information P16 is property information whose property name is "arib: dataProgramInfo".
  • the property information P16 indicates whether or not data broadcasting is attached.
  • the property information P17 is property information whose property name is "arib: dataProgramInfo @ sync".
  • the property information P17 indicates whether or not the property information P17 is linked with the data broadcasting.
  • the property information P18 is property information whose property name is "arib: captionInfo".
  • the property information P18 represents the operation of subtitle captions.
  • the property information P19 is property information whose property name is "arib: multiESInfo".
  • the property information P19 indicates whether or not there are a plurality of videos or audios.
  • the property information P20 is property information whose property name is “sptv: caProgramInfo”.
  • the property information P20 indicates whether or not the program is scrambled.
  • the property information P21 of FIG. 35 is property information having a property name of “sptv: closedcaptionInfo”.
  • the property information P21 represents the presence / absence of subtitles.
  • the property information P22 is property information having a property name of “sptv: nextTitle”.
  • the property information P22 represents the event name of the Following event which is the next program.
  • the property information P23 is property information whose property name is "sptv: nextScheduledStartTime".
  • the property information P23 represents the starting time of the Following event.
  • the property information P24 is property information having a property name of "sptv: nextScheduledEndTime".
  • the property information P24 represents the ending time of the Following event.
  • the property information P25 is property information whose property name is “sptv: nextEventDescription”.
  • the property information P25 represents event information of a Following event.
  • the property information P26 is property information in which the property name is "xxx: transferCharasteristic".
  • the property information P26 represents the attribute of the dynamic range of the brightness of the video of the program.
  • the property information P26 is set with information indicating SDR.
  • the property information P26 is set with information indicating the HLG method.
  • the HLG method is an HDR method that uses an HLG curve.
  • the property information P26 is set with information indicating that it is the PQ method.
  • the PQ method is an HDR method that uses a PQ curve.
  • the recorder 102 can specify whether the content transmitted after CreateObject is an SDR content or an HDR content.
  • the recorder 102 determines that the content transmitted after CreateObject is the HDR content. Will be specified.
  • the property information P26 is brightness attribute information indicating whether the content to be uploaded is HDR content or SDR content.
  • the property information P27 is property information in which the property name is “xxx: characterCode”.
  • the property information P27 represents the character code of the program information included in the AV stream of the program.
  • UTF-8 without BOM (ByteOrderMark)
  • UTF-8BOM with BOM
  • UTF-16BE BigEndian
  • UTF-16LE LittleEndian
  • UTF-16BEBOM UTF- The character code of either 16LEBOM or ARIB-B24 is displayed.
  • ARIB-B24 represents an 8-unit code.
  • the recorder 101 performs MMT-TS conversion during recording of an MMT broadcast program, and the TS content after MMT-TS conversion is recorded as program data.
  • the recorder 101 sets the value representing UTF-8 as the property information P27 and performs CreateObject.
  • the recorder 101 sets a value representing the converted character code as the property information P27, and sets CreateObject. Will be done.
  • the property information P27 is character code information that represents the character code of the program information included in the AV stream that constitutes the content to be uploaded.
  • property information P1 to P25 is MH-EIT (MH-Event_Information_Table), MH-SDT (MH-Service Description Table), which are tables transmitted by MMTP packets. It is set in the recorder 101 by referring to MPT (MMT Package Table) and NIT which is SI (Service Information) of TLV.
  • MPT MMT Package Table
  • SI Service Information
  • FIG. 36 is a diagram showing an example of MMT transmission data.
  • the MMT transmission data received by the recorder 101 is composed of an array of MMTP packets.
  • the header of the MMTP packet includes packet_id indicating the type of data stored in the payload.
  • FIG. 37 is a diagram showing the syntax of MH-EIT.
  • MH-EIT includes original_network_id, start_time, duration, descriptor ().
  • original_network_id is used as a reference source of “arib: objectType” which is the property information P1.
  • the recorder 101 extracts the value of original_network_id and stores it in the memory inside the recorder 101 as the property information P1 used at the time of CreateObject.
  • start_time is used as a reference source of “upnp: scheduledStartTime” which is the property information P6.
  • the recorder 101 extracts the value of start_time and stores it in the memory inside the recorder 101 as the property information P6 used at the time of CreateObject.
  • -Start_time and duration are used as a reference source of "upnp: scheduledEndTime" which is property information P7.
  • the recorder 101 extracts the respective values of start_time and duration.
  • the recorder 101 stores the time obtained by adding the period represented by the duration to the time represented by the start_time in the memory inside the recorder 101 as the property information P7 used at the time of CreateObject.
  • the property information is set by referring to each description of MH-EIT.
  • Video_Component_Descriptor () are included in the MH-EIT descriptor () enclosed in a frame.
  • FIG. 38 is a diagram showing the syntax of Video_Component_Descriptor ().
  • Video_Component_Descriptor () includes attribute information related to video, such as video_resolution, video_aspect_ratio, video_frame_rate, video_transfer_characteristics.
  • Video_resolution of these descriptions is used as a reference source of “res @ resolution” which is the property information P10.
  • the recorder 101 extracts the value of video_resolution and stores it in the memory inside the recorder 101 as the property information P10 used at the time of CreateObject.
  • Video_resolution, video_aspect_ratio, video_frame_rate, video_transfer_characteristics are used as a reference source of “arib: videoComponentType” which is the property information P12.
  • the recorder 101 extracts the values of video_resolution, video_aspect_ratio, video_frame_rate, and video_transfer_characteristics, and sets component_type based on the combination of those values.
  • the video_transfer_characteristics is also used as a reference source of the property information P26.
  • 39 is a diagram showing the meaning of the value of video_transfer_characteristics, which is a video signal transfer characteristic.
  • the value of video_transfer_characteristics being 1 means that the value of transfer_characteristics of VUI of the HEVC (High Efficiency Video Coding) stream which is a video stream forming the AV stream is 1.
  • the value of transfer_characteristics of VUI is 1, it means that the transfer characteristic of the video signal is Rec.ITU-RBT.709-5.
  • VUI Video Usability Information
  • SEI Supplemental Enhancement Information
  • a video_transfer_characteristics value of 5 means that the VUI transfer_characteristics value of the HEVC stream that constitutes the AV stream is 18.
  • the value of transfer_characteristics of VUI being 18 indicates that the transfer characteristic of the video signal is Rec.ITU-RBT.2100HLG.
  • the fact that the video signal transfer characteristic is Rec.ITU-R.BT.2100HLG means that the HEVC stream video is HLG HDR video.
  • the recorder 101 sets information indicating SDR as the value of the property information P26 and stores the information in the memory inside the recorder 101.
  • the recorder 101 sets the information indicating the HLG method as the value of the property information P26 and stores it in the memory inside the recorder 101.
  • the recorder 101 extracts the value and accordingly, as a value of the property information P26, the PQ method is used.
  • the information indicating that is set is set and stored in the memory in the recorder 101.
  • the recorder 101 refers to the video_transfer_characteristics in the Video_Component_Descriptor () described in the descriptor () of the MH-EIT and sets the value of the property information P26.
  • Video_Component_Descriptor () used for setting the property information P26 is also included in the MPT. It is also possible to set the value of the property information P26 by referring to Video_Component_Descriptor () of MPT.
  • FIG. 40 is a diagram showing an example of MMT transmission data.
  • MMT control messages include, for example, Package Access (PA) messages, CA messages, M2 short section messages, and data transmission messages.
  • PA Package Access
  • CA messages CA messages
  • M2 short section messages M2 short section messages
  • data transmission messages For example, the PA message serves as an entry point of MMT-SI and is used to transmit various MMT-SI tables.
  • FIG. 41 is a diagram showing the syntax of the PLT included in the M2 section message.
  • PLT includes MMT_general_location_info ().
  • MMT_general_location_info () includes location_type, packet_id, etc. as shown by the tip of the arrow.
  • the packet_id specifies the PID of MPT.
  • MPT is a table that provides information that constitutes a package, such as a list of assets and their location on the network.
  • FIG. 42 is a diagram showing the syntax of MPT.
  • MPT includes asset_descriptors_byte.
  • Video_Component_Descriptor () is described in asset_descriptors_byte.
  • the recorder 101 can also set the value of the property information P26 by referring to video_transfer_characteristics in Video_Component_Descriptor () described as asset_descriptors_byte of MPT.
  • Video_Component_Descriptor () described in MH-EIT and Video_Component_Descriptor () described in MPT are information with different transmission cycles in the transmission data of MMT.
  • the setting of the property information P27 is performed, for example, when MMT-TS conversion is performed and TS content is recorded.
  • the recorder 101 sets a value representing the character code of the program information included in the AV stream forming the TS content obtained by the MMT-TS conversion as the value of the property information P27, and stores it in the memory inside the recorder 101.
  • FIG. 43 is a diagram showing an example of a CreateObject action including brightness attribute information and character code information.
  • FIG. 43 only a part of the description including information about the content to be uploaded is shown.
  • the description shown in FIG. 43 is a description following the description in FIG. 28. A duplicate description will be omitted as appropriate.
  • CreateObject is performed on the recorder 102 from the recorder 101 using such a description.
  • FIG. 44 is a diagram showing an example of a CreateObject response including luminance attribute information and character code information.
  • the recorder 102 that receives the CreateObject action sends a CreateObject response including a description of the importURI and a description of the recording method.
  • the recorder 102 Using such a description, the recorder 102 notifies the recorder 101 of the recording method.
  • uploading the content is started by sending the TS content after MMT-TS conversion that was recorded in the HDD.
  • FIG. 45 is a diagram showing an example of upload data.
  • the TS is composed of an array of TS packets.
  • the TS packet header includes a PID that represents the type of data stored in the payload.
  • selection_information_section () shown in FIG. 46 is stored in the payload. It is specified in ETSI EN300468 that the PID value of the TS packet in which the selection_information_section () is stored in the payload is 0x001F.
  • Information related to the event (program) transmitted by the TS is described in the SIT (Selection Information Table) composed of selection_information_section ().
  • descriptor () is described in selection_information_section ().
  • the descriptor () of selection_information_section () includes various descriptors including short_event_descriptor ().
  • FIG. 47 is a diagram showing the syntax of short_event_descriptor ().
  • short_event_descriptor includes event_name_char and text_char.
  • Event_name_char represents the program name. Also, text_char represents detailed information of the program. The program name and detailed information about the program are text data.
  • the character code of the program information included as event_name_char and text_char in the TS transmitted by the recorder 101 will be specified by the character code information transmitted at the time of Create Object.
  • FIG. 48 is a block diagram showing a hardware configuration example of the recorder 101.
  • the recorder 101 includes a controller 151, an input detection unit 152, a reception unit 153, an MMT signal processing unit 154, an output control unit 155, an MMT-TS conversion unit 156, a recording control unit 157, a recording unit 158, and a communication unit 159. It
  • the controller 151 is composed of a CPU, ROM, RAM, memory and the like.
  • the controller 151 executes a predetermined program by the CPU, and controls the entire operation of the recorder 101 according to the user's operation represented by the signal supplied from the input detection unit 152, for example.
  • the input detection unit 152 detects a user operation performed using a remote controller or the like, and outputs a signal indicating the content of the user operation to the controller 151. For example, the user selects the content to be uploaded, the device to be the upload destination, the recording medium, and the like.
  • the receiving unit 153 receives a broadcast wave signal from an antenna (not shown) and performs various processing such as demodulation processing and error correction processing.
  • the receiving unit 153 outputs the TVL stream obtained by performing various processes as MMT content to the MMT signal processing unit 154.
  • the receiving unit 153 controls the communication unit 159 to receive the MMT content and performs a predetermined process on the TVL stream obtained by performing the MMT.
  • the signal is output to the signal processing unit 154.
  • the reception unit 153 functions as an acquisition unit that acquires the content transmitted using the MMT.
  • the MMT signal processing unit 154 performs a predetermined process on the TLV stream supplied from the receiving unit 153, and acquires the content transmitted by MMT. For example, 4K / 8K content is acquired by the MMT signal processing unit 154.
  • the MMT signal processing unit 154 When reproducing the content, the MMT signal processing unit 154 extracts the video data and the audio data from the TLV stream and decodes them. The MMT signal processing unit 154 outputs the video and audio data of the content obtained by decoding to the output control unit 155.
  • the MMT signal processing unit 154 When converting the MMT content to the TS content, the MMT signal processing unit 154 outputs the content data to the MMT-TS conversion unit 156.
  • the MMT signal processing unit 154 acquires various control information such as messages, tables and descriptors transmitted using MMTP packets from the TLV stream and outputs the control information to the controller 151.
  • ⁇ Content may be uploaded as it is in MMT.
  • the MMT signal processing unit 154 outputs the data of the MMT content to the communication unit 159 for transmission.
  • the recording of the content may be performed as it is in the MMT content.
  • the MMT signal processing unit 154 outputs the MMT content to the recording control unit 157.
  • the output control unit 155 supplies the video and audio data supplied from the MMT signal processing unit 154 to the TV connected to the recorder 101, and causes the display and the speaker to output the data.
  • the MMT-TS conversion unit 156 performs MMT-TS conversion on the MMT content supplied from the MMT signal processing unit 154, and outputs the TS content obtained by the MMT-TS conversion to the recording control unit 157.
  • the recording control unit 157 outputs the TS content supplied from the MMT-TS conversion unit 156 to the recording unit 158 for recording. In addition, when the MMT content is supplied from the MMT signal processing unit 154, the recording control unit 157 outputs the MMT content to the recording unit 158 and records it.
  • the recording unit 158 is composed of a recording medium such as HDD or SSD.
  • the content recorded in the recording unit 158 is appropriately read by the communication unit 159.
  • the communication unit 159 communicates with an external device such as the recorder 102 via a network built in the home or the like. For example, when CreateObject ends, the communication unit 159 reads the content of the TS to be uploaded from the recording unit 158 and starts uploading to an external device.
  • FIG. 49 is a block diagram showing a functional configuration example of the controller 151 of FIG.
  • At least a part of the functional units shown in FIG. 49 is realized by the CPU of the controller 151 executing a predetermined program.
  • the upload control unit 165 includes a CreateObject execution unit 171.
  • the property information extraction unit 161 extracts the reference source of the property information used for CreateObject from the control information supplied from the MMT signal processing unit 154.
  • the property information extraction unit 161 outputs the extracted information to the property information management unit 162.
  • the property information management unit 162 sets each property information based on the information supplied from the property information extraction unit 161, and stores and manages the property information in a memory or the like.
  • the property information management unit 162 specifies the character code of the program information included in the AV stream forming the content of the TS obtained by the MMT-TS conversion by the MMT-TS conversion unit 156.
  • the property information management unit 162 stores character code information representing the specified character code in a memory or the like as property information and manages it.
  • the property information management unit 162 When executing CreateObject, the property information management unit 162 outputs the property information stored and managed in the memory to the upload control unit 165.
  • the device selection control unit 163 controls the communication unit 159 to perform device selection processing including M-Search and the like, and selects a device as an upload destination. Information regarding the selected device is supplied to the recording medium selection control unit 164 and the upload control unit 165.
  • the recording medium selection control unit 164 controls the communication unit 159 to perform a recording medium selection process including GetRecordDestinations, GetRecordContainerID, etc., and selects a recording medium as a recording destination of content. Information regarding the selected recording medium is supplied to the upload control unit 165.
  • the upload control unit 165 controls the communication unit 159 to perform content upload processing.
  • the CreateObject execution unit 171 uses the property information managed by the property information management unit 162 to execute CreateObject for the upload destination device. That is, the CreateObject execution unit 171 generates a CreateObject action including the property information managed by the property information management unit 162 as an argument, and sends it to the upload destination device.
  • the CreateObject execution unit 171 functions as a communication control unit that controls the transmission of property information to the upload destination device before uploading the TS content.
  • the CreateObject execution unit 171 acquires the importURI included in the response transmitted from the upload destination device and received by the communication unit 159.
  • the content of TS is uploaded based on the importURI acquired by the CreateObject execution unit 171.
  • FIG. 50 is a block diagram showing a hardware configuration example of the recorder 102.
  • the recorder 102 includes a controller 201, a communication unit 202, a recording control unit 203, a recording unit 204, and an output control unit 205.
  • a controller 201 controls the configuration of the recorder 101.
  • a communication unit 202 controls the communication unit 202 and the recording unit 203.
  • a recording unit 204 controls the recording unit 204.
  • an output control unit 205 controls the output of the recorder 101.
  • at least part of the configuration provided in the recorder 101 such as the input detection unit 152 and the reception unit 153, is also provided in the recorder 102.
  • the controller 201 is composed of a CPU, ROM, RAM, memory and the like.
  • the controller 201 executes a predetermined program by the CPU to control the entire operation of the recorder 102.
  • the communication unit 202 communicates with the recorder 101 via the network. For example, when the CreateObject ends, the communication unit 202 receives the TS content uploaded from the recorder 101.
  • the communication unit 202 records the received TS content. It is output to the control unit 203.
  • the communication unit 202 outputs the received TS content to the output control unit 205.
  • the recording control unit 203 outputs the content of the TS supplied from the communication unit 202 to the recording unit 204 for recording.
  • the recording unit 204 is composed of a recording medium such as HDD and SSD.
  • the recording unit 204 records the TS content supplied from the recording control unit 203.
  • the content recorded in the recording unit 204 is appropriately read and reproduced by the output control unit 205.
  • the output control unit 205 decodes the TS supplied from the communication unit 202, and displays the video of the content uploaded from the recorder 101 on an external display device.
  • a display device such as a TV is connected to the recorder 102.
  • the output control unit 205 displays the attribute of the luminance dynamic range of each content based on the luminance attribute information notified by the CreateObject action.
  • the output control unit 205 identifies the character code of the program information included in the AV stream forming the content recorded in the recording unit 204, based on the character code information notified by the CreateObject action.
  • the output control unit 205 extracts the program information of the AV stream and processes it as the text of the specified character code to display information about the content recorded in the recording unit 204 in a content list or the like.
  • 51 is a block diagram showing a functional configuration example of the controller 201 of FIG.
  • At least a part of the functional units shown in FIG. 51 is realized by the CPU of the controller 201 executing a predetermined program.
  • a device selection control unit 211, a recording medium selection control unit 212, and an upload reception control unit 213 are realized in the controller 201.
  • the upload reception control unit 213 includes a CreateObject execution unit 221.
  • the device selection control unit 211 controls the communication unit 202 to perform a process corresponding to the device selection process performed by the recorder 101.
  • the device selection control unit 211 transmits an M-Search response including the URL of the recorder 102 in response to receiving the M-Search request transmitted from the recorder 101. Further, the device selection control unit 211 transmits the Device description in response to the request from the recorder 101.
  • Information transmitted from the recorder 101 during the device selection process is output to the recording medium selection control unit 212 and the upload reception control unit 213.
  • the recording medium selection control unit 212 performs a process corresponding to the recording medium selection process performed by the recorder 101 by controlling the communication unit 202.
  • the recording medium selection control unit 212 transmits a GetRecordDestinations response including information about the HDD (recording unit 204) of the recorder 102 in response to receiving the GetRecordDestinations action transmitted from the recorder 101.
  • the device selection control unit 211 also transmits a GetRecordDestinationInfo response including detailed information about the HDD of the recorder 102 in response to receiving the GetRecordDestinationInfo action transmitted from the recorder 101.
  • the information transmitted from the recorder 101 during the recording medium selection processing is output to the upload reception control unit 213.
  • the upload reception control unit 213 performs a process corresponding to the upload process performed by the recorder 101.
  • the CreateObject execution unit 221 sends a CreateObject response in response to receiving the CreateObject action sent from the recorder 101.
  • the CreateObject response transmitted by the CreateObject execution unit 221 includes the brightness attribute information as the property information and the character code information, as described above.
  • the CreateObject execution unit 221 functions as a communication control unit that controls the transmission of the CreateObject response in response to receiving the CreateObject action.
  • the process of FIG. 52 is started, for example, when the broadcast of the content (program) to be recorded is started.
  • the broadcast wave signal is subjected to predetermined processing in the receiving unit 153, and the TVL stream of the content to be recorded is output to the MMT signal processing unit 154.
  • step S101 the MMT signal processing unit 154 performs a predetermined process on the TVL stream supplied from the receiving unit 153 to acquire the content.
  • step S102 the property information management unit 162 sets the property information used for CreateObject by referring to the information extracted by the property information extraction unit 161 from the MMT transmission data.
  • the brightness attribute information is also set.
  • the property information management unit 162 stores and manages each property information in the memory.
  • step S103 the MMT-TS conversion unit 156 performs MMT-TS conversion on the MMT content.
  • the TS content obtained by the MMT-TS conversion is supplied to the recording control unit 157.
  • step S104 the recording control unit 157 causes the recording unit 158 to record the TS content, which is the content after the format conversion supplied from the MMT-TS conversion unit 156.
  • step S105 the property information management unit 162 identifies the character code of the program information included in the AV stream forming the TS content obtained by the MMT-TS conversion.
  • the property information management unit 162 sets a value representing the specified character code as character code information and stores it in a memory or the like for management. After that, the process of FIG. 52 ends.
  • step S111 the input detection unit 152 of the recorder 101 accepts selection of content to be uploaded.
  • the content to be uploaded is selected from the recorded contents.
  • the information of the content to be uploaded, which is accepted by the input detection unit 152, is supplied to the controller 151.
  • step S112 the device selection control unit 163 performs device selection processing. The same process as the process described with reference to FIG. 6 is performed, and the device to which the content is uploaded is selected.
  • step S113 the recording medium selection control unit 164 performs a recording medium selection process. The same processing as the processing described with reference to FIG. 16 is performed, and the recording medium that is the recording destination of the content is selected.
  • step S114 the upload control unit 165 performs content upload processing.
  • CreateObject using property information including luminance attribute information and character code information is performed by the CreateObject execution unit 171, and then uploading of content is started.
  • the recorder 101 can set property information based on the information extracted from the MMT transmission data, and can perform CreateObject before uploading content such as 4K / 8K content.
  • the recorder 101 can upload the content to an external device after the completion of CreateObject. Since it is possible to upload via the network, in the network system of Fig. 31, 4K / 8K contents are targeted for Move of Usecase-1, Save of Usecase-2, and Streaming of Usecase-3. Is possible.
  • the process of FIG. 54 is started in response to the device selection process (step S112 of FIG. 53) performed by the recorder 101, for example.
  • step S151 the device selection control unit 211 (FIG. 51) of the controller 201 performs device selection support processing.
  • the device selection handling process is a process corresponding to the device selection process performed by the recorder 101.
  • step S152 the recording medium selection control unit 212 performs a recording medium selection corresponding process.
  • the recording medium selection corresponding process is a process corresponding to the recording medium selection process performed by the recorder 101.
  • step S153 the upload reception control unit 213 performs upload handling processing.
  • the upload corresponding process is a process corresponding to the upload process performed by the recorder 101.
  • CreateObject is performed between the recorder 101 and the recorder 102, and the information of the content to be uploaded is notified to the recorder 102.
  • uploading is started after CreateObject, and the TS content is received by the recorder 102.
  • processing corresponding to Use case is performed in each unit of the recorder 102.
  • step S154 the output control unit 205 identifies the attribute of the dynamic range of the brightness of the video of the uploaded content, based on the brightness attribute information notified by the CreateObject action.
  • step S155 the output control unit 205 identifies the character code of the program information included in the AV stream forming the uploaded content, based on the character code information notified by the CreateObject action.
  • step S156 the output control unit 205 performs processing according to the user's operation. For example, when displaying a list of contents recorded in the recording unit 204, the output control unit 205 displays information indicating whether each content is an HDR content or an SDR content.
  • the output control unit 205 extracts the program information included in the AV stream and processes it as the text of the specified character code. To display.
  • the recorder 102 can specify the attribute of the dynamic range of the luminance of the video of each content and display it in the content list without analyzing the AV stream.
  • the recorder 102 can switch its processing mode before uploading content and wait for uploading. For example, when the HDR content is transmitted, the recorder 102 needs to switch its own processing mode to the mode for performing the HDR processing. Further, when the SDR content is transmitted, the recorder 102 needs to switch its own processing mode to the mode in which the SDR processing is performed.
  • the recorder 102 can specify the character code of the program information included in the AV stream that constitutes each content and display it appropriately. That is, the recorder 102 can prevent the program information from being garbled.
  • Luminance attribute information and character code information can be included not only in CreateObject but also in various information exchanged between a plurality of devices.
  • FIG. 55 is a diagram showing an example of device installation.
  • the recorder 101 and the TV 251 installed in the living room and the TV 252 installed in the bedroom are shown. A case where the content recorded in the recorder 101 is viewed on the TV 252 in the bedroom will be described.
  • the TV 252 is a device capable of performing processing such as CreateObject with the recorder 101, like the recorder 102 described above.
  • a process of displaying a list of content (title list) recorded in the recorder 101 on the TV 252 is performed.
  • the list of contents is displayed, for example, by the TV 252 transmitting a CDS: Browse command defined by UPnP to the recorder 101.
  • the CDS: Browse command is a command for requesting browsing of a list of contents.
  • a response including information about each content recorded in the HDD is transmitted from the recorder 101 that receives the CDS: Browse command to the TV 252.
  • FIG. 56 is a diagram showing an example of the response of the CDS: Browse command.
  • the description from the 5th line to the 20th line in FIG. 56 is information about the first content.
  • the information notified using the response of the CDS: Browse command includes luminance attribute information and character code information, as shown in the 18th and 19th lines.
  • each information including brightness attribute information and character code information is described in the response.
  • a title list is displayed based on the response transmitted from the recorder 101, as shown in FIG. 55.
  • title 1 is the content of HDR and title 2 is the content of SDR. These displays are displayed based on the brightness attribute information included in the response.
  • a user in the bedroom can select which content to play by looking at such a title list.
  • the brightness attribute information may be used for content filtering such that only the information of the SDR content is displayed when the TV 252 does not support the display of the HDR image.
  • the character code information can be used for content filtering.
  • the content after MMT-TS conversion is recorded in the recorder 101, but MMT-TS conversion may be performed before uploading.
  • the content transmitted by the MMT is recorded in the recording medium such as the HDD while keeping the MMT format.
  • the MMT content selected as the upload target is subjected to MMT-TS conversion after being read from the recording medium and before the upload is started, and the TS content obtained by the MMT-TS conversion is transmitted. To be done.
  • the series of processes described above can be executed by hardware or software.
  • the program forming the software is installed from a program recording medium to a computer incorporated in dedicated hardware or a general-purpose personal computer.
  • FIG. 57 is a block diagram showing a configuration example of hardware of a computer that executes the series of processes described above by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 1005 is further connected to the bus 1004.
  • the input / output interface 1005 is connected to an input unit 1006 including a keyboard and a mouse, and an output unit 1007 including a display and a speaker. Further, the input / output interface 1005 is connected to a storage unit 1008 including a hard disk and a non-volatile memory, a communication unit 1009 including a network interface, and a drive 1010 that drives the removable medium 1011.
  • the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, thereby performing the series of processes described above. Is done.
  • the program executed by the CPU 1001 is recorded in, for example, the removable medium 1011 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and installed in the storage unit 1008.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the present technology may have a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processes.
  • each step described in the above flow chart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • the present technology may have the following configurations.
  • the information processing apparatus according to (1) further including a communication control unit that transmits the brightness attribute information to the external device before transmitting the content.
  • the communication control unit transmits the brightness attribute information to the external device as an argument of a CreateObject action.
  • the management unit When the dynamic range of brightness of the content is SDR, the management unit generates information indicating that the content is SDR as the brightness attribute information, and when the dynamic range of brightness of the content is HDR, an HDR method
  • the information processing apparatus according to any one of (1) to (3) above, wherein the information representing the information is generated as the brightness attribute information.
  • the management unit specifies a dynamic range of brightness of the content based on a parameter forming a control message of MMT and generates the brightness attribute information. apparatus.
  • the information processing device Get the content transmitted by MMT, Record the content, An information processing method for generating luminance attribute information regarding a luminance attribute of the content at the time of recording the content, which is transmitted as property information of the content to an external device which is a destination of the content via a network.
  • Get the content transmitted by MMT Record the content, To execute a process of generating brightness attribute information regarding the brightness attribute of the content at the time of recording the content, which is transmitted as property information of the content to an external device that is a destination of the content via the network. program.
  • a program for executing a process of transmitting a response including the brightness attribute information to the external device.
  • An information processing device including a management unit that is generated at times.
  • the information processing apparatus further including a communication control unit that transmits the character code information to the external device before transmitting the content.
  • the information processing device Get the content transmitted by MMT, Record the content, Character code information representing a character code of text included in an AV stream forming the content, which is transmitted as property information of the content to an external device that is a destination of the content via a network, is recorded in the content. Information processing method that is generated at times.
  • 101, 102 recorder 151 controller, 152 input detection unit, 153 reception unit, 154 MMT signal processing unit, 155 output control unit, 156 MMT-TS conversion unit, 157 recording control unit, 158 recording unit, 159 communication unit, 161 property Information extraction unit, 162 property information management unit, 163 device selection control unit, 164 recording medium selection control unit, 165 upload control unit, 171 CreateObject execution unit, 201 controller, 202 communication unit, 203 recording control unit, 204 recording unit, 205 Output control unit, 211 device selection control unit, 212 recording medium selection control unit, 213 upload reception control unit, 221 CreateObject execution unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本技術は、MMTにより伝送されたコンテンツを外部の装置に適切に送信することができるようにする情報処理装置、情報処理方法、およびプログラムに関する。 本技術の一側面の情報処理装置は、MMTにより伝送されたコンテンツを取得し、コンテンツを記録させ、ネットワークを経由したコンテンツの送信先となる外部の装置に対してコンテンツのプロパティ情報として送信する、コンテンツの輝度の属性に関する輝度属性情報をコンテンツの記録時に生成する。本技術は、MMTにより伝送されたコンテンツを受信し、外部の装置にネットワークを介してアップロードするSTBなどの受信機に適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理方法、およびプログラムに関し、特に、MMTにより伝送されたコンテンツを外部の装置に適切に送信することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
 次世代の放送規格におけるコンテンツの伝送は、MPEG-2 TSではなく、MMT(MPEG Media Transport)で行われる。MMTにより、放送波の伝送路だけでなく、インターネットなどの通信の伝送路を用いたコンテンツの伝送が可能になる。
 次世代の放送規格においては、4K/8Kコンテンツといったような、HD(High Definition)と比べて高解像度のコンテンツの放送が行われる。4K/8KコンテンツをHDDに記録したり、Blu-ray(登録商標) Disc(以下、適宜、BDという)に記録したりするための規格が近年策定されている。
特開2016-103745号公報
 HDDなどに一度記録された4K/8Kコンテンツをネットワークを介して外部の装置に転送したり、受信機において受信された4K/8Kコンテンツをネットワークを介して外部の装置に転送したりするための規格については、まだ存在しない。
 本技術はこのような状況に鑑みてなされたものであり、MMTにより伝送されたコンテンツを外部の装置に適切に送信することができるようにするものである。
 本技術の第1の側面の情報処理装置は、MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、前記コンテンツを記録させる記録制御部と、ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する管理部とを備える。
 本技術の第2の側面の情報処理装置は、MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、前記輝度属性情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える。
 本技術の第3の側面の情報処理装置は、MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、前記コンテンツを記録させる記録制御部と、ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する管理部とを備える。
 本技術の第4の側面の情報処理装置は、MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、前記文字コード情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える。
4K/8KコンテンツのUse caseの第1の例を示す図である。 4K/8KコンテンツのUse caseの第2の例を示す図である。 4K/8KコンテンツのUse caseの第3の例を示す図である。 ネットワークシステムの構成例を示す図である。 STBの一連の動作について説明するフローチャートである。 図5のステップS2において行われるデバイス選択について説明するフローチャートである。 M-Searchの例を示す図である。 M-Searchリクエストの例を示す図である。 デバイス一覧の例を示す図である。 Device descriptionの取得の例を示す図である。 Device descriptionの例を示す図である。 Device descriptionの例を示す図11に続く図である。 ビデオの一覧の取得の例を示す図である。 ビデオの一覧を要求するHTTPリクエストの例を示す図である。 ビデオの一覧を表す情報を含むHTTPレスポンスの例を示す図である。 図5のステップS3において行われる記録媒体選択について説明するフローチャートである。 GetRecordDestinationsの例を示す図である。 GetRecordDestinationsアクションの例を示す図である。 GetRecordDestinationsレスポンスの例を示す図である。 GetRecordDestinationInfoの例を示す図である。 GetRecordDestinationInfoアクションの例を示す図である。 GetRecordDestinationInfoレスポンスの例を示す図である。 GetContainerIDの例を示す図である。 GetContainerIDアクションの例を示す図である。 GetContainerIDレスポンスの例を示す図である。 図5のステップS4において行われるコンテンツのアップロードについて説明するフローチャートである。 CreateObjectの例を示す図である。 CreateObjectアクションの例を示す図である。 CreateObjectアクションの例を示す図である。 importURIを含むレスポンスの例を示す図である。 本技術の一実施形態に係るネットワークシステムの構成例を示す図である。 MMT放送の制御情報であるMMT-SIの構造を示す図である。 プロパティ情報の例を示す図である。 プロパティ情報の例を示す図である。 プロパティ情報の例を示す図である。 MMTの伝送データの例を示す図である。 MH-EITのシンタクスを示す図である。 Video_Component_Descriptor()のシンタクスを示す図である。 Video_Component_Descriptor()に含まれる情報の意味を示す図である。 MMTの伝送データの例を示す図である。 M2セクションメッセージに含まれるPLTのシンタクスを示す図である。 MPTのシンタクスを示す図である。 CreateObjectアクションの例を示す図である。 CreateObjectレスポンスの例を示す図である。 伝送データの例を示す図である。 TSを構成する制御情報の例を示す図である。 short_event_descriptor()のシンタクスを示す図である。 送信側のレコーダのハードウェア構成例を示すブロック図である。 コントローラの機能構成例を示すブロック図である。 受信側のレコーダのハードウェア構成例を示すブロック図である。 コントローラの機能構成例を示すブロック図である。 送信側のレコーダの記録処理について説明するフローチャートである。 送信側のレコーダの送信処理について説明するフローチャートである。 受信側のレコーダの処理について説明するフローチャートである。 デバイスの設置の例を示す図である。 CDS:Browseコマンドのレスポンスの例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.4K/8KコンテンツのUse case
 2.コンテンツの外部転送の流れ
 3.MMT放送を用いたネットワークシステム
 4.プロパティ情報の例
 5.プロパティ情報の設定例
 6.CreateObjectアクション/レスポンスの記述例
 7.アップロードデータの例
 8.レコーダの構成と動作
 9.変形例
<4K/8KコンテンツのUse case>
・Use case-1:STBとレコーダ間の接続
 図1は、4K/8KコンテンツのUse caseの第1の例を示す図である。
 図1の例においては、テレビジョン番組が4K/8Kコンテンツとして放送され、その受信後のUse caseが示されている。図2および図3においても同様である。
 4K/8Kコンテンツは、4K解像度(例えば3840×2160画素)または8K解像度(例えば7680×4320画素)といったように、HD解像度と比べて解像度が高いコンテンツである。輝度のダイナミックレンジが広いHDR(High Dynamic Range)の4K/8Kコンテンツの放送が、次世代の放送規格においては可能となっている。
 矢印A1の先に示すように、放送された4K/8Kコンテンツをレコーダ1内蔵のHDDに記録したり、レコーダ1に装填されたBDなどの光ディスクに記録したりするための規格については、既に策定されている。
 レコーダ1は、放送された4K/8Kコンテンツを受信し、内蔵のHDDや光ディスクなどの記録媒体に記録することができる。4K/8KコンテンツをTV(Television)2の外付けのHDDに記録することも可能となっている。
 一方、矢印A2の先に示すように、放送された4K/8KコンテンツをSTB(Set Top Box)3において受信し、ネットワークを介してレコーダ4に転送して、レコーダ4内蔵のHDDに記録するための規格は策定されていない。STB3は、いわゆるネットワーク越しのムーブを行うことができない。
 図1のSTB3とレコーダ4は、例えば同じ家庭内に設置されたデバイスである。STB3とレコーダ4は、無線LAN等を用いたホームネットワークに接続されており、相互に通信を行うことが可能となっている。
 なお、放送されたコンテンツがMPEG-2 TSを用いて放送されたHDコンテンツであれば、そのようなネットワーク越しのムーブは可能とされる。
・Use case-2:HDDに記録された4K/8Kコンテンツの退避
 図2は、4K/8KコンテンツのUse caseの第2の例を示す図である。
 図2の例においては、外付けのHDDがTV2に接続されている。TV2により受信され、外付けのHDDに一度記録された4K/8Kコンテンツを、ネットワークを介してレコーダ4に転送し、レコーダ4に装填された光ディスクに記録するための規格は策定されていない。
 このように、いわゆるデバイスバインドが行われた4K/8Kコンテンツについては、レコーダ4に装填された光ディスクに退避させることができない。外付けのHDDに一度記録された4K/8Kコンテンツは、TV2に紐付けられ、TV2においてのみ、再生して視聴することが可能とされる。
 ユーザは、外付けのHDDの空き容量がなくなった場合、不要な4K/8Kコンテンツを消して容量を確保しなければ、新たな4K/8Kコンテンツを記録することができない。
 なお、外付けのHDDに記録されたコンテンツがMPEG-2 TSを用いて放送されたHDコンテンツであれば、ネットワーク越しのムーブを用いた退避は可能とされる。
・Use case-3:外部視聴
 図3は、4K/8KコンテンツのUse caseの第3の例を示す図である。
 図3の例においては、家庭内に設置されたレコーダ1と、家庭の外にある携帯端末5との間で、インターネットなどのネットワークを介して通信を行うことが可能とされている。携帯端末5は、例えば、外出中のユーザが携帯するスマートフォンなどのデバイスである。
 レコーダ1内蔵のHDDに記録された4K/8Kコンテンツを、ネットワークを介して携帯端末5に送信し、携帯端末5上で視聴するための規格は策定されていない。携帯端末5のユーザは、自宅のレコーダ1に記録しておいたコンテンツをストリーミングによって携帯端末5上で視聴する、いわゆるストリーミング視聴を行うことができない。
 なお、レコーダ1内蔵のHDDに記録されたコンテンツがMPEG-2 TSを用いて放送されたHDコンテンツであれば、そのようなストリーミング視聴は可能とされる。
 このように、ネットワークを経由させる4K/8KコンテンツのUse caseに応じた規格は策定されていない。
 後述するように、本技術の一側面に係るネットワークシステムにおいては、このようなネットワークを経由させた4K/8Kコンテンツの処理が可能とされる。
<コンテンツの外部転送の流れ>
 ここで、以上のような各Use caseにおける、ネットワークを経由させた従来のコンテンツの転送の流れについて説明する。転送の対象となるコンテンツは、従来の規格で放送されたHDコンテンツである。
 図4は、ネットワークシステムの構成例を示す図である。
 図4のネットワークシステムは、例えば家庭内に構築されたシステムである。図4のネットワークシステムは、STB11、レコーダ12とともに、デバイスD1,D2がルータ13を介して接続されることによって構成される。例えば、STB11とレコーダ12は、HDMI(登録商標)(High-Definition Multimedia Interface)ケーブルなどを介して同じTVに接続される。それぞれ異なるTVがSTB11とレコーダ12に接続されるようにしてもよい。
 STB11は、放送による伝送路、または、インターネットなどの通信による伝送路を介して伝送されたコンテンツを受信する。図4の例においては、番組#1乃至#3が受信されている。
 レコーダ12のドライブには、BDなどの光ディスク21が装填されている。レコーダ12は、HDD22を内蔵するデバイスである。デバイスD1,D2は、それぞれ、レコーダ、PC、携帯端末などの、ルータ13が管理するDHCP(Dynamic Host Configuration Protocol)による通信に対応したデバイスである。
 以下、STB11が受信したコンテンツを、ネットワーク上の所定のデバイスにアップロード(転送)する場合のSTB11の一連の動作について説明する。アップロード先のデバイスにおいては、STB11から送信されてきたコンテンツの記録、視聴などが行われる。
 また、主に、放送による伝送路を介して伝送されたコンテンツをアップロードする場合の動作について説明するが、通信による伝送路を介して伝送されたコンテンツをアップロードする場合の処理も同様の処理となる。
 図5のフローチャートを参照して、STB11の一連の動作について説明する。
 ステップS1において、STB11は、アップロードの対象となるコンテンツの選択を受け付ける。例えば、STB11は、図示せぬTVに番組表を表示させ、放送中の番組の中から、アップロードの対象となる番組をユーザに選択させる。
 コンテンツの選択の受け付けが、デバイス選択の後や記録媒体選択の後に行われるようにすることも可能である。
 ステップS2において、STB11はデバイス選択を行う。デバイス選択により、コンテンツのアップロード先となるデバイスが選択される。デバイス選択の詳細については、図6のフローチャートを参照して後述する。
 ステップS3において、STB11は記録媒体選択を行う。記録媒体選択により、コンテンツの記録先となる記録媒体が選択される。記録媒体の選択は、ステップS2において選択されたデバイスが有する記録媒体を対象として行われる。記録媒体選択の詳細については、図16のフローチャートを参照して後述する。
 ステップS4において、STB11はコンテンツのアップロードを行う。コンテンツのアップロードの詳細については、図26のフローチャートを参照して後述する。対象となるコンテンツのアップロードが完了した場合、図5の処理は終了となる。
・デバイス選択
 図6のフローチャートを参照して、図5のステップS2において行われるデバイス選択について説明する。
 ステップS11において、STB11は、M-Searchを行い、対応デバイスの一覧を取得する。M-Searchは、UPnP(Universal Plug and Play)を用いたデバイス検出のメソッドである。
 M-Searchは、クライアント機器が、自身と同一のネットワーク内に存在する各デバイスに対して、M-SearchのメッセージであるM-Searchリクエストをマルチキャストすることによって行われる。M-Searchリクエストを受信したデバイスからは、そのデバイスのURLを含むM-Searchレスポンスが送信されてくる。
 ステップS12において、STB11は、M-Searchにより取得されたURLに基づいて、それぞれの対応デバイスからDevice descriptionを取得する。Device descriptionには、デバイス名であるfriendly nameなどの、各対応デバイスに関する情報が含まれる。
 ステップS13において、STB11は、Device descriptionに含まれるfriendly nameをユーザに提示する。ユーザは、例えばTVに表示されたfriendly nameを見て、コンテンツのアップロード先とするデバイスを選択することになる。
 アップロード先とするデバイスが選択された場合、図5のステップS2に戻り、それ以降の処理が行われる。
 図7は、ステップS11において行われるM-Searchの例を示す図である。
 矢印A11で示すように、STB11から各デバイスに対してM-Searchリクエストが送信される。M-Searchリクエストを受信した、UPnPに対応したデバイスである対応デバイスからは、矢印A12で示すようにM-Searchレスポンスが送信される。
 STB11は、M-Searchレスポンスを受信し、対応デバイスの一覧を取得する。図7の例においては、枠F1,F2で囲んで示すように、レコーダ12が対応デバイス1とされ、デバイスD2が対応デバイス2とされている。
 図8は、M-Searchリクエストの例を示す図である。
 デバイスの探索要求であるM-Searchリクエストには、3行目に示すように、M-Searchリクエストの発行元であるSTB11のIPアドレスが含まれる。また、5行目に示すように、MediaServerの機能をSTB11が有していることを表す情報が含まれる。
 図8の各行の左端に示す数字は、説明の便宜上付している数字であり、M-Searchリクエストを構成する記述ではない。図9以降の各情報の記述においても同様である。各デバイス間で送受信される情報を構成する記述のうち、主な記述について説明する。
 図9は、M-Searchレスポンスに基づいて取得されるデバイス一覧の例を示す図である。
 1行目乃至10行目の記述が、対応デバイス1であるレコーダ12から送信されてきたM-Searchレスポンスに基づいて得られる記述である。4行目の「LOCATION: http://169.254.226.30:64220/description.xml」が、対応デバイス1のURLを表す。
 11行目乃至20行目の記述が、対応デバイス2であるデバイスD2から送信されてきたM-Searchレスポンスに基づいて得られる記述である。14行目の「LOCATION: http://169.254.226.31:64220/description.xml」が、対応デバイス2のURLを表す。
 図10は、ステップS12において行われるDevice descriptionの取得の例を示す図である。
 矢印A21で示すように、対応デバイス1であるレコーダ12に対して、Device descriptionの要求であるHTTP GETがSTB11から送信される。レコーダ12を送信先とするHTTP GETには、M-Searchレスポンスに含まれていたレコーダ12のURLが含まれる。HTTP GETを受信したレコーダ12からは、矢印A22で示すようにDevice descriptionが送信される。
 対応デバイス2であるデバイスD2に対しても、同様にしてHTTP GETがSTB11から送信され、HTTP GETを受信したデバイスD2から送信されるDevice descriptionが取得される。
 図11および図12は、Device descriptionの例を示す図である。
 図11および図12のDevice descriptionは、例えばレコーダ12から取得されたDevice descriptionである。
 図11の4行目乃至6行目の記述が、デバイスが対応しているUPnPのバージョンを表し、8行目の記述が、当該デバイスのUPnP Deviceとしての能力を表す。9行目乃至16行目の記述が、当該デバイスのHDRL/SPRL/JLABとしての能力を表し、17行目乃至30行目の記述が、ユーザに示す際に用いられる当該デバイスの説明を表す。
 例えば、17行目の「<friendlyName>BDZ</friendlyName>」は、レコーダ12のfriendly nameが「BDZ」であることを表す。当該デバイスの説明として、例えば、製造メーカー(manufacturer)、製造メーカーのURL(manufacturerURL)、モデル名(modelDescription)などの各種の情報が記述される。
 図12の1行目乃至16行目の記述が、当該デバイスの説明がサポートするUPnPの機能を表す。例えば、2行目乃至8行目の記述は、レコーダ12がContentDirectoryの機能に対応していることを表す。また、9行目乃至15行目の記述は、レコーダ12がCMS(Connection Manager Service)の機能に対応していることを表す。
 図13は、対応デバイスがサポートするビデオの一覧の取得の例を示す図である。
 対応デバイスがサポートするビデオの一覧の取得は、例えば、Device descriptionが取得された後であって、friendly nameのユーザへの提示の前に適宜行われる。
 矢印A31で示すように、対応デバイス1であるレコーダ12に対して、サポートするビデオの一覧を要求するHTTPリクエストがSTB11から送信される。STB11からの要求を受信したレコーダ12からは、矢印A32で示すように、レコーダ12がサポートするビデオの一覧を表す情報を含むHTTPレスポンスが送信される。
 図14は、サポートするビデオの一覧を要求するHTTPリクエストの例を示す図である。
 1行目の「POST /CMS HTTP/1.1」は、レコーダ12がCMSに対応していることについての記述がDevice descriptionに含まれ(図12)、URLが指定されていたことに基づいて設定される。2行目の「HOST: 169.254.226.30:64220」は、対応デバイス1のURLを表す。
 図15は、サポートするビデオの一覧を表す情報を含むHTTPレスポンスの例を示す図である。
 6行目の「MPEG_TS_JP_T」は、MPEG-2 TSによる2K(HD)解像度までのコンテンツの処理をレコーダ12がサポートしていることを表す。
 アップロード先とするデバイスの選択は以上のようにして行われる。
・記録媒体の選択
 次に、図16のフローチャートを参照して、図5のステップS3において行われる記録媒体選択について説明する。
 ステップS21において、STB11は、GetRecordDestinationsを行い、ステップS1のデバイス選択により選択された対応デバイスである例えばレコーダ12から、RecordDestinationを取得する。RecordDestinationには、デバイスが有する記録媒体に関する情報が含まれる。
 ステップS22において、STB11は、GetRecordDestinationsにより取得されたRecord Destinationに基づいて、friendlyNamedestIDをユーザに提示する。ユーザは、例えばTVに表示されたfriendlyNamedestIDを見て、コンテンツの記録先とする記録媒体を選択することになる。
 記録媒体が選択された場合、ステップS23において、STB11は、GetRecordContainerIDを行い、ContainerIDをレコーダ12から取得する。ContainerIDは、ユーザにより選択された記録媒体のIDである。ContainerIDが取得された後、図5のステップS3に戻り、それ以降の処理が行われる。
 図17は、ステップS21において行われるGetRecordDestinationsの例を示す図である。
 矢印A41で示すように、STB11からレコーダ12に対してGetRecordDestinationsアクションが送信される。GetRecordDestinationsアクションを受信したレコーダ12からは、矢印A42で示すようにGetRecordDestinationsレスポンスが送信される。レコーダ12が送信するGetRecordDestinationsレスポンスには、枠F11で囲んで示すように、光ディスク21に関する情報とHDD22に関する情報を含むRecordDestinationが含まれる。
 図18は、GetRecordDestinationsアクションの例を示す図である。
 1行目の「POST /upnp/control/ContentDirectory HTTP/1.1」は、対応デバイス1がContentDirectoryをサポートしていることに基づいて記述される(図12)。2行目の「Host: 169.254.226.30:64220」は、対応デバイス1のURLを表す。12行目乃至14行目の記述は、対応デバイス1がサポートする記録媒体の一覧を要求することを表す。
 図19は、GetRecordDestinationsレスポンスの例を示す図である。
 9行目の「RecordDestination destID=&quot;bd1.cache」と10行目の「RecordDestination destID=&quot;hdd1」は、対応デバイス1であるレコーダ12が、記録媒体として「bd1.cache」と「hdd1」をサポートしていることを表す。「bd1.cache」のfriendly nameは「ISIS BD」であり、「hdd1」のfriendly nameは「ISIS hdd」である。
 GetRecordDestinationsレスポンスによりRecordDestinationが取得された後、それぞれの記録媒体の詳細がGetRecordDestinationInfoにより取得される。GetRecordDestinationInfoは、例えば、friendlyNamedestIDのユーザへの提示の前に適宜行われる。
 図20は、GetRecordDestinationInfoの例を示す図である。
 矢印A51で示すように、STB11からレコーダ12に対してGetRecordDestinationInfoアクションが送信される。GetRecordDestinationInfoアクションを受信したレコーダ12からは、矢印A52で示すようにGetRecordDestinationInfoレスポンスが送信される。レコーダ12が送信するGetRecordDestinationInfoレスポンスには、例えば、光ディスク21に関する詳細情報を含むRecordDestinationInfoが含まれる。
 図21は、GetRecordDestinationInfoアクションの例を示す図である。
 2行目の「Host: 169.254.226.30:64220」は対応デバイス1のURLを表す。12行目の「<RecordDestinationID>bd1.cache</RecordDestinationID>」は、bd1.cacheの詳細をリクエストしていることを表す。
 図22は、GetRecordDestinationInfoレスポンスの例を示す図である。
 10行目の「BD」は、記録媒体としての「bd1.cache」にBDが装填されていることを表す。
 同様の処理がHDD22を対象として行われ、HDD22に関する詳細情報を含むRecordDestinationInfoが取得される。コンテンツの記録先としてHDD22が選択されたものとして説明する。
 図23は、ステップS23において行われるGetRecordContainerIDの例を示す図である。
 矢印A61で示すように、STB11からレコーダ12に対してGetRecordContainerIDアクションが送信される。GetRecordContainerIDアクションを受信したレコーダ12からは、矢印A62で示すようにGetContainerIDレスポンスが送信される。レコーダ12が送信するGetContainerIDレスポンスには、枠F21で囲んで示すように、記録先としてユーザにより選択されたHDD22のContainerIDが含まれる。GetContainerIDは、記録先の指定の仕方を決定するための処理となる。
 図24は、GetRecordContainerIDアクションの例を示す図である。
 2行目の「Host: 169.254.226.30:64220」は、対応デバイス1のURLを表す。12行目の「<RecordDestinationID>hdd1</RecordDestinationID>」は、記録媒体としてHDD22を指定していることを表す。23行目乃至25行目の記述は、アップロードするファイルのフォーマット、ファイルサイズなどを表す。
 図25は、GetRecordContainerIDレスポンスの例を示す図である。
 5行目の「<ContainerID>VIDEO</ContainerID>」は、ContainerIDが「VIDEO」であることを表す。
 記録媒体の選択は以上ようにして行われる。
・コンテンツのアップロード
 次に、図26のフローチャートを参照して、図5のステップS4において行われるコンテンツのアップロードについて説明する。
 ステップS31において、STB11は、ContainerIDを引数として指定したCreateObjectを行い、ステップS3において選択された記録媒体からimportURIを取得する。importURIは、HTTP Postによるコンテンツのpost先を表す。
 ステップS32において、STB11は、importURIを引数として指定したHTTP Postによって、コンテンツをアップロードする。
 ステップS33において、STB11は、コンテンツのアップロードが終了したか否かを判定する。
 STB11は、コンテンツのアップロードが終了していないとステップS33において判定した場合、ステップS32に戻り、コンテンツのアップロードを繰り返す。
 コンテンツのアップロードが終了したとステップS33において判定した場合、ステップS34において、STB11は、importURIを引数として指定したHTTP Postによって、chunkSize=0であることをデバイスに通知する。chunkSize=0は、コンテンツの全てのデータのアップロードが終了したことを表す。
 コンテンツのアップロードが終了した場合、図5のステップS4に戻り、一連の処理の終了となる。
 図27は、ステップS31において行われるCreateObjectの例を示す図である。
 矢印A71で示すように、STB11からレコーダ12に対してCreateObjectアクションが送信される。CreateObjectアクションを受信したレコーダ12からは、矢印A72で示すようにimportURIを含むレスポンスが送信される。CreateObjectは、HTTP Postによりコンテンツをアップロードする場合のpost先(アップロード先)の指定の仕方を決定するための処理となる。
 図28および図29は、CreateObjectアクションの例を示す図である。
 図28および図29に示すような記述を含むCreateObjectアクションが、STB11からレコーダ12に対して送信される。
 図28の4行目の「Host: 169.254.226.30:64220」は、アップロード先のデバイスであるレコーダ12のURLを表す。15行目の「<ContainerID>DLNA.ORG_AnyContainer</ContainerID>」は、ContainerID、すなわち、記録先の指定を表す。ContainerIDが「AnyContainer」であることは、記録先をデバイスに一任することを表す。
 図29の11行目乃至20行目の記述が、アップロードの対象となるコンテンツに関する情報となる。
 11行目の「<dc:title>................................................ #1... ...</dc:title>」は、コンテンツのタイトル名を表す。
 12行目の「<arib:objectType>SPTV_CS</arib:objectType>」は、コンテンツのタイプを表す。
 13行目の「<upnp:class>object.item.videoItem</upnp:class>」は、コンテンツのUPnP上での区分けを表す。
 14行目の「<upnp:genre>...............</upnp:genre>」は、スポーツなどの、コンテンツのジャンルを表す。
 15行目の「<upnp:channelName>.....................X(AT-X)</upnp:channelName>」は、コンテンツの放送が行われるチャンネルのチャンネル名を表す。
 16行目の「<upnp:channelNr>729</upnp:channelNr>」は、コンテンツの放送が行われるチャンネルのチャンネル番号を表す。
 17行目の「<dc:date>2009-10-20T13:59:21</dc:date>」は、コンテンツの放送が行われる日時を表す。
 19行目および20行目の記述は、コンテンツの詳細を表す。
 図30は、importURIを含むレスポンスの例を示す図である。
 11行目乃至20行目の記述が、記録の仕方に関するレコーダ12からSTB11に対する通知となる。19行目の「“http://192.168.16.210:60151/UpObjID=UL_1”」は、記録場所としてのimportURIを表す。
 CreateObjectアクションを受信したレコーダ12からは、このような記述を含むレスポンスが送信される。
 このような各種のやりとりがSTB11とレコーダ12の間で行われた後、HTTP Postにより、コンテンツの実データであるAVデータのアップロードが開始される。
 すなわち、コンテンツのアップロードを開始する前、STB11は、アップロードするコンテンツに関する情報であるプロパティ情報を、CreateObjectを行うことによってレコーダ12に通知する必要がある。図29を参照して説明したように、STB11が送信するCreateObjectアクションには、コンテンツのタイトル名、コンテンツのタイプなどの、アップロードするコンテンツに関する情報であるプロパティ情報が引数として含まれる。
 また、STB11は、CreateObjectを行うためには、コンテンツとともに伝送されてきた各種の情報から、プロパティ情報として用いる情報を抽出し、CreateObjectアクションに含める情報として管理しておく必要がある。
<MMT放送を用いたネットワークシステム>
 図31は、本技術の一実施形態に係るネットワークシステムの構成例を示す図である。
 図31のネットワークシステムは、図4のネットワークシステムと同様に例えば家庭内に構築される。
 図31のネットワークシステムは、レコーダ101とレコーダ102がネットワークを介して接続されることによって構成される。レコーダ101とレコーダ102は、コンテンツを含む各種の情報を処理する情報処理装置である。例えばレコーダ101を基準とした場合、レコーダ102は外部の装置となる。
 図31のネットワークシステムにも、上述したように、ネットワークにおける通信を制御するルータ、コンテンツのアップロード先のデバイスとなることが可能な他の外部の装置が設けられる。重複する説明については適宜省略する。
 図31のネットワークシステムにおいて処理の対象となるコンテンツは、MMT放送によって放送された例えば4K/8Kコンテンツである。MMT放送は、コンテンツの伝送方式としてMMT(MPEG Media Transport)を用いた放送である。
 MMTを用いてインターネットを介してサーバ111から送信されてきた4K/8Kコンテンツが図31のネットワークシステムにおいて処理されるようにしてもよい。
 すなわち、MMTを用いて伝送されるコンテンツであれば、伝送路はどのようなものであってもよい。例えば、地上波、放送波、ケーブルテレビ網、通信網を伝送路として伝送されてきたMMTのコンテンツの処理が、図31のネットワークシステムにおいて行われる。
 以下、主に、MMT放送によって伝送されたコンテンツの処理について説明するが、他の伝送路を介して伝送されてきたコンテンツの処理も同様にして行われる。
 レコーダ101は、MMT放送によって放送された4K/8Kコンテンツを受信する。レコーダ101と、ネットワーク上の外部の装置との間では、上述したような各種のやりとりが所定のプロトコルに従って行われる。
 各種のやりとりがレコーダ101と外部の装置との間で行われた後、Use case-1のムーブ(図1)、Use case-2の退避(図2)、および、Use case-3のストリーミング視聴(図3)が4K/8Kコンテンツを対象として行われる。
 Use case-1のムーブは、例えば、レコーダ101が、放送された4K/8Kコンテンツを受信し、レコーダ102にアップロードして、レコーダ102のHDDに記録させるようにして行われる。レコーダ101において受信された4K/8Kコンテンツがレコーダ101内のHDDに一度記録され、記録済みの4K/8Kコンテンツがアップロードされるようにしてもよい。
 Use case-2の4K/8Kコンテンツの退避は、例えば、レコーダ101が、内蔵のHDDに一度記録させた4K/8Kコンテンツをレコーダ102にアップロードし、レコーダ102に装填された光ディスクやHDDに記録させるようにして行われる。
 Use case-3のストリーミング視聴は、例えば、レコーダ101と、レコーダ101のユーザの携帯端末との間で行われる。レコーダ101は、内蔵のHDDに一度記録させた4K/8Kコンテンツを携帯端末にアップロードし、ストリーミングによって携帯端末上で視聴可能とする。
 ストリーミングによる4K/8Kコンテンツの視聴が、レコーダ101とレコーダ102の間で行われるようにしてもよい。この場合、レコーダ101は、内蔵のHDDに一度記録させた4K/8Kコンテンツをレコーダ102にアップロードし、レコーダ102に接続されたTVにおいて視聴可能とする。
 Use case-1,Use case-2,Use case-3のいずれの場合においても、4K/8Kコンテンツのアップロードを開始する前、レコーダ101は、アップロードする4K/8Kコンテンツのプロパティ情報を、CreateObjectを行うことによって外部の装置に通知する必要がある。
 また、レコーダ101は、CreateObjectを行うためには、4K/8Kコンテンツとともに伝送された各種の情報を参照し、プロパティ情報を設定してCreateObjectアクションに含める必要がある。
 レコーダ101は、プロパティ情報として用いる情報を、MMT放送によって伝送される制御情報を参照して設定し、CreateObjectを行う機能を有する。
 例えば、アップロードする4K/8KコンテンツがHDR(High Dynamic Range)のコンテンツであるのか、SDR(Standard Dynamic Range)のコンテンツであるのかを表す輝度属性情報が、プロパティ情報としてCreateObjectに用いられる。
 輝度属性情報を含む形でCreateObjectが行われることにより、レコーダ102は、CreateObjectによって得られた輝度属性情報に基づいて、アップロード対象の4K/8KコンテンツがHDRのコンテンツであるのか、SDRのコンテンツであるのかを特定することができる。
 また、アップロードする4K/8Kコンテンツを構成するAVストリームに含まれるSI(Service Information)中のテキストの文字コードの種別を表す文字コード情報が、プロパティ情報としてCreateObjectに用いられる。
 SIには、4K/8Kコンテンツである番組の番組情報が含まれる。番組情報は、番組名、あらすじなどの、番組に関する各種の情報を表すテキストデータにより構成される。
 MMT放送のAVストリームに含まれる番組情報の文字コードは、UTF-8としてARIBにおいて規定されている。文字コード情報を含む形でCreateObjectが行われることにより、レコーダ102は、CreateObjectによって得られた文字コード情報に基づいて、アップロード対象の4K/8Kコンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定することができる。
 MMTのコンテンツを受信し、HDDなどの記録媒体に記録するデバイスの中には、MMTのコンテンツをTS(Transport Stream)のコンテンツに変換するMMT-TS変換を行い、MMT-TS変換後のTSのコンテンツを記録するデバイスがある。MMT-TS変換時、AVストリームに含まれる番組情報が、UTF-8のテキストのままであることもあるし、ARIB-8単位符号などの他の文字コードのテキストに変換されることもある。
 アップロードされたTSのコンテンツが、他の文字コードのテキストを含むコンテンツである場合、受信側のデバイスは、UTF-8のテキストを含むコンテンツがアップロードされることを想定しているときには、テキストを適切に表示させることができない。
 文字コード情報をプロパティ情報として含む形でCreateObjectが行われることにより、レコーダ102は、AVストリームに含まれる番組情報の文字コードを特定することができ、いわゆる文字化けなどの発生を防ぐことが可能となる。
 図32は、MMT放送の制御情報であるMMT-SIの構造を示す図である。
 MMTのパッケージの構成や放送サービスに関連する情報を示すMMT-SIは、図32に示すように、テーブルや記述子を格納するメッセージ、特定の情報を示す要素や属性を持つテーブル、および、詳細な情報を示す記述子の3階層の情報から構成される。
 メッセージは、MMTPペイロードに格納され、MMTPパケットを用いて伝送される。メッセージがMMTPペイロードを構成する際のpayload_typeの値は0x02である。1つのメッセージが1つのMMTPペイロードに格納される。
 レコーダ101は、このようなMMT-SIを構成するメッセージ(制御メッセージ)、テーブル、および記述子のうちの少なくともいずれかの記述を参照し、プロパティ情報を生成する。
 なお、図31のネットワークシステムにおいて処理の対象となるコンテンツが4K/8Kコンテンツであるものとしたが、HDのコンテンツが処理の対象となるようにしてもよい。以下、適宜、MMTを用いて伝送され、図31のネットワークシステムにおいて処理の対象となるコンテンツを、単にコンテンツという。
<プロパティ情報の例>
 図33乃至図35は、プロパティ情報の例を示す図である。
 図33乃至図35に示す27種類を含むプロパティ情報がCreateObjectに用いられる。プロパティ情報は、MMT放送波(MMT放送の信号)から抽出された情報に基づいてレコーダ101において設定される。
 図33乃至図35において、左端の数字はプロパティ情報の番号を表す。説明の便宜上、適宜、各プロパティ情報を、割り当てられた番号を用いて説明する。例えば、「プロパティ情報P1」は、「1」の番号が割り当てられたプロパティ情報を表す。他の番号が割り当てられたプロパティ情報も同様である。
 図33乃至図35においては、各番号が割り当てられたプロパティ情報毎に、プロパティ名と意味が示されている。
・プロパティ情報P1
 プロパティ情報P1は、プロパティ名を「arib:objectType」とするプロパティ情報である。プロパティ情報P1は、objectの発祥を表す。
・プロパティ情報P2
 プロパティ情報P2は、プロパティ名を「dc:title」とするプロパティ情報である。プロパティ情報P2は、イベント名(番組名)を表す。
・プロパティ情報P3
 プロパティ情報P3は、プロパティ名を「upnp:genre」とするプロパティ情報である。プロパティ情報P3は、番組ジャンルを表す。
・プロパティ情報P4
 プロパティ情報P4は、プロパティ名を「upnp:chunnelName」とするプロパティ情報である。プロパティ情報P4は、チャンネル名を表す。
・プロパティ情報P5
 プロパティ情報P5は、プロパティ名を「upnp:chunnelNr」とするプロパティ情報である。プロパティ情報P5は、チャンネル番号を表す。
・プロパティ情報P6
 プロパティ情報P6は、プロパティ名を「upnp:scheduledStartTime」とするプロパティ情報である。プロパティ情報P6は、番組開始時刻を表す。
・プロパティ情報P7
 プロパティ情報P7は、プロパティ名を「upnp:scheduledEndTime」とするプロパティ情報である。プロパティ情報P7は、番組終了時刻を表す。
・プロパティ情報P8
 プロパティ情報P8は、プロパティ名を「dc:description」とするプロパティ情報である。プロパティ情報P8は、番組詳細情報を表す。
・プロパティ情報P9
 プロパティ情報P9は、プロパティ名を「arib:longDescription」とするプロパティ情報である。プロパティ情報P9は、番組詳細情報を表す。
・プロパティ情報P10
 プロパティ情報P10は、プロパティ名を「res@resolution」とするプロパティ情報である。プロパティ情報P10は、番組のビデオの解像度を表す。
・プロパティ情報P11
 図34のプロパティ情報P11は、プロパティ名を「upnp:rating」とするプロパティ情報である。プロパティ情報P11は、最低視聴可能年齢を表す。
・プロパティ情報P12
 プロパティ情報P12は、プロパティ名を「arib:videoComponentType」とするプロパティ情報である。プロパティ情報P12は、ビデオの種別を表す。
・プロパティ情報P13
 プロパティ情報P13は、プロパティ名を「arib:audioComponentType」とするプロパティ情報である。プロパティ情報P13は、オーディオの種別を表す。
・プロパティ情報P14
 プロパティ情報P14は、プロパティ名を「arib:audioComponentType@qualityIndicator」とするプロパティ情報である。プロパティ情報P14は、オーディオの音質モードを表す。
・プロパティ情報P15
 プロパティ情報P15は、プロパティ名を「arib:copyControlInfo」とするプロパティ情報である。プロパティ情報P15は、番組のコピーコントロール情報を表す。
・プロパティ情報P16
 プロパティ情報P16は、プロパティ名を「arib:dataProgramInfo」とするプロパティ情報である。プロパティ情報P16は、データ放送が付属しているか否かを表す。
・プロパティ情報P17
 プロパティ情報P17は、プロパティ名を「arib:dataProgramInfo@sync」とするプロパティ情報である。プロパティ情報P17は、データ放送と連動しているか否かを表す。
・プロパティ情報P18
 プロパティ情報P18は、プロパティ名を「arib:captionInfo」とするプロパティ情報である。プロパティ情報P18は、字幕キャプションの運用を表す。
・プロパティ情報P19
 プロパティ情報P19は、プロパティ名を「arib:multiESInfo」とするプロパティ情報である。プロパティ情報P19は、ビデオあるいはオーディオが複数あるか否かを表す。
・プロパティ情報P20
 プロパティ情報P20は、プロパティ名を「sptv:caProgramInfo」とするプロパティ情報である。プロパティ情報P20は、番組がスクランブルされているか否かを表す。
・プロパティ情報P21
 図35のプロパティ情報P21は、プロパティ名を「sptv:closedcaptionInfo」とするプロパティ情報である。プロパティ情報P21は、字幕のあり/なしを表す。
・プロパティ情報P22
 プロパティ情報P22は、プロパティ名を「sptv:nextTitle」とするプロパティ情報である。プロパティ情報P22は、次の番組であるFollowing eventのイベント名を表す。
・プロパティ情報P23
 プロパティ情報P23は、プロパティ名を「sptv:nextScheduledStartTime」とするプロパティ情報である。プロパティ情報P23は、Following eventの開始時刻を表す。
・プロパティ情報P24
 プロパティ情報P24は、プロパティ名を「sptv:nextScheduledEndTime」とするプロパティ情報である。プロパティ情報P24は、Following eventの終了時刻を表す。
・プロパティ情報P25
 プロパティ情報P25は、プロパティ名を「sptv:nextEventDescription」とするプロパティ情報である。プロパティ情報P25は、Following eventのイベント情報を表す。
・プロパティ情報P26
 プロパティ情報P26は、プロパティ名を「xxx:transferCharasteristic」とするプロパティ情報である。プロパティ情報P26は、番組の映像の輝度のダイナミックレンジの属性を表す。
 番組の映像の輝度のダイナミックレンジがSDRである場合、プロパティ情報P26には、SDRであることを表す情報が設定される。SDRは、最高輝度を100nit(=100cd/m2)とする輝度範囲を表す。
 また、番組の映像の輝度のダイナミックレンジがHDRであり、HDRの方式がHLG(Hybrid Log Gamma)方式である場合、プロパティ情報P26には、HLG方式であることを表す情報が設定される。HLG方式は、HLGカーブを用いるHDRの方式である。
 番組の映像の輝度のダイナミックレンジがHDRであり、HDRの方式がPQ(Perceptual Quantization)方式である場合、プロパティ情報P26には、PQ方式であることを表す情報が設定される。PQ方式は、PQカーブを用いるHDRの方式である。
 レコーダ102は、プロパティ情報P26を参照することにより、CreateObjectの後に送信されてくるコンテンツがSDRのコンテンツであるのか、HDRのコンテンツであるのかを特定することができる。
 すなわち、HLG方式であることを表す情報、またはPQ方式であることを表す情報がプロパティ情報P26として記述されている場合、レコーダ102は、CreateObjectの後に送信されてくるコンテンツがHDRのコンテンツであると特定することになる。
 このように、プロパティ情報P26は、アップロードするコンテンツがHDRのコンテンツであるのか、SDRのコンテンツであるのかを表す輝度属性情報である。
・プロパティ情報P27
 プロパティ情報P27は、プロパティ名を「xxx:characterCode」とするプロパティ情報である。プロパティ情報P27は、番組のAVストリームに含まれる番組情報の文字コードを表す。
 プロパティ情報P27により、UTF-8(BOM(Byte Order Mark)なし)、UTF-8 BOM(BOMあり)、UTF-16BE(Big Endian)、UTF-16LE(Little Endian)、UTF-16BE BOM、UTF-16LE BOM、ARIB-B24のうちのいずれかの文字コードが表される。ARIB-B24は8単位符号を表す。
 ここで、レコーダ101においては、MMT放送の番組の録画時、MMT-TS変換が行われ、MMT-TS変換後のTSのコンテンツが番組のデータとして記録されるものとする。
 レコーダ101は、MMT-TS変換の際にAVストリームに含まれる番組情報の文字コードの変換を行っていない場合、UTF-8を表す値をプロパティ情報P27として設定し、CreateObjectを行うことになる。
 また、レコーダ101は、MMT-TS変換の際に、AVストリームに含まれる番組情報の文字コードの変換を行っている場合、変換後の文字コードを表す値をプロパティ情報P27として設定し、CreateObjectを行うことになる。
 このように、プロパティ情報P27は、アップロードするコンテンツを構成するAVストリームに含まれる番組情報の文字コードを表す文字コード情報である。
<プロパティ情報の設定例>
 図33乃至図35の27種類のプロパティ情報のうち、プロパティ情報P1乃至P25は、MMTPパケットにより伝送されるテーブルであるMH-EIT(MH-Event_Information_Table),MH-SDT(MH-Service Description Table),MPT(MMT Package Table)、TLVのSI(Service Information)であるNITなどを参照することによってレコーダ101において設定される。
 輝度属性情報であるプロパティ情報P26と、文字コード情報であるプロパティ情報P27の設定の具体例について主に説明する。
・プロパティ情報P26の設定
(1)MH-EITを参照元とする設定
 図36は、MMTの伝送データの例を示す図である。
 レコーダ101が受信するMMTの伝送データは、MMTPパケットの並びから構成される。MMTPパケットのヘッダには、ペイロードに格納されるデータの種類を表すpacket_idが含まれる。
 図36に示すように、Packet_idの値が0x8000である場合、MH-EITがペイロードに格納される。
 図37は、MH-EITのシンタクスを示す図である。
 主な記述について説明する。後述する他のシンタクスにおいても同様である。
 MH-EITには、original_network_id,start_time,duration,descriptor()が含まれる。
 例えば、original_network_idは、プロパティ情報P1である「arib:objectType」の参照元として用いられる。レコーダ101は、original_network_idの値を抽出し、CreateObjectのときに用いるプロパティ情報P1としてレコーダ101内のメモリに記憶する。
 また、start_timeは、プロパティ情報P6である「upnp:scheduledStartTime」の参照元として用いられる。レコーダ101は、start_timeの値を抽出し、CreateObjectのときに用いるプロパティ情報P6としてレコーダ101内のメモリに記憶する。
 start_timeとdurationは、プロパティ情報P7である「upnp:scheduledEndTime」の参照元として用いられる。レコーダ101は、start_timeとdurationのそれぞれの値を抽出する。レコーダ101は、start_timeにより表される時刻にdurationにより表される期間を加算して求められた時刻を、CreateObjectのときに用いるプロパティ情報P7としてレコーダ101内のメモリに記憶する。
 このように、MH-EITの各記述を参照してプロパティ情報の設定が行われる。
 枠で囲んで示すMH-EITのdescriptor()には、Video_Component_Descriptor()を含む各種の記述子が含まれる。
 図38は、Video_Component_Descriptor()のシンタクスを示す図である。
 Video_Component_Descriptor()には、video_resolution,video_aspect_ratio,video_frame_rate,video_transfer_characteristicsなどの、映像に関する属性情報が含まれる。
 これらの記述のうちのvideo_resolutionは、プロパティ情報P10である「res@resolution」の参照元として用いられる。レコーダ101は、video_resolutionの値を抽出し、CreateObjectのときに用いるプロパティ情報P10としてレコーダ101内のメモリに記憶する。
 video_resolution,video_aspect_ratio,video_frame_rate,video_transfer_characteristicsは、プロパティ情報P12である「arib:videoComponentType」の参照元として用いられる。レコーダ101は、video_resolution,video_aspect_ratio,video_frame_rate,video_transfer_characteristicsの値をそれぞれ抽出し、それらの値の組み合わせに基づいてcomponent_typeを設定する。
 video_transfer_characteristicsは、プロパティ情報P26の参照元としても用いられる。
 図39は、映像信号伝達特性であるvideo_transfer_characteristicsの値の意味を示す図である。
 図39に示すように、video_transfer_characteristicsの値が1であることは、AVストリームを構成するビデオストリームであるHEVC(High Efficiency Video Coding)ストリームのVUIのtransfer_characteristicsの値が1であることを表す。VUIのtransfer_characteristicsの値が1であることは、映像信号の伝達特性がRec.ITU-R BT.709-5であることを表す。
 VUI(Video Usability Information)は、SEI(Supplemental Enhancement Information)と同様に、ビデオデータの性質などの情報を伝送するために用いられる情報である。
 枠で囲んで示すように、video_transfer_characteristicsの値が5であることは、AVストリームを構成するHEVCストリームのVUIのtransfer_characteristicsの値が18であることを表す。VUIのtransfer_characteristicsの値が18であることは、映像信号の伝達特性がRec.ITU-R BT.2100 HLGであることを表す。
 映像信号の伝達特性がRec.ITU-R BT.2100 HLGであることは、HEVCストリームの映像がHLG方式のHDRの映像であることを表す。
 レコーダ101は、video_transfer_characteristicsの値が例えば1である場合、プロパティ情報P26の値としてSDRであることを表す情報を設定し、レコーダ101内のメモリに記憶する。
 また、レコーダ101は、video_transfer_characteristicsの値が5である場合、プロパティ情報P26の値として、HLG方式であることを表す情報を設定し、レコーダ101内のメモリに記憶する。
 video_transfer_characteristicsによって、HEVCストリームの映像がPQ方式のHDRの映像であることを表すことが可能とされている場合、レコーダ101は、その値を抽出することに応じて、プロパティ情報P26の値としてPQ方式であることを表す情報を設定し、レコーダ101内のメモリに記憶する。
 このように、レコーダ101は、MH-EITのdescriptor()に記述されるVideo_Component_Descriptor()中のvideo_transfer_characteristicsを参照し、プロパティ情報P26の値を設定する。
(2)メッセージを参照元とする設定
 プロパティ情報P26の設定に用いられるVideo_Component_Descriptor()はMPTにも含まれる。MPTのVideo_Component_Descriptor()を参照して、プロパティ情報P26の値を設定することも可能とされる。
 図40は、MMTの伝送データの例を示す図である。
 図40に示すように、Packet_idの値が0x0000である場合、PLTを格納したM2セクションメッセージがペイロードに格納される。
 MMTの制御メッセージには、M2セクションメッセージの他に、例えば、Package Access(PA)メッセージ、CAメッセージ、M2短セクションメッセージ、データ伝送メッセージがある。例えばPAメッセージは、MMT-SIのエントリーポイントとなり、MMT-SIの各種のテーブルを伝送するために用いられる。
 図41は、M2セクションメッセージに含まれるPLTのシンタクスを示す図である。
 図41に示すように、PLTにはMMT_general_location_info()が含まれる。MMT_general_location_info()には、矢印の先に示すようにlocation_type,packet_idなどが含まれる。packet_idにより、MPTのPIDが指定される。MPTは、アセットのリストやアセットのネットワーク上の位置などの、パッケージを構成する情報を与えるテーブルである。
 図42は、MPTのシンタクスを示す図である。
 枠で囲んで示すように、MPTにはasset_descriptors_byteが含まれる。Video_Component_Descriptor()は、asset_descriptors_byteに記述される。
 レコーダ101は、MPTのasset_descriptors_byteとして記述されるVideo_Component_Descriptor()中のvideo_transfer_characteristicsを参照し、プロパティ情報P26の値を設定することもできる。
 なお、MH-EITに記述されるVideo_Component_Descriptor()と、MPTに記述されるVideo_Component_Descriptor()は、MMTの伝送データ中における送出周期が異なる情報である。
・プロパティ情報P27の設定
 プロパティ情報P27の設定は、例えばMMT-TS変換が行われ、TSのコンテンツを記録するときに行われる。レコーダ101は、MMT-TS変換によって得られたTSのコンテンツを構成するAVストリームに含まれる番組情報の文字コードを表す値をプロパティ情報P27の値として設定し、レコーダ101内のメモリに記憶する。
<CreateObjectアクション/レスポンスの記述例>
・CreateObjectアクション
 図43は、輝度属性情報と文字コード情報を含むCreateObjectアクションの例を示す図である。
 図43には、アップロードの対象となるコンテンツに関する情報を含む一部の記述のみが示されている。図43に示す記述は、図28の記述に続く記述である。重複する説明については適宜省略する。
 図43に示すように、11行目乃至17行目には、アップロードの対象となるコンテンツのタイトル名、タイプ、UPnP上での区分け、ジャンル、チャンネル名、チャンネル番号、日時が記述される。
 これらの記述に続けて、輝度属性情報である「xxx:transferCharasteristic」と、文字コード情報である「xxx:characterCode」が記述される。
 18行目の「<xxx:transferCharasteristic> HLG </xxx:transferCharasteristic>」は、アップロードの対象となるコンテンツの映像の輝度のダイナミックレンジがHDRであり、HDRの方式がHLG方式であることを表す。
 19行目の「<xxx:characterCode> UTF8 </xxx:characterCode>」は、アップロードの対象となるコンテンツを構成するAVストリームに含まれる番組情報の文字コードがUTF-8であることを表す。
 「xxx:transferCharasteristic」と「xxx:characterCode」の記述に続けて、図29を参照して説明したコンテンツの詳細などの情報が記述される。
 なお、図43に示す記述の前段に記述される「<?xml version="1.0" encoding="UTF-8"?>」(図28の11行目)は、CreateObjectアクション中の、破線で囲んで示す番組情報の文字コードを示す記述である。「<?xml version="1.0" encoding="UTF-8"?>」が示す文字コードと、「xxx:characterCode」が示す文字コードが同じであることもあるし、異なることもある。
 このような記述を用いて、レコーダ101からレコーダ102に対するCreateObjectが行われる。
・CreateObjectレスポンス
 図44は、輝度属性情報と文字コード情報を含むCreateObjectレスポンスの例を示す図である。
 図30を参照して説明したように、CreateObjectアクションを受信したレコーダ102からは、importURIの記述や、記録の仕方に関する記述を含むCreateObjectレスポンスが送信される。
 記録の仕方に関する記述として、輝度属性情報である「xxx:transferCharasteristic」と、文字コード情報である「xxx:characterCode」が含まれる。
 17行目の「<xxx:transferCharasteristic> HLG </xxx:transferCharasteristic>」は、記録するコンテンツの映像の輝度のダイナミックレンジがHDRであり、HDRの方式がHLG方式であることを表す。
 18行目の「<xxx:characterCode> UTF8 </xxx:characterCode>」は、記録するコンテンツを構成するAVストリームに含まれる番組情報の文字コードがUTF-8であることを表す。
 このような記述を用いて、レコーダ102からレコーダ101に対して記録の仕方が通知される。
 以上のような記述を用いたCreateObjectの後、HDDに記録されていたMMT-TS変換後のTSのコンテンツを送信するようにして、コンテンツのアップロードが開始される。
<アップロードデータの例>
 図45は、アップロードデータの例を示す図である。
 図45に示すように、TSは、TSパケットの並びから構成される。TSパケットのヘッダには、ペイロードに格納されるデータの種類を表すPIDが含まれる。
 図45に示すように、PIDの値が0x001Fである場合、図46に示すselection_information_section()がペイロードに格納される。ペイロードにselection_information_section()が格納されているTSパケットのPIDの値が0x001FであることについてはETSI EN 300 468において規定されている。selection_information_section()により構成されるSIT(Selection Information Table)には、TSによって伝送されるイベント(番組)に関する情報が記述される。
 図46において枠で囲んで示すように、selection_information_section()にはdescriptor()が記述される。selection_information_section()のdescriptor()にはshort_event_descriptor()を含む各種の記述子が含まれる。
 図47は、short_event_descriptor()のシンタクスを示す図である。
 枠で囲んで示すように、short_event_descriptor()には、event_name_charとtext_charが含まれる。
 event_name_charは番組名を表す。また、text_charは、番組の詳細情報を表す。番組名と番組の詳細情報はテキストデータである。
 レコーダ101が送信するTSにevent_name_char、text_charとして含まれる番組情報の文字コードが、CreateObjectのときに送信される文字コード情報により指定されることになる。
<レコーダの構成と動作>
・送信側のレコーダの構成
 図48は、レコーダ101のハードウェア構成例を示すブロック図である。
 レコーダ101は、コントローラ151、入力検出部152、受信部153、MMT信号処理部154、出力制御部155、MMT-TS変換部156、記録制御部157、記録部158、および通信部159から構成される。
 コントローラ151は、CPU、ROM、RAM、メモリなどにより構成される。コントローラ151は、所定のプログラムをCPUにより実行し、例えば入力検出部152から供給される信号により表されるユーザの操作に応じて、レコーダ101の全体の動作を制御する。
 入力検出部152は、リモートコントローラなどを用いて行われるユーザの操作を検出し、ユーザの操作の内容を表す信号をコントローラ151に出力する。例えば、アップロードの対象となるコンテンツの選択、アップロード先となるデバイスの選択、記録媒体の選択などが、ユーザにより行われる。
 受信部153は、図示せぬアンテナからの放送波信号を受信し、復調処理、誤り訂正処理などの各種の処理を施す。受信部153は、各種の処理を施すことによって得られたTVLストリームをMMTのコンテンツとしてMMT信号処理部154に出力する。
 また、受信部153は、コンテンツの伝送が通信の伝送路を介して行われる場合、通信部159を制御してMMTのコンテンツを受信し、所定の処理を施すことによって得られたTVLストリームをMMT信号処理部154に出力する。このように、受信部153は、MMTを用いて伝送されてきたコンテンツを取得する取得部として機能する。
 MMT信号処理部154は、受信部153から供給されたTLVストリームに対して所定の処理を施し、MMTによって伝送されたコンテンツを取得する。例えば4K/8KコンテンツがMMT信号処理部154により取得される。
 MMT信号処理部154は、コンテンツを再生する場合、TLVストリームからビデオデータとオーディオデータを抽出し、デコードする。MMT信号処理部154は、デコードして得られたコンテンツの映像と音声のデータを出力制御部155に出力する。
 MMT信号処理部154は、MMTのコンテンツをTSのコンテンツに変換する場合、コンテンツのデータをMMT-TS変換部156に出力する。
 MMT信号処理部154は、MMTPパケットを用いて伝送されるメッセージ、テーブル、記述子などの各種の制御情報をTLVストリームから取得し、コントローラ151に出力する。
 コンテンツのアップロードがMMTのコンテンツのまま行われるようにしてもよい。この場合、MMT信号処理部154は、MMTのコンテンツのデータを通信部159に出力し、送信させる。
 また、コンテンツの記録(録画)がMMTのコンテンツのまま行われるようにしてもよい。この場合、MMT信号処理部154は、MMTのコンテンツを記録制御部157に出力する。
 出力制御部155は、MMT信号処理部154から供給された映像と音声のデータを、レコーダ101に接続されたTVに供給し、ディスプレイとスピーカからそれぞれ出力させる。
 MMT-TS変換部156は、MMT信号処理部154から供給されたMMTのコンテンツに対してMMT-TS変換を施し、MMT-TS変換によって得られたTSのコンテンツを記録制御部157に出力する。
 記録制御部157は、MMT-TS変換部156から供給されたTSのコンテンツを記録部158に出力し、記録させる。また、記録制御部157は、MMTのコンテンツがMMT信号処理部154から供給された場合、MMTのコンテンツを記録部158に出力し、記録させる。
 記録部158は、HDD、SSDなどの記録媒体により構成される。記録部158に記録されたコンテンツは、適宜、通信部159により読み出される。
 通信部159は、家庭内などに構築されたネットワークを介して、レコーダ102などの外部の装置と通信を行う。例えば、通信部159は、CreateObjectが終了した場合、アップロードの対象となるTSのコンテンツを記録部158から読み出し、外部の装置に対するアップロードを開始する。
 図49は、図48のコントローラ151の機能構成例を示すブロック図である。
 図49に示す機能部のうちの少なくとも一部は、コントローラ151のCPUにより所定のプログラムが実行されることによって実現される。
 コントローラ151においては、プロパティ情報抽出部161、プロパティ情報管理部162、デバイス選択制御部163、記録媒体選択制御部164、およびアップロード制御部165が実現される。アップロード制御部165にはCreateObject実行部171が含まれる。
 プロパティ情報抽出部161は、MMT信号処理部154から供給された制御情報から、CreateObjectに用いるプロパティ情報の参照元となる情報を抽出する。プロパティ情報抽出部161は、抽出した情報をプロパティ情報管理部162に出力する。
 プロパティ情報管理部162は、プロパティ情報抽出部161から供給された情報に基づいてそれぞれのプロパティ情報を設定し、メモリなどに記憶させて管理する。
 また、プロパティ情報管理部162は、MMT-TS変換部156によるMMT-TS変換によって得られたTSのコンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定する。プロパティ情報管理部162は、特定した文字コードを表す文字コード情報を、プロパティ情報としてメモリなどに記憶させて管理する。
 プロパティ情報管理部162は、CreateObjectの実行時、メモリに記憶させて管理しておいたプロパティ情報をアップロード制御部165に出力する。
 デバイス選択制御部163は、通信部159を制御することによって、M-Searchなどを含むデバイスの選択処理を行い、アップロード先となるデバイスを選択する。選択されたデバイスに関する情報は記録媒体選択制御部164とアップロード制御部165に供給される。
 記録媒体選択制御部164は、通信部159を制御することによって、GetRecordDestinations、GetRecordContainerIDなどを含む記録媒体の選択処理を行い、コンテンツの記録先となる記録媒体を選択する。選択された記録媒体に関する情報はアップロード制御部165に供給される。
 アップロード制御部165は、通信部159を制御することによって、コンテンツのアップロード処理を行う。
 CreateObject実行部171は、プロパティ情報管理部162により管理されているプロパティ情報を用いて、アップロード先のデバイスに対してCreateObjectを行う。すなわち、CreateObject実行部171は、プロパティ情報管理部162により管理されているプロパティ情報を引数として含むCreateObjectアクションを生成し、アップロード先のデバイスに送信する。CreateObject実行部171は、TSのコンテンツのアップロードの前に、アップロード先のデバイスに対してプロパティ情報を送信することを制御する通信制御部として機能する。
 CreateObject実行部171は、アップロード先のデバイスから送信され、通信部159において受信されたレスポンスに含まれるimportURIを取得する。CreateObject実行部171により取得されたimportURIに基づいて、TSのコンテンツのアップロードが行われる。
・受信側のレコーダの構成
 図50は、レコーダ102のハードウェア構成例を示すブロック図である。
 レコーダ102は、コントローラ201、通信部202、記録制御部203、記録部204、および出力制御部205から構成される。図50に示す構成の他、入力検出部152、受信部153等の、レコーダ101に設けられる構成のうちの少なくとも一部の構成がレコーダ102にも設けられる。
 コントローラ201は、CPU、ROM、RAM、メモリなどにより構成される。コントローラ201は、所定のプログラムをCPUにより実行し、レコーダ102の全体の動作を制御する。
 通信部202は、レコーダ101との間でネットワークを介して通信を行う。例えば、通信部202は、CreateObjectが終了した場合、レコーダ101からアップロードされてきたTSのコンテンツを受信する。
 TSのコンテンツのアップロードがUse case-1のムーブのために行われている場合、または、Use case-2の退避のために行われている場合、通信部202は、受信したTSのコンテンツを記録制御部203に出力する。
 また、TSのコンテンツのアップロードがUse case-3のストリーミング視聴のために行われている場合、通信部202は、受信したTSのコンテンツを出力制御部205に出力する。
 記録制御部203は、通信部202から供給されたTSのコンテンツを記録部204に出力し、記録させる。
 記録部204は、HDD、SSDなどの記録媒体により構成される。記録部204は、記録制御部203から供給されたTSのコンテンツを記録する。記録部204に記録されたコンテンツは、適宜、出力制御部205により読み出され、再生される。
 出力制御部205は、通信部202から供給されたTSをデコードし、レコーダ101からアップロードされてきたコンテンツの映像を外部の表示装置に表示させる。レコーダ102に対しては、TVなどの表示装置が接続される。
 また、出力制御部205は、記録部204に記録されているコンテンツの一覧を表示させる場合、CreateObjectアクションによって通知された輝度属性情報に基づいて、各コンテンツの輝度のダイナミックレンジの属性を表示させる。
 出力制御部205は、CreateObjectアクションによって通知された文字コード情報に基づいて、記録部204に記録されているコンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定する。出力制御部205は、AVストリームの番組情報を抽出し、特定した文字コードのテキストとして処理を行うことによって、記録部204に記録されているコンテンツに関する情報をコンテンツの一覧などに表示させる。
 図51は、図50のコントローラ201の機能構成例を示すブロック図である。
 図51に示す機能部のうちの少なくとも一部は、コントローラ201のCPUにより所定のプログラムが実行されることによって実現される。
 コントローラ201においては、デバイス選択制御部211、記録媒体選択制御部212、およびアップロード受信制御部213が実現される。アップロード受信制御部213にはCreateObject実行部221が含まれる。
 デバイス選択制御部211は、通信部202を制御することによって、レコーダ101が行うデバイス選択処理に対応する処理を行う。
 例えば、デバイス選択制御部211は、レコーダ101から送信されたM-Searchリクエストを受信することに応じて、レコーダ102のURLを含むM-Searchレスポンスを送信する。また、デバイス選択制御部211は、レコーダ101による要求に応じてDevice descriptionを送信する。
 デバイス選択処理時にレコーダ101から送信されてきた情報は、記録媒体選択制御部212とアップロード受信制御部213に出力される。
 記録媒体選択制御部212は、通信部202を制御することによって、レコーダ101が行う記録媒体選択処理に対応する処理を行う。
 例えば、記録媒体選択制御部212は、レコーダ101から送信されたGetRecordDestinationsアクションを受信することに応じて、レコーダ102のHDD(記録部204)に関する情報を含むGetRecordDestinationsレスポンスを送信する。また、デバイス選択制御部211は、レコーダ101から送信されたGetRecordDestinationInfoアクションを受信することに応じて、レコーダ102のHDDに関する詳細情報を含むGetRecordDestinationInfoレスポンスを送信する。
 記録媒体選択処理時にレコーダ101から送信されてきた情報はアップロード受信制御部213に出力される。
 アップロード受信制御部213は、通信部202を制御することによって、レコーダ101が行うアップロード処理に対応する処理を行う。
 CreateObject実行部221は、レコーダ101から送信されたCreateObjectアクションを受信することに応じて、CreateObjectレスポンスを送信する。CreateObject実行部221が送信するCreateObjectレスポンスには、上述したように、プロパティ情報としての輝度属性情報と文字コード情報が含まれる。CreateObject実行部221は、CreateObjectアクションを受信することに応じて、CreateObjectレスポンスを送信することを制御する通信制御部として機能する。
・送信側のレコーダの動作
 図52のフローチャートを参照して、レコーダ101の記録処理について説明する。
 図52の処理は、例えば、録画対象のコンテンツ(番組)の放送が開始されたときに開始される。録画対象のコンテンツの放送が開始された場合、放送波信号に対して受信部153において所定の処理が施され、録画対象のコンテンツのTVLストリームがMMT信号処理部154に出力される。
 ステップS101において、MMT信号処理部154は、受信部153から供給されたTVLストリームに対して所定の処理を施し、コンテンツを取得する。
 ステップS102において、プロパティ情報管理部162は、MMTの伝送データからプロパティ情報抽出部161により抽出された情報を参照し、CreateObjectに用いるプロパティ情報を設定する。ここでは、輝度属性情報の設定も行われる。プロパティ情報管理部162は、それぞれのプロパティ情報をメモリに記憶させて管理する。
 ステップS103において、MMT-TS変換部156は、MMTのコンテンツに対してMMT-TS変換を施す。MMT-TS変換によって得られたTSのコンテンツは記録制御部157に供給される。
 ステップS104において、記録制御部157は、MMT-TS変換部156から供給されたフォーマット変換後のコンテンツであるTSのコンテンツを記録部158に記録させる。
 ステップS105において、プロパティ情報管理部162は、MMT-TS変換によって得られたTSのコンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定する。プロパティ情報管理部162は、特定した文字コードを表す値を文字コード情報として設定し、メモリなどに記憶させて管理する。その後、図52の処理は終了となる。
 次に、図53のフローチャートを参照して、TSのコンテンツを送信するレコーダ101の処理について説明する。
 ステップS111において、レコーダ101の入力検出部152は、アップロードの対象となるコンテンツの選択を受け付ける。例えば、記録済みのコンテンツの中から、アップロードの対象となるコンテンツが選択される。入力検出部152により受け付けられた、アップロードの対象となるコンテンツの情報はコントローラ151に供給される。
 ステップS112において、デバイス選択制御部163はデバイス選択処理を行う。図6を参照して説明した処理と同様の処理が行われ、コンテンツのアップロード先となるデバイスが選択される。
 ステップS113において、記録媒体選択制御部164は記録媒体選択処理を行う。図16を参照して説明した処理と同様の処理が行われ、コンテンツの記録先となる記録媒体が選択される。
 ステップS114において、アップロード制御部165はコンテンツのアップロード処理を行う。ここでは、輝度属性情報と文字コード情報を含むプロパティ情報を用いたCreateObjectがCreateObject実行部171により行われ、その後、コンテンツのアップロードが開始される。
 コンテンツのアップロードが終了したとき、図53の処理は終了となる。
 以上の処理により、レコーダ101は、MMTの伝送データから抽出した情報に基づいてプロパティ情報を設定し、4K/8Kコンテンツなどのコンテンツのアップロード前のCreateObjectを行うことができる。
 また、レコーダ101は、CreateObjectの終了後、コンテンツを外部の装置にアップロードすることができる。ネットワークを介したアップロードが可能であるから、図31のネットワークシステムにおいては、4K/8Kコンテンツを対象として、Use case-1のムーブ、Use case-2の退避、および、Use case-3のストリーミング視聴が可能となる。
・受信側のレコーダの動作
 図54のフローチャートを参照して、レコーダ102の処理について説明する。
 図54の処理は、例えば、レコーダ101においてデバイス選択処理(図53のステップS112)が行われることに応じて開始される。
 ステップS151において、コントローラ201のデバイス選択制御部211(図51)はデバイス選択対応処理を行う。デバイス選択対応処理は、レコーダ101が行うデバイス選択処理に対応する処理である。
 ステップS152において、記録媒体選択制御部212は記録媒体選択対応処理を行う。記録媒体選択対応処理は、レコーダ101が行う記録媒体選択処理に対応する処理である。
 ステップS153において、アップロード受信制御部213はアップロード対応処理を行う。アップロード対応処理は、レコーダ101が行うアップロード処理に対応する処理である。
 アップロード対応処理が行われることにより、レコーダ101とレコーダ102との間でCreateObjectが行われ、アップロード対象のコンテンツの情報がレコーダ102に対して通知される。
 また、CreateObjectの後、アップロードが開始され、TSのコンテンツがレコーダ102により受信される。受信されたコンテンツに対しては、Use caseに応じた処理がレコーダ102の各部において行われる。
 ステップS154において、出力制御部205は、CreateObjectアクションによって通知された輝度属性情報に基づいて、アップロードされたコンテンツの映像の輝度のダイナミックレンジの属性を特定する。
 ステップS155において、出力制御部205は、CreateObjectアクションによって通知された文字コード情報に基づいて、アップロードされたコンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定する。
 ステップS156において、出力制御部205は、ユーザの操作に応じた処理を行う。例えば、記録部204に記録されているコンテンツの一覧を表示させる場合、出力制御部205は、各コンテンツがHDRのコンテンツであるのか、SDRのコンテンツであるのかを表す情報を表示させる。
 また、出力制御部205は、記録部204に記録されているコンテンツに関する情報をコンテンツの一覧に表示させる場合、AVストリームに含まれる番組情報を抽出し、特定した文字コードのテキストとして処理を行うことによって表示させる。
 以上の処理により、レコーダ102は、AVストリームを解析することなく、各コンテンツの映像の輝度のダイナミックレンジの属性を特定し、コンテンツの一覧などに表示させることができる。
 また、レコーダ102は、自身の処理モードをコンテンツのアップロード前に切り替え、アップロードが行われるのを待つことができる。例えばレコーダ102は、HDRのコンテンツが送信されてくる場合には、HDRの処理を行うモードに自身の処理モードを切り替える必要がある。また、レコーダ102は、SDRのコンテンツが送信されてくる場合には、SDRの処理を行うモードに自身の処理モードを切り替える必要がある。
 レコーダ102は、各コンテンツを構成するAVストリームに含まれる番組情報の文字コードを特定し、適切に表示させることができる。すなわち、レコーダ102は、番組情報の文字化けを防ぐことができる。
<変形例>
・コンテンツの一覧の表示例
 輝度属性情報と文字コード情報については、CreateObjectに含めるだけでなく、複数の装置間でやりとりが行われる各種の情報に含めることが可能である。
 図55は、デバイスの設置の例を示す図である。
 図55の例においては、リビングに設置されたレコーダ101、TV251と、寝室に設置されたTV252が示されている。レコーダ101に記録されたコンテンツを、寝室のTV252で視聴する場合について説明する。なお、TV252は、上述したレコーダ102と同様に、CreateObject等の処理をレコーダ101との間で行うことが可能な装置である。
 コンテンツの視聴前、レコーダ101に記録されたコンテンツの一覧(タイトル一覧)をTV252に表示させる処理が行われる。コンテンツの一覧の表示は、例えば、UPnPで定義されたCDS:BrowseコマンドをTV252がレコーダ101に対して送信することによって行われる。CDS:Browseコマンドは、コンテンツの一覧の閲覧を要求するコマンドである。
 CDS:Browseコマンドを受信したレコーダ101からTV252に対しては、HDDに記録されたそれぞれのコンテンツに関する情報を含むレスポンスが送信される。
 図56は、CDS:Browseコマンドのレスポンスの例を示す図である。
 図56の5行目乃至20行目の記述が、1つ目のコンテンツに関する情報となる。CDS:Browseコマンドのレスポンスを用いて通知される情報には、18行目、19行目に示すように、輝度属性情報と文字コード情報が含まれる。
 18行目の「<xxx:transferCharasteristic> HLG </xxx:transferCharasteristic>」は、1つ目のコンテンツの映像の輝度のダイナミックレンジがHDRであり、HDRの方式がHLG方式であることを表す。
 19行目の「<xxx:characterCode> UTF8 </xxx:characterCode>」は、1つ目のコンテンツを構成するAVストリームに含まれる番組情報の文字コードがUTF-8であることを表す。
 HDDに記録されている他のコンテンツについても同様に、輝度属性情報と文字コード情報を含む各情報がレスポンスに記述される。
 TV252においては、レコーダ101から送信されてきたレスポンスに基づいて、図55に示すようにタイトル一覧が表示される。
 図55の例においては、タイトル1がHDRのコンテンツであり、タイトル2がSDRのコンテンツであることが示されている。これらの表示は、レスポンスに含まれる輝度属性情報に基づいて表示されたものである。
 寝室にいるユーザは、このようなタイトル一覧を見て、どのコンテンツを再生するかを選択することができる。
 TV252がHDRの映像の表示に対応していない場合にはSDRのコンテンツの情報だけを表示させるといったように、輝度属性情報がコンテンツのフィルタリングに用いられるようにしてもよい。文字コード情報についても同様に、コンテンツのフィルタリングに用いられるようにすることが可能である。
・デバイスの例
 4K/8Kコンテンツのアップロード元のデバイスがレコーダ(記録装置)である場合について説明したが、以上の処理は、PC、TV、ゲーム機、スマートフォン、タブレット端末などの、MMTにより伝送されたコンテンツを受信可能な各種のデバイスから4K/8Kコンテンツをアップロードさせる場合にも適用可能である。
 MMT-TS変換後のコンテンツがレコーダ101において記録されるものとしたが、MMT-TS変換がアップロード前に行われるようにしてもよい。この場合、MMTによって伝送されたコンテンツは、MMTのフォーマットのまま、HDDなどの記録媒体に記録される。アップロードの対象として選択されたMMTのコンテンツに対しては、記録媒体から読み出された後、アップロードの開始前にMMT-TS変換が施され、MMT-TS変換によって得られたTSのコンテンツが送信される。
・コンピュータの構成例
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図57は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、
 前記コンテンツを記録させる記録制御部と、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する管理部と
 を備える情報処理装置。
(2)
 前記輝度属性情報を、前記コンテンツを送信する前に前記外部の装置に送信する通信制御部をさらに備える
 前記(1)に記載の情報処理装置。
(3)
 前記通信制御部は、前記輝度属性情報を、CreateObjectアクションの引数として前記外部の装置に送信する
 前記(2)に記載の情報処理装置。
(4)
 前記管理部は、前記コンテンツの輝度のダイナミックレンジがSDRである場合、SDRであることを表す情報を前記輝度属性情報として生成し、前記コンテンツの輝度のダイナミックレンジがHDRである場合、HDRの方式を表す情報を前記輝度属性情報として生成する
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
 前記管理部は、MMTの制御メッセージを構成するパラメータに基づいて前記コンテンツの輝度のダイナミックレンジを特定し、前記輝度属性情報を生成する
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
(6)
 情報処理装置が、
 MMTにより伝送されたコンテンツを取得し、
 前記コンテンツを記録させ、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する
 情報処理方法。
(7)
 コンピュータに、
 MMTにより伝送されたコンテンツを取得し、
 前記コンテンツを記録させ、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する
 処理を実行させるためのプログラム。
(8)
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、前記輝度属性情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える
 情報処理装置。
(9)
 前記通信制御部は、CreateObjectアクションの引数として送信された前記輝度属性情報を受信し、CreateObjectレスポンスの引数として、前記輝度属性情報を送信する
 前記(8)に記載の情報処理装置。
(10)
 情報処理装置が、
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、
 前記輝度属性情報を含むレスポンスを前記外部の装置に送信する
 情報処理方法。
(11)
 コンピュータに、
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、
 前記輝度属性情報を含むレスポンスを前記外部の装置に送信する
 処理を実行させるためのプログラム。
(12)
 MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、
 前記コンテンツを記録させる記録制御部と、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する管理部と
 を備える情報処理装置。
(13)
 前記文字コード情報を、前記コンテンツを送信する前に前記外部の装置に送信する通信制御部をさらに備える
 前記(12)に記載の情報処理装置。
(14)
 前記通信制御部は、前記文字コード情報を、CreateObjectアクションの引数として前記外部の装置に送信する
 前記(13)に記載の情報処理装置。
(15)
 情報処理装置が、
 MMTにより伝送されたコンテンツを取得し、
 前記コンテンツを記録させ、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する
 情報処理方法。
(16)
 コンピュータに、
 MMTにより伝送されたコンテンツを取得し、
 前記コンテンツを記録させ、
 ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する
 処理を実行させるためのプログラム。
(17)
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、前記文字コード情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える
 情報処理装置。
(18)
 前記通信制御部は、CreateObjectアクションの引数として送信された前記文字コード情報を受信し、CreateObjectレスポンスの引数として、前記文字コード情報を送信する
 前記(17)に記載の情報処理装置。
(19)
 情報処理装置が、
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、
 前記文字コード情報を含むレスポンスを前記外部の装置に送信する
 情報処理方法。
(20)
 コンピュータに、
 MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、
 前記文字コード情報を含むレスポンスを前記外部の装置に送信する
 処理を実行させるためのプログラム。
 101,102 レコーダ, 151 コントローラ, 152 入力検出部, 153 受信部, 154 MMT信号処理部, 155 出力制御部, 156 MMT-TS変換部, 157 記録制御部, 158 記録部, 159 通信部, 161 プロパティ情報抽出部, 162 プロパティ情報管理部, 163 デバイス選択制御部, 164 記録媒体選択制御部, 165 アップロード制御部, 171 CreateObject実行部, 201 コントローラ, 202 通信部, 203 記録制御部, 204 記録部, 205 出力制御部, 211 デバイス選択制御部, 212 記録媒体選択制御部, 213 アップロード受信制御部, 221 CreateObject実行部

Claims (20)

  1.  MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、
     前記コンテンツを記録させる記録制御部と、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する管理部と
     を備える情報処理装置。
  2.  前記輝度属性情報を、前記コンテンツを送信する前に前記外部の装置に送信する通信制御部をさらに備える
     請求項1に記載の情報処理装置。
  3.  前記通信制御部は、前記輝度属性情報を、CreateObjectアクションの引数として前記外部の装置に送信する
     請求項2に記載の情報処理装置。
  4.  前記管理部は、前記コンテンツの輝度のダイナミックレンジがSDRである場合、SDRであることを表す情報を前記輝度属性情報として生成し、前記コンテンツの輝度のダイナミックレンジがHDRである場合、HDRの方式を表す情報を前記輝度属性情報として生成する
     請求項1に記載の情報処理装置。
  5.  前記管理部は、MMTの制御メッセージを構成するパラメータに基づいて前記コンテンツの輝度のダイナミックレンジを特定し、前記輝度属性情報を生成する
     請求項1に記載の情報処理装置。
  6.  情報処理装置が、
     MMTにより伝送されたコンテンツを取得し、
     前記コンテンツを記録させ、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する
     情報処理方法。
  7.  コンピュータに、
     MMTにより伝送されたコンテンツを取得し、
     前記コンテンツを記録させ、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツの輝度の属性に関する輝度属性情報を前記コンテンツの記録時に生成する
     処理を実行させるためのプログラム。
  8.  MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、前記輝度属性情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える
     情報処理装置。
  9.  前記通信制御部は、CreateObjectアクションの引数として送信された前記輝度属性情報を受信し、CreateObjectレスポンスの引数として、前記輝度属性情報を送信する
     請求項8に記載の情報処理装置。
  10.  情報処理装置が、
     MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、
     前記輝度属性情報を含むレスポンスを前記外部の装置に送信する
     情報処理方法。
  11.  コンピュータに、
     MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツの輝度の属性に関する輝度属性情報を受信し、
     前記輝度属性情報を含むレスポンスを前記外部の装置に送信する
     処理を実行させるためのプログラム。
  12.  MMTにより伝送されたコンテンツを取得するコンテンツ取得部と、
     前記コンテンツを記録させる記録制御部と、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する管理部と
     を備える情報処理装置。
  13.  前記文字コード情報を、前記コンテンツを送信する前に前記外部の装置に送信する通信制御部をさらに備える
     請求項12に記載の情報処理装置。
  14.  前記通信制御部は、前記文字コード情報を、CreateObjectアクションの引数として前記外部の装置に送信する
     請求項13に記載の情報処理装置。
  15.  情報処理装置が、
     MMTにより伝送されたコンテンツを取得し、
     前記コンテンツを記録させ、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する
     情報処理方法。
  16.  コンピュータに、
     MMTにより伝送されたコンテンツを取得し、
     前記コンテンツを記録させ、
     ネットワークを経由した前記コンテンツの送信先となる外部の装置に対して前記コンテンツのプロパティ情報として送信する、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を前記コンテンツの記録時に生成する
     処理を実行させるためのプログラム。
  17.  MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、前記文字コード情報を含むレスポンスを前記外部の装置に送信する通信制御部を備える
     情報処理装置。
  18.  前記通信制御部は、CreateObjectアクションの引数として送信された前記文字コード情報を受信し、CreateObjectレスポンスの引数として、前記文字コード情報を送信する
     請求項17に記載の情報処理装置。
  19.  情報処理装置が、
     MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、
     前記文字コード情報を含むレスポンスを前記外部の装置に送信する
     情報処理方法。
  20.  コンピュータに、
     MMTにより伝送されたコンテンツを受信して記録する外部の装置から前記コンテンツのプロパティ情報として送信された、前記コンテンツを構成するAVストリームに含まれるテキストの文字コードを表す文字コード情報を受信し、
     前記文字コード情報を含むレスポンスを前記外部の装置に送信する
     処理を実行させるためのプログラム。
PCT/JP2019/038847 2018-10-16 2019-10-02 情報処理装置、情報処理方法、およびプログラム WO2020080100A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-194833 2018-10-16
JP2018194833A JP2022003717A (ja) 2018-10-16 2018-10-16 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2020080100A1 true WO2020080100A1 (ja) 2020-04-23

Family

ID=70284565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/038847 WO2020080100A1 (ja) 2018-10-16 2019-10-02 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2022003717A (ja)
WO (1) WO2020080100A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7214596B2 (ja) 2019-09-03 2023-01-30 株式会社東芝 コンテンツ送信装置、送信方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167849A (ja) * 2016-04-21 2016-09-15 日立マクセル株式会社 番組情報送信装置、番組情報受信装置および番組情報送信方法
JP2018007194A (ja) * 2016-07-08 2018-01-11 三菱電機株式会社 映像記録装置および映像再生装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167849A (ja) * 2016-04-21 2016-09-15 日立マクセル株式会社 番組情報送信装置、番組情報受信装置および番組情報送信方法
JP2018007194A (ja) * 2016-07-08 2018-01-11 三菱電機株式会社 映像記録装置および映像再生装置

Also Published As

Publication number Publication date
JP2022003717A (ja) 2022-01-11

Similar Documents

Publication Publication Date Title
US8392947B2 (en) System and method for home audio and video communication
WO2021020153A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US8621529B2 (en) System and method of receiving over-the-air television content
WO2012067219A1 (ja) コンテンツデータ生成装置、コンテンツデータ生成方法、コンピュータプログラムおよび記録媒体
US20080022341A1 (en) Video integration
JP2009200788A (ja) 受信装置
US20040254995A1 (en) Information apparatus and mail control method
JP2016129410A (ja) コンテンツ提供方法及び受信装置
JP2010117863A (ja) コンテンツ再生装置およびコンテンツ再生方法
WO2020080100A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5042063B2 (ja) 被制御装置、制御システムおよび管理装置
US20120272280A1 (en) Video processor and video processing method
JP7388355B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20130060910A1 (en) Content reproducing apparatus, content reproducing system, and control method thereof
JP2011160037A (ja) 音量調整方法及び音量調整装置
JP5085680B2 (ja) コンテンツ再生装置およびコンテンツ再生方法
TWI806632B (zh) 影音播放裝置及其影音信號資訊顯示方法
JP2021083084A (ja) 映像受信装置および映像受信方法
JP2011128892A (ja) コンテンツ記憶装置及びコンテンツ転送方法
JP2013033503A (ja) 録画装置および設定方法
WO2013061364A1 (ja) 映像信号の送受信方法、表示装置、及び送信装置
JP2013187633A (ja) 録画コンテンツ情報表示画面生成システム
KR20150042356A (ko) 콘텐츠 제공 방법 및 시스템
JP2009124428A (ja) コンテンツ配信方法および配信システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19872448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19872448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP