WO2019031269A1 - 送信装置、送信方法、受信装置、及び受信方法 - Google Patents

送信装置、送信方法、受信装置、及び受信方法 Download PDF

Info

Publication number
WO2019031269A1
WO2019031269A1 PCT/JP2018/028202 JP2018028202W WO2019031269A1 WO 2019031269 A1 WO2019031269 A1 WO 2019031269A1 JP 2018028202 W JP2018028202 W JP 2018028202W WO 2019031269 A1 WO2019031269 A1 WO 2019031269A1
Authority
WO
WIPO (PCT)
Prior art keywords
watermark
information
audio
video
data
Prior art date
Application number
PCT/JP2018/028202
Other languages
English (en)
French (fr)
Inventor
高橋 和幸
武司 大野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP18845008.4A priority Critical patent/EP3668101B1/en
Priority to KR1020207001786A priority patent/KR20200035396A/ko
Priority to JP2019535102A priority patent/JPWO2019031269A1/ja
Priority to CA3071560A priority patent/CA3071560C/en
Priority to MX2020001303A priority patent/MX2020001303A/es
Priority to US16/634,612 priority patent/US11770595B2/en
Publication of WO2019031269A1 publication Critical patent/WO2019031269A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/14Arrangements for conditional access to broadcast information or to broadcast-related services
    • H04H60/23Arrangements for conditional access to broadcast information or to broadcast-related services using cryptography, e.g. encryption, authentication, key distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/31Arrangements for monitoring the use made of the broadcast services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4398Processing of audio elementary streams involving reformatting operations of audio signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/50Aspects of broadcast communication characterised by the use of watermarks

Definitions

  • the present technology relates to a transmitting device, a transmitting method, a receiving device, and a receiving method, and more particularly, to a transmitting device, a transmitting method, a receiving device, and a receiving method that can more easily detect a watermark.
  • a video watermark in one video frame, it is possible to transmit data of an amount of information corresponding to bits allocated to the area, using the upper several lines of the video display area as the watermark.
  • the video watermark since the video watermark is included in the video data and transmitted, the video watermark may be displayed on the screen of the receiver such as a television receiver and may interfere with the user's viewing. Therefore, if video watermarking is enabled, it is desirable to delete the video watermarking signal after decoding the video data, but to achieve this, video watermarking is included in the video data. Needs to have a function (special function) to detect
  • the audio watermark is an audio watermark included in the audio data because the watermark signal (a signal different from a normal signal) embedded in the audio data is detected by an arithmetic circuit such as a DSP (Digital Signal Processor).
  • DSP Digital Signal Processor
  • the function to detect (special function) is required.
  • the receiver side needs a special function for detecting the watermarks, so it is possible to use water more easily. Proposals for detecting marks have been sought.
  • the present technology has been made in view of such a situation, and makes it possible to more easily detect a watermark.
  • a transmission device includes a generation unit configured to generate watermark information for detecting a watermark, and a transmission unit configured to transmit a broadcast signal including the watermark and the watermark information. It is an apparatus.
  • the transmission device of the first aspect of the present technology may be an independent device or an internal block that constitutes one device.
  • the transmission method according to the first aspect of the present technology is a transmission method corresponding to the transmission apparatus according to the first aspect of the present technology described above.
  • watermark information for detecting a watermark is generated, and a broadcast signal including the watermark and the watermark information is transmitted.
  • a receiving device includes: a watermark; and a receiving unit that receives a broadcast signal including the watermark information for detecting the watermark; and the broadcast signal based on the watermark information. And a detection unit that detects the watermark included.
  • the receiving device of the second aspect of the present technology may be an independent device or an internal block that constitutes one device.
  • the receiving method according to the second aspect of the present technology is a receiving method corresponding to the receiving device according to the second aspect of the present technology described above.
  • a broadcast signal including a watermark and watermark information for detecting the watermark is received, and the broadcast is received based on the watermark information.
  • the watermark included in the signal is detected.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a transmission system to which the present technology is applied. It is a block diagram which shows the structural example of a transmitter. It is a block diagram showing an example of composition of a receiving set. It is a figure which shows the example of the transmission system of watermark information. It is a figure which shows the structure of the audio frame based on MPEG-H 3D Audio. It is a figure which shows the example of the syntax of object_metadata (). It is a figure which shows the example of the syntax of object_metadata_efficient (). It is a figure which shows the example of the syntax of intracoded_object_metadata_efficient ().
  • FIG. 1 is a block diagram showing the configuration of an embodiment of a transmission system to which the present technology is applied.
  • the transmission system 1 includes a transmitting device 10 and a receiving device 20.
  • the transmission device 10 transmits, for example, a broadcasting service (digital broadcasting or data transmission). That is, for example, the transmission apparatus 10 transmits a stream including data to be transmitted, such as video and audio data as a component constituting a broadcast service such as a television program, as a broadcast signal (broadcast wave) through the transmission path 30. Send.
  • a broadcasting service digital broadcasting or data transmission
  • the transmission apparatus 10 transmits a stream including data to be transmitted, such as video and audio data as a component constituting a broadcast service such as a television program, as a broadcast signal (broadcast wave) through the transmission path 30.
  • a broadcasting service digital broadcasting or data transmission
  • the transmission apparatus 10 transmits a stream including data to be transmitted, such as video and audio data as a component constituting a broadcast service such as a television program, as a broadcast signal (broadcast wave) through the transmission path 30.
  • broadcast signal broadcast signal
  • the receiving device 20 receives the broadcast signal transmitted from the transmitting device 10 via the transmission path 30, and restores the original stream and outputs it.
  • the receiving device 20 outputs video and audio data as a component constituting a broadcasting service such as a television program.
  • the transmission system 1 shown in FIG. 1 includes data transmission conforming to Advanced Television Systems Committee standards (ATSC) standards, data transmission conforming to Digital Video Broadcasting standards such as DVB (Integrated Services Digital Broadcasting) standards, etc. It can be applied to other data transmissions.
  • ATSC Advanced Television Systems Committee standards
  • DVB Integrated Services Digital Broadcasting
  • DVB Integrated Services Digital Broadcasting
  • FIG. 2 is a block diagram showing a configuration example of the transmitting device 10 of FIG.
  • the transmission device 10 includes a control unit 111, a video data acquisition unit 112, a video processing unit 113, an audio data acquisition unit 114, an audio processing unit 115, a control information generation unit 116, a control information processing unit 117, a multiplexer 118, And a transmission unit 119.
  • the control unit 111 is configured of, for example, a central processing unit (CPU).
  • the control unit 111 operates as a central control device in the transmission device 10, such as various arithmetic processing and operation control of each unit.
  • the video data acquisition unit 112 includes, for example, an interface circuit such as a communication I / F.
  • the video data acquisition unit 112 acquires video data of content such as a television program from an external server, a camera, a recording medium, or the like, and supplies the video data to the video processing unit 113.
  • the video processing unit 113 includes, for example, a video encoder.
  • the video processing unit 113 subjects the video data supplied from the video data acquisition unit 112 to processing such as encoding conforming to a predetermined encoding scheme, for example, and supplies the processed data to the multiplexer 118 as a video stream.
  • the audio data acquisition unit 114 includes, for example, an interface circuit such as a communication I / F.
  • the audio data acquisition unit 114 acquires audio data of content such as a television program from an external server, a microphone, a recording medium, or the like, and supplies the audio data to the audio processing unit 115.
  • the audio processing unit 115 includes, for example, an audio encoder.
  • the audio processing unit 115 subjects the audio data supplied from the audio data acquisition unit 114 to processing such as encoding conforming to a predetermined encoding scheme, for example, and supplies the processed data to the multiplexer 118 as an audio stream.
  • the control information generation unit 116 generates control information used in processing such as channel selection and reproduction of content on the reception side, and supplies the control information to the control information processing unit 117.
  • the control information processing unit 117 processes the control information supplied from the control information generation unit 116 and supplies the processed information to the multiplexer 118.
  • the control information generation unit 116 and the control information processing unit 117 are configured by a dedicated circuit or the like that processes control information.
  • the multiplexer 118 multiplexes the video stream supplied from the video processing unit 113, the audio stream supplied from the audio processing unit 115, and the control information (system information) supplied from the control information processing unit 117, as a result.
  • the obtained multiplexed stream is supplied to the transmission unit 119.
  • the transmission unit 119 includes, for example, a modulation circuit that performs modulation or the like of an orthogonal frequency division multiplexing (OFDM) signal.
  • the transmitting unit 119 transmits the multiplexed stream supplied from the multiplexer 118 as a broadcast signal via the antenna 131.
  • OFDM orthogonal frequency division multiplexing
  • the transmitting unit 119 and the antenna 131 are installed in a facility of a transmitting station, and a broadcasting signal is transmitted by the transmitting antenna 131.
  • control unit 111 is configured to include a watermark generation unit 151 and a watermark information generation unit 152.
  • the watermark generation unit 151 performs processing for generating watermarks such as video watermarks and audio watermarks.
  • the watermark generation unit 151 controls the video processing unit 113 to perform processing of including a video watermark on the video stream. Also, for example, the watermark generation unit 151 controls the audio processing unit 115 to perform processing of including an audio watermark in the audio stream.
  • the watermark information generation unit 152 performs processing for generating information for detecting a watermark (hereinafter, referred to as watermark information).
  • the watermark information generation unit 152 controls the video processing unit 113, the audio processing unit 115, or the control information processing unit 117 so that a layer of an audio stream (audio layer), a layer of a video stream (video layer), or
  • the watermark information is included in any layer of the system information layer (system layer). Details of the transmission method of the watermark information will be described later.
  • Non-Patent Documents 2 and 3 data of an amount of information corresponding to the bits allocated to the video display area is transmitted using the upper several lines (for example, 2 lines) of the video display area in one video frame.
  • the audio watermarks are described in detail in, for example, Non-Patent Documents 1 and 3 below.
  • Non Patent Literature 1 ATSC Standard: Audio Watermark Emission (A / 334)
  • Non Patent Literature 2 ATSC Standard: Video Watermark Emission (A / 335)
  • Non-Patent Document 3 ATSC Standard: Content Recovery in Redistribution Scenarios (A / 336)
  • FIG. 3 is a block diagram showing a configuration example of the receiving device 20 of FIG.
  • the receiving apparatus 20 includes a control unit 211, a recording unit 212, an input unit 213, a receiving unit 214, a demultiplexer 215, a video processing unit 216, a video output unit 217, an audio processing unit 218, an audio output unit 219, and a display.
  • a unit 220 and a speaker 221 are included.
  • the control unit 211 includes, for example, a CPU, an FPGA (Field Programmable Gate Array), and the like.
  • the control unit 211 operates as a central control device in the receiving device 20, such as various types of arithmetic processing and various types of operation control.
  • the recording unit 212 is, for example, a non-volatile memory such as NVRAM (Non Volatile RAM), and records various data according to control from the control unit 211.
  • NVRAM Non Volatile RAM
  • the input unit 213 is, for example, a physical button, a touch panel configured integrally with the display unit 220, or the like, and supplies the control unit 211 with an operation signal according to the user's operation.
  • the control unit 211 controls the operation of each unit based on the operation signal supplied from the input unit 213.
  • the input unit 213 may receive an infrared signal or the like corresponding to the operation of the remote controller by the user, and supply the operation signal corresponding thereto to the control unit 211.
  • the receiving unit 214 includes, for example, a tuner, a demodulation circuit that demodulates an OFDM signal, and the like.
  • the receiver 214 processes the broadcast signal received via the antenna 231, and supplies the resultant multiplexed stream to the demultiplexer 215.
  • the demultiplexer 215 separates the multiplexed stream supplied from the receiving unit 214 into a video stream, an audio stream, and control information (system information).
  • the demultiplexer 215 supplies the video data contained in the video stream to the video processing unit 216, the audio data contained in the audio stream to the audio processing unit 218, and the control information to the control unit 211.
  • the control unit 211 processes the demultiplexer 215 and each component in order to reproduce content such as a television program according to the broadcasting service channel selection operation based on control information (system information) supplied from the demultiplexer 215. Control the operation of each unit such as the unit.
  • the video processing unit 216 includes, for example, a video decoder and the like.
  • the video processing unit 216 subjects the video data supplied from the demultiplexer 215 to processing such as decoding processing conforming to a predetermined decoding method, for example, and supplies the video data to the video output unit 217.
  • the video output unit 217 includes, for example, a video output circuit or the like for outputting a video.
  • the video data supplied from the video processing unit 216 is processed and output to a display unit 220 configured as a display such as a liquid crystal display (LCD) or an organic light emitting diode (OLED).
  • a display unit 220 configured as a display such as a liquid crystal display (LCD) or an organic light emitting diode (OLED).
  • LCD liquid crystal display
  • OLED organic light emitting diode
  • the audio processing unit 218 includes, for example, an audio decoder.
  • the audio processing unit 218 subjects the audio data supplied from the demultiplexer 215 to processing such as decoding processing conforming to a predetermined decoding method, for example, and supplies the processed audio data to the audio output unit 219.
  • the audio output unit 219 includes, for example, an audio output circuit for outputting audio.
  • the audio output unit 219 processes the audio data supplied from the audio processing unit 218 and outputs the processed data to the speaker 221.
  • the speaker 221 outputs the sound of content such as a television program corresponding to the channel selection operation of the broadcast service.
  • control unit 211 includes a watermark information acquisition unit 251 and a watermark detection unit 252.
  • the watermark information acquisition unit 251 performs processing for acquiring watermark information.
  • the watermark information acquisition unit 251 controls the video processing unit 216 or the audio processing unit 218 to acquire watermark information included in any of the audio layer, the video layer, and the system layer. Details of the transmission method of the watermark information will be described later.
  • the watermark detection unit 252 performs processing for detecting a watermark such as a video watermark or an audio watermark based on the watermark information.
  • the watermark detection unit 252 controls the video processing unit 113 based on the watermark information to perform processing of detecting a video watermark included in the video stream. Also, for example, the watermark detection unit 252 controls the audio processing unit 218 to perform processing for detecting an audio watermark included in the audio stream.
  • the receiving device 20 may be, for example, a television receiver, a set top box (STB: Set Top Box), a recorder, a personal computer, a fixed receiver such as a game machine, or a mobile such as a smartphone, a mobile phone, or a tablet computer. It can be configured as a receiver.
  • STB Set Top Box
  • FIG. 3 shows the configuration including the display unit 220 and the speaker 221, for example, when the receiving device 20 is configured as a set top box, a recorder, or a game machine, It is not necessary to include the display unit 220 and the speaker 221 in the configuration.
  • the transmission apparatus 10 is, for example, a broadcaster etc.
  • a plurality of units may be provided for each unit.
  • the receiving device 20 is configured as, for example, a television receiver, and can be installed at each user home.
  • a transmission method using metadata of 3D audio (hereinafter referred to as a first audio layer transmission method) as adding watermark information to audio data included in an audio stream using an audio layer And two transmission schemes (hereinafter also referred to as second audio layer transmission schemes) of transmission schemes using user data of 3D audio.
  • 3D audio uses a large number of speakers including a speaker located at the upper side, and enables reproduction of sound from any direction in space, thereby realizing unprecedented presence.
  • MPEG Motion Picture Experts Group
  • MPEG-H 3D Audio is promoting standardization of MPEG-H 3D Audio.
  • watermark information is inserted into the metadata area of audio data compliant with MPEG-H 3D Audio.
  • watermark information is inserted into a user data area of audio data compliant with MPEG-H 3D Audio.
  • MPEG-2 MPEG4-AVC (Advanced Video Coding), HEVC (High Efficiency Video Coding), etc. are known.
  • MPEG4-AVC Advanced Video Coding
  • HEVC High Efficiency Video Coding
  • MPEG-2 is also widely used in digital broadcasting and DVD-Video.
  • MPEG4-AVC realizes compression efficiency more than twice that of MPEG-2, and is assumed to be widely used from low bit rate applications to high bit rate applications.
  • HEVC is excellent in compression efficiency such as optimization of block size, has about 4 times compression performance compared to MPEG-2, and about 2 times compression performance compared to MPEG4-AVC, and high resolution video (for example, 4K video And 8K video) and video delivery for mobile terminals are expected.
  • watermark information is inserted into a user data area of video data compliant with MPEG-2.
  • watermark information is inserted into the user area of video data compliant with MPEG4-AVC or HEVC.
  • ATSC 3.0 has been formulated as one of the next-generation terrestrial broadcast standards.
  • ATSC 3.0 it is assumed that a more advanced service is provided by adopting an IP transmission method using an IP (Internet Protocol) packet including a UDP (User Datagram Protocol) packet for data transmission.
  • IP Internet Protocol
  • UDP User Datagram Protocol
  • MPEG2-TS Transport Stream
  • MPEG2-TS Transport Stream
  • watermark information is inserted into signaling that is control information compliant with ATSC 3.0.
  • watermark information is inserted into a program map table (PMT) of PSI (Program Specific Information), which is control information compliant with MPEG2-TS.
  • PMT program map table
  • the first audio layer transmission method will be described with reference to FIGS. 5 to 9.
  • watermark information is inserted into the metadata area of audio data compliant with MPEG-H 3D Audio.
  • Non-Patent Document 4 ISO / IEC 23008-3, "High efficiency coding and media delivery in heterogenous environments-Part 3: 3D Audio"
  • FIG. 5 is a diagram showing the structure of an audio frame of MPEG-H 3D Audio.
  • the audio frame is composed of a plurality of MPEG audio stream packets (mpeghAudioStreamPacket ()).
  • MPEG audio stream packet is composed of a header and a payload (Payload: MHAS PacketPayload).
  • the header has arranged therein information such as packet type (MHAS Packet Type), packet label (MH AS Packet Label), and packet length (MH AS Packet Length).
  • packet type MHAS Packet Type
  • packet label MH AS Packet Label
  • packet length MH AS Packet Length
  • SYNC synchronous start code
  • Frame which is actual data
  • Config indicating the configuration of this "Frame”.
  • Object data related to an object sound source of 3D audio consists of object audio data and object metadata. These data are included in "Frame”.
  • This mpegh3daFrame () as “Frame” is composed of a single channel element (SCE), a channel pair element (CPE), an LFE element (LFE), and an extension element (EXT).
  • Object audio data is included as encoded sample data of SCE.
  • object metadata is included as an extension element (EXT).
  • EXT extension element
  • watermark information is inserted into the area (metadata area) of object metadata included as the extension element (EXT).
  • This metadata area corresponds to Object_metadata () of mpegh3daExtElement () in the figure.
  • ObjectMetadataConfig is included in mpegh3daExtElementConfig () of mpegh3daDecoderConfig () of mpegh3daConfig (), which is disposed as "Config" in the payload of the MPEG audio stream packet.
  • a method for inserting the watermark information in the user data area (user data area) included as the extension element (EXT) is a second audio layer transmission method described later. It is equivalent.
  • FIG. 7 shows an example of the syntax of object_metadata_efficient (). As shown in FIG. 7, intracoded_object_metadata_efficient () is placed in object_metadata_efficient ().
  • FIG. 8 shows an example of the syntax of intracoded_object_metadata_efficient ().
  • intracoded_object_metadata_efficient () shown in FIG. 8 corresponds to intracoded_object_metadata_efficient () defined in MPEG-H 3D Audio, WM_Service_information () as watermark information is added to the last line. It is different.
  • FIG. 9 shows an example of the syntax of WM_Service_information ().
  • the 1-bit watermark_service_flag is a flag indicating whether the watermark service is valid.
  • watermark_service_flag when “1" is set as the watermark_service_flag, it indicates that the watermark service is valid and the video watermark included in the video stream or the audio watermark included in the audio stream is present. ing. On the other hand, for example, when "0" is set as the watermark_service_flag, it indicates that the watermark service is invalid.
  • the 7-bit reserved is an area for future reservations.
  • 7-bit reserved is secured and byte alignment is performed, but this byte alignment may not necessarily be performed.
  • WM_Service_information () is added to the last line, but the area to which WM_Service_information () is added is optional.
  • watermark information indicating whether the watermark service is enabled is inserted into the metadata area of audio data compliant with MPEG-H 3D Audio and transmitted. It will be.
  • the second audio layer transmission method will be described with reference to FIGS. 10 to 16.
  • watermark information is inserted into a user data area of audio data compliant with MPEG-H 3D Audio.
  • user data is defined as an extension element (EXT), and watermark information is inserted therein.
  • This user data area corresponds to User_data () (Ancillary data) of mpegh3daExtElement () shown in FIG. 5 described above.
  • FIG. 10 shows an example of extension of usacExtElementType.
  • ID_EXT_ELE_FILL ID_EXT_ELE_FILL
  • ID_EXT_ELE_MPEGS ID_EXT_ELE_SAOC
  • ID_EXT_ELE_AUDIOPREROLL ID_EXT_ELE_UNI_DRC
  • ID_EXT_ELE_SALE_SAOC_D ID_EXT_ELE_SAOC _ _ _ _ _ _ _ s
  • User_data which is a user data area, is associated with ID_EXT_ELE_USERDATA. Further, FIG. 11 shows an example of the value of usacExtElementType.
  • FIG. 12 shows an example of the syntax of userdataConfig ().
  • the 32-bit userdata_identifier is a field indicating that it is user data by setting a value of a predefined array.
  • the 16-bit userdata_frame_length is a field indicating the number of bytes of user data. User_data () is allocated according to the number of bytes indicated by this userdata_frame_length.
  • FIG. 13 shows an example of the syntax of user_data ().
  • ATSC_user_data () is arranged in the field of user_structure ().
  • FIG. 14 shows an example of the syntax of ATSC_user_data ().
  • 8-bit user_data_type_code is a field indicating the type of user data. Data is placed in the field of user_data_type_structure () according to the type of user data set in user_data_type_code.
  • FIG. 15 shows an example of the extension of user_data_type_code. For example, as shown in FIG. 15, by setting "0x07" in the 8-bit field of user_data_type_code, WM_Service_information () as watermark information is arranged in the field of user_data_type_structure ().
  • FIG. 16 shows an example of the syntax of WM_Service_information ().
  • the 1-bit watermark_service_flag is a flag indicating whether the watermark service is valid. Note that byte alignment is performed by the 7 bits following watermark_service_flag.
  • watermark information indicating whether the watermark service is effective is inserted in the user data area of audio data compliant with MPEG-H 3D Audio and transmitted. It will be.
  • the watermark information is inserted into, for example, a metadata area or a user data area of audio data compliant with MPEG-H 3D Audio by the transmission apparatus 10, and transmitted in the audio layer. become. Then, the receiving apparatus 20 can detect whether the watermark service is valid based on the watermark information transmitted in the audio layer, and can detect the watermark.
  • the receiving device 20 has a function (for example, an arithmetic circuit or software processing) for detecting that video watermarks are included in video data, and a function for detecting audio watermarks included in audio data (for example, arithmetic devices such as DSPs) It is possible to detect the watermark by determining whether the watermark service is effective or not based on the watermark information included in the audio data without adding any special function such as).
  • a function for example, an arithmetic circuit or software processing
  • audio watermarks included in audio data for example, arithmetic devices such as DSPs
  • the receiving apparatus 20 can more easily detect the watermark. Also, constantly monitoring the watermark increases power consumption in the monitoring process, which may be a problem, especially in battery-powered mobile receivers. In the technology, since it is possible to judge whether the watermark service is effective or not based on the watermark information, there is no need to constantly monitor the watermark, and shortening of the driving time by the battery and hence suppression of the power consumption. it can.
  • the video watermark is transmitted as video data (video signal)
  • a special function for example, an arithmetic circuit or software processing.
  • the watermark information is inserted into the metadata area or user data area of audio data compliant with MPEG-H 3D Audio as a method of transmission using an audio layer.
  • the audio data may be in a format compliant with other standards.
  • the watermark information may be inserted into an area different from the metadata area and the user data area.
  • the first video layer transmission method will be described with reference to FIG. 17 to FIG.
  • watermark information is inserted into a user data area of video data conforming to MPEG-2.
  • Non-Patent Document 5 ISO / IEC 13818-2, "Generic coding of moving pictures and associated audio information-Part 2: Video”
  • Non-Patent Document 6 ATSC Digital Television Standard: Part 4-MPEG-2 Video System Characteristics
  • FIG. 17 shows an example of the syntax of video_sequence () of video data compliant with MPEG-2. As shown in FIG. 17, the field of extension_and_user_data (2) is arranged in video_sequence ().
  • FIG. 18 shows an example of the syntax of extension_and_user_data (2). As shown in FIG. 18, in extension_and_user_data (2), a field of user_data () is arranged.
  • FIG. 19 shows an example of the syntax of user_data ().
  • FIG. 19 by setting “0x47413934” (“GA 94”) in the 32-bit field that is the user_data_identifier, ATSC_user_data () is placed in the field of user_structure ().
  • FIG. 20 shows an example of the syntax of ATSC_user_data ().
  • "0x07” is set in the 8-bit field which is user_data_type_code, whereby WM_Service_information () as watermark information is arranged in the field of user_data_type_structure ().
  • FIG. 21 shows an example of the syntax of WM_Service_information ().
  • the 1-bit watermark_service_flag is a flag indicating whether the watermark service is valid. Note that byte alignment is performed by the 7 bits following watermark_service_flag.
  • watermark information indicating whether the watermark service is effective is inserted into the user data area of video data compliant with MPEG-2 and transmitted. Become.
  • watermark information is inserted into a user area of video data compliant with MPEG4-AVC or HEVC.
  • Non-Patent Document 7 Although an example using MPEG4-AVC or SEP (Supplemental Enhancement Information) of HEVC is described here, the details of SEI are described in, for example, Non-Patent Document 7 below. .
  • Non-Patent Document 7 ANSI / SCTE 128-1 "AVC Video Constraints for Cable Television Part 1-Coding"
  • FIG. 22 shows an example of the syntax of user_data_registered_itu_t_t35 () as user data of SEI.
  • FIG. 22 by setting "0x47413934" ("GA 94") in the 32-bit field serving as user_identifier, ATSC1_data () is placed in the field of user_structure ().
  • FIG. 23 shows an example of the syntax of ATSC1_data ().
  • "0x07” is set in the 8-bit field which is user_data_type_code, whereby WM_Service_information () as watermark information is arranged in the field of user_data_type_structure ().
  • FIG. 24 shows an example of the syntax of WM_Service_information ().
  • the 1-bit watermark_service_flag is a flag indicating whether the watermark service is valid. Note that byte alignment is performed by the 7 bits following watermark_service_flag.
  • watermark information indicating whether the watermark service is effective is inserted into the user data area of video data compliant with MPEG4-AVC or HEVC and transmitted. It will be.
  • the watermark information is inserted, for example, in the user data area of video data compliant with MPEG-2, or MPEG4-AVC or HEVC by the transmitting apparatus 10, and transmitted in the video layer. It will be. Then, the receiving apparatus 20 can detect whether the watermark service is valid based on the watermark information transmitted in the video layer, and can detect the watermark.
  • the watermark service is simply based on the watermark information included in the video data without adding a special function (for example, an arithmetic circuit, an arithmetic device, etc.) for detecting the watermark.
  • a special function for example, an arithmetic circuit, an arithmetic device, etc.
  • Watermarks can be detected by determining whether they are valid. As a result, the receiver 20 can more easily detect the watermark.
  • the watermark information is inserted into the user data area of video data compliant with MPEG-2, MPEG4-AVC or HEVC as a scheme for transmission using a video layer.
  • the video data may have a format conforming to another standard.
  • the watermark information may be inserted into an area different from the user data area.
  • watermark information is inserted in signaling that is control information conforming to ATSC 3.0.
  • LLS Low Level Signaling
  • SLS Service Layer Signaling
  • Non-Patent Document 8 ATSC Proposed Standard: Signaling, Delivery, Synchronization, and Error Protection (A / 331)
  • LLS includes metadata such as SLT (Service List Table).
  • SLT Service List Table
  • the SLT includes basic information indicating the configuration of streams and broadcast services in a broadcast network, such as information necessary for tuning of broadcast services.
  • the SLS is service level control information, and provides information and attributes necessary for searching and selecting components belonging to a target broadcast service.
  • the SLS includes metadata such as a user service bundle description (USBD), a service-based transport session instance description (S-TSID), and a media presentation description (MPD).
  • USBD user service bundle description
  • S-TSID service-based transport session instance description
  • MPD media presentation description
  • the USBD includes information such as acquisition destinations of other metadata.
  • S-TSID is an extension of LSID (LCT Session Instance Description) for ATSC 3.0, and is control information of Real-time Object Delivery over Unidirectional Transport (ROUTE) protocol.
  • the MPD is control information of video and audio files used for streaming delivery compliant with MPEG-DASH (Dynamic Adaptive Streaming over HTTP).
  • watermark information is inserted into USBD or S-TSID as signaling conforming to ATSC 3.0.
  • FIG. 25 shows an example of the syntax of User Service Bundle Description (ROUTE).
  • the BundleDescriptionROUTE element is a root element and is an upper element of the UserServiceDescription element.
  • the UserServiceDescription element is an upper element of the globalServiceID attribute, the serviceId attribute, the serviceStatus attribute, the Name element, the ServiceLanguage element, the DeliveryMethod element, the BroadcastAppService element, the UnicastAppService element, the VideoWaterMarkService element, and the AudioWaterMarkService element.
  • a global service ID is specified in the globalServiceID attribute.
  • a service ID is specified in the serviceId attribute.
  • the serviceStatus attribute information on the status of the service is specified.
  • the name of the ATSC 3.0 service is specified.
  • the Name element is an upper element of the lang attribute.
  • the lang attribute the language of the ATSC 3.0 service name is specified.
  • the ServiceLanguage element the languages available for ATSC 3.0 services are specified.
  • the BroadcastAppService element is a high-order element of the BasePattern element, and information on distribution via broadcast is specified.
  • the UnicastAppService element is an upper element of the BasePattern element, and information on delivery via communication is specified.
  • the VideoWaterMarkService element indicates that video data includes (services of) video watermarks.
  • the AudioWaterMarkService element indicates that audio data includes (service of) audio watermark.
  • USBD for the ROUTE protocol
  • Table 7.1 Semantics of the User Service Bundle Description Fragment for ROUTE in Non-Patent Document 8 described above.
  • FIG. 26 shows an example of the syntax of Service Transport Session Instance Description.
  • the S-TSID element is a root element and is an upper element of the RS element for representing information on one or more ROUTE sessions.
  • the RS element is an upper element of the sIpAddr attribute, the dIpAddr attribute, the dport attribute, and the LS element.
  • the source IP address (source IP address) of the ROUTE session is specified in the sIpAddr attribute.
  • the destination IP address (destination IP address) of the ROUTE session is specified in the dIpAddr attribute.
  • the port number of the ROUTE session is specified in the dport attribute.
  • the LS element information on the LCT channel is described. Note that one or more LS elements can be arranged for each LCT channel.
  • the LS element is an upper element of the tsi attribute, bw attribute, startTime attribute, endTime attribute, VideoWaterMarkService attribute, AudioWaterMarkService attribute, SrcFlow element, and RepairFlow element.
  • tsi attribute a value of TSI (Transport Session Identifier) is specified. Maximum bandwidth is specified in the bw attribute.
  • the startTime and endTime attributes specify start time and end time.
  • the VideoWaterMarkService attribute indicates that video data includes (a service of) a video watermark.
  • the AudioWaterMarkService attribute indicates that the audio data includes (service of) audio watermark.
  • Information on Source Flow is specified in the SrcFlow element.
  • Information on Repair Flow is specified in the RepairFlow element.
  • FIG. 27 shows an example of the syntax of User Service Bundle Description (MMT).
  • the BundleDescriptionMMT element is a root element and is a superordinate element of the UserServiceDescription element.
  • the UserServiceDescription element is an upper element such as the serviceId attribute, the serviceStatus attribute, and the ComponentInfo element.
  • a service ID is specified in the serviceId attribute.
  • the serviceStatus attribute information on the status of the service is specified.
  • ComponentInfo element represents information about a component.
  • the ComponentInfo element is an upper element of the componentType attribute, the componentRole attribute, the componentProtectedFlag attribute, the componentId attribute, the componentName attribute, the VideoWaterMarkService attribute, and the AudioWaterMarkService attribute.
  • the VideoWaterMarkService attribute indicates that video data includes (a service of) a video watermark.
  • the AudioWaterMarkService attribute indicates that the audio data includes (service of) audio watermark.
  • USBD for the MMT protocol
  • Table 7.4 XML Format of the User Service Bundle Description for MMTP in Non-Patent Document 8 above.
  • the format of the metadata illustrated in FIGS. 25 to 27 is an example, and, for example, another text format other than the XML (Extensible Markup Language) format can be adopted.
  • the metadata is not limited to the text format, and may be a binary format.
  • the watermark information indicating whether the watermark service is effective is the signaling (for example, metadata such as USBD or S-TSID) conforming to ATSC 3.0. It will be inserted and transmitted.
  • the signaling for example, metadata such as USBD or S-TSID
  • watermark information is inserted into PMT of PSI, which is control information compliant with MPEG2-TS.
  • PSI Program Specific Information
  • control information transmission control signal
  • PSI consists of four types of tables: PAT (Program Association Table), CAT (Conditional Access Table), PMT (Program Map Table), and NIT (Network Information Table), and the receiver 20 receives multiplexed streams. Provides information for implementing demultiplexing and decoding functions.
  • the PAT contains information of a program list included in a certain transport stream.
  • the CAT contains information related to Conditional Access (CA) scheme used in multiplexing.
  • CA Conditional Access
  • the PMT stores, for example, PIDs of video and audio streams included in a certain program.
  • the NIT contains information about the physical network.
  • watermark information is inserted into PMT of PSI as control information compliant with MPEG2-TS.
  • the detailed contents of PSI are shown, for example, in Non-Patent Document 9 below.
  • Non-Patent Document 9 ISO / IEC 13818-1, "Generic coding of moving pictures and associated audio information-Part 1: Systems"
  • FIG. 28 shows an example of the syntax of TS_program_map_section () as a data structure of a PMT compliant with MPEG2-TS.
  • a program loop for arranging information related to the whole program and information for arranging information related to each elementary stream such as video and audio.
  • ES loop Elementary Stream loop
  • Video ES Loop a video elementary stream loop corresponding to a video stream and an audio elementary stream loop (Audio ES Loop) corresponding to an audio stream
  • Video ES Loop an audio elementary stream loop
  • Stream_Type a stream type
  • elementary_PID an elementary identifier
  • FIG. 29 shows an example of the syntax of WM_component_descriptor ().
  • an 8-bit description_tag is a field of a descriptor tag that identifies each descriptor.
  • the 8-bit description_length is a field indicating the byte length of the descriptor.
  • the 8-bit watermark_service_type is type information indicating whether the watermark service is valid.
  • FIG. 30 shows an example of the value of watermark_service_type.
  • the watermark_service_type is "0x00", it indicates that there is no watermark service, that is, it is invalid.
  • the watermark_service_type is "0x01”, it indicates that there is a watermark service, that is, it is valid.
  • the watermark_service_type which is "0x02" to "0xff", is considered as an area for future reservations.
  • watermark information indicating whether the watermark service is effective is inserted into the PMT of PSI conforming to MPEG2-TS and transmitted.
  • the watermark information is inserted into control information compliant with, for example, ATSC 3.0 or MPEG2-TS by the transmission apparatus 10, and is transmitted in the system layer. Then, the receiving device 20 can detect whether the watermark service is valid based on the watermark information transmitted in the system layer, and can detect the watermark.
  • the watermark service is not based on the watermark information included in the control information without adding a special function (for example, an arithmetic circuit, an arithmetic device, etc.) for detecting the watermark.
  • a special function for example, an arithmetic circuit, an arithmetic device, etc.
  • Watermarks can be detected by determining whether they are valid. As a result, the receiver 20 can more easily detect the watermark.
  • steps S101 to S103 are performed by the transmitting device 10
  • steps S201 to S204 are performed by the receiving device 20.
  • step S101 the watermark information generation unit 152 performs a process for generating watermark information.
  • the watermark information generation unit 152 controls the video processing unit 113, the audio processing unit 115, or the control information processing unit 117 to set a watermark on any of the audio layer, the video layer, or the system layer. Process to include information.
  • the watermark information is inserted, for example, in a metadata area or user data area of audio data compliant with MPEG-H 3D Audio.
  • the watermark information is inserted into, for example, a user data area of video data compliant with MPEG-2, or MPEG4-AVC or HEVC when using a video layer, and when using a system layer, for example.
  • it is inserted into control information compliant with ATSC 3.0 or MPEG2-TS.
  • step S102 processing is performed on components and control information.
  • the video processing unit 113 performs processing such as encoding on video data.
  • the audio processing unit 115 performs processing such as encoding on audio data.
  • the control information processing unit 117 performs processing on control information.
  • the video processing unit 113 is controlled by the watermark generation unit 151, and the video watermark is included in the video stream.
  • the audio processing unit 115 is controlled by the watermark generation unit 151, and an audio watermark is included in the audio stream.
  • the watermark information generation unit 152 When the watermark service is transmitted as a video stream or an audio stream, the watermark information generation unit 152 generates watermark information indicating that the watermark service is effective in the process of step S101. , Audio layer, video layer, or system layer.
  • step S103 the transmission unit 119 transmits a broadcast signal including the stream obtained in the process of steps S101 and S102.
  • step S201 the reception unit 214 receives the broadcast signal transmitted from the transmission device 10 via the antenna 231.
  • step S202 the watermark information acquisition unit 251 performs processing for acquiring watermark information.
  • the watermark information acquisition unit 251 extracts the watermark information therefrom.
  • the watermark information acquisition unit 251 inserts, for example, in the metadata area or user data area of audio data compliant with MPEG-H 3D Audio. Extracted watermark information.
  • the watermark information when transmitted using the video layer, the watermark information inserted in the user data area of video data compliant with MPEG-2, or MPEG4-AVC or HEVC, for example, When extracted and transmitted using a system layer, for example, watermark information inserted into control information conforming to ATSC 3.0 or MPEG2-TS is extracted.
  • step S203 the watermark detection unit 252 determines whether the watermark service is valid, based on the watermark information obtained in the process of step S202.
  • step S203 If it is determined in step S203 that the watermark service is valid, the process proceeds to step S204.
  • step S204 the watermark detection unit 252 performs a process for detecting a watermark. Also, at this time, in the receiving device 20 that does not correspond to the watermark, the watermark that hinders viewing can be deleted (S204).
  • the watermark detection unit 252 controls the video processing unit 113 based on the watermark information to detect the video watermark included in the video stream. I do.
  • the watermark detection unit 252 controls the audio processing unit 218 to detect an audio watermark included in the audio stream.
  • step S203 when it is determined in step S203 that the watermark service is invalid, the process proceeds to step S205.
  • the watermark may be deleted (S205). That is, in the receiving apparatus 20, when the watermark service is invalidated, the process of detecting the watermark is unnecessary, so the process of detecting the watermark (S204) is not performed.
  • the transmission and reception process ends.
  • the receiving apparatus 20 simply includes the watermark included in the video data, the audio data, and the control information without implementing a special function (for example, an arithmetic circuit, an arithmetic device, etc.) for detecting the watermark. Based on the information, it may be determined whether the watermark service is enabled, and if the watermark service is enabled, the watermark may be detected. As a result, the receiver 20 can more easily detect the watermark.
  • a special function for example, an arithmetic circuit, an arithmetic device, etc.
  • ATSC especially, ATSC 3.0
  • ATSC 3.0 which is a system adopted in the United States and the like
  • the present invention may be applied to, for example, Services Digital Broadcasting), DVB (Digital Video Broadcasting), which is a method adopted by each country in Europe, and the like.
  • the transmission path 30 for transmitting a broadcasting service (service), satellites using broadcasting satellites (BS: Broadcasting Satellite), communication satellites (CS: Communications Satellite), etc. in addition to terrestrial broadcasting
  • BS Broadcasting Satellite
  • CS Communications Satellite
  • broadcast transmission paths such as broadcasting and cable broadcasting such as cable television (CATV), but also communication transmission paths such as an IPTV (Internet Protocol TV) network, the Internet, and a telephone network.
  • IPTV Internet Protocol TV
  • the transmitter 10 (FIG. 2) alone has exemplified the configuration having the multiplexer 118 for multiplexing the stream, and the transmitter 119 for performing modulation and the like.
  • the multiplexer 118 and the transmission unit 119 are installed at different places and connected via a predetermined interface (I / F). For example, a first device having a multiplexer 118 is installed at a facility in a broadcast station, while a second device having a transmitting unit 119 is installed at a facility in a transmitting station.
  • the control information conforming to ATSC 3.0 or MPEG2-TS is transmitted in the system layer, but the control information is a container having a format compatible to ATSC 3.0 or MPEG2-TS. It can be said that it is transmitted by Therefore, the above-mentioned system layer can be said to be a layer of a container.
  • the container may be, for example, a container of a format other than the one described above, such as MP4 used for Internet distribution and the like.
  • the receiving device 20 is described as a fixed receiver such as a television receiver or a mobile receiver such as a smart phone.
  • the receiving device 20 may be a head mounted display (HMD). Or the like.
  • the receiving device 20 may be, for example, a device mounted on a car such as a car-mounted television. That is, the receiving device 20 may be any device as long as it can play back and record content.
  • control information such as USBD and S-TSID described above may be referred to as another name.
  • control information is described in a markup language such as XML, the names of those elements and attributes are merely examples, and other names may be adopted.
  • MPEG4-AVC is also referred to as “H.264”
  • HEVC is also referred to as “H.265”.
  • FIG. 32 is a block diagram showing a configuration example of hardware of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 1001, a read only memory (ROM) 1002, and a random access memory (RAM) 1003 are mutually connected by a bus 1004.
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010 are connected to the input / output interface 1005.
  • the input unit 1006 includes a keyboard, a mouse, a microphone and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the recording unit 1008 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 1009 includes a network interface or the like.
  • the drive 1010 drives a removable recording medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 1001 loads the program stored in the ROM 1002 or the recording unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004, and executes the program. A series of processing is performed.
  • the program executed by the computer 1000 can be provided by being recorded on, for example, a removable recording medium 1011 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 1008 via the input / output interface 1005 by attaching the removable recording medium 1011 to the drive 1010. Also, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the recording unit 1008.
  • the processing performed by the computer according to the program does not necessarily have to be performed chronologically in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or separately (for example, parallel processing or processing by an object). Further, the program may be processed by one computer (processor) or may be distributed and processed by a plurality of computers.
  • the present technology can have the following configurations.
  • a generation unit that generates watermark information for detecting the watermark;
  • a transmitter configured to transmit a broadcast signal including the watermark and the watermark information.
  • the watermark is included in an audio stream or video stream transmitted as the broadcast signal,
  • the transmitting apparatus according to (1) wherein the watermark information is included in a layer of the audio stream, a layer of the video stream, or a layer of any of system information layers.
  • (3) The transmission apparatus according to (2), wherein the watermark information is inserted into a metadata area of audio data included in the audio stream.
  • the watermark information is inserted into a user data area of audio data included in the audio stream.
  • the transmission apparatus according to (2) wherein the watermark information is inserted into a user data area of video data included in the video stream.
  • the transmitting device Generate watermark information to detect watermarks, A transmission method for transmitting a broadcast signal including the watermark and the watermark information.
  • the watermark is included in an audio stream or video stream transmitted as the broadcast signal, The receiving apparatus according to (11), wherein the watermark information is included in a layer of the audio stream, a layer of the video stream, or a layer of system information.
  • the receiving apparatus according to (12), wherein the watermark information is inserted into a metadata area of audio data included in the audio stream.
  • the receiving apparatus according to (12), wherein the watermark information is inserted into a user data area of audio data included in the audio stream.
  • the watermark information is inserted into a user data area of video data included in the video stream.
  • the video data conforms to MPEG-2, MPEG4-AVC, or HEVC.
  • the receiving apparatus according to (12), wherein the watermark information is included in control information transmitted as the system information.
  • the receiving method of the receiving device The receiving device Receiving a broadcast signal including a watermark and watermark information for detecting the watermark; A receiving method for detecting the watermark included in the broadcast signal based on the watermark information.
  • Reference Signs List 1 transmission system 10 transmitting apparatus, 20 receiving apparatus, 30 transmission path, 111 control unit, 113 video processing unit, 115 audio processing unit, 117 control information processing unit, 119 transmitting unit, 151 watermark generator, 152 watermark information Generation unit, 211 control unit, 214 reception unit, 216 video processing unit, 218 audio processing unit, 251 watermark information acquisition unit, 252 watermark detection unit, 1000 computer, 1001 CPU

Abstract

本技術は、より容易にウォータマークを検出することができるようにする送信装置、送信方法、受信装置、及び受信方法に関する。 ウォータマークを検出するためのウォータマーク情報を生成する生成部と、ウォータマーク及びウォータマーク情報を含む放送信号を送信する送信部とを備える送信装置が提供されることで、受信側の受信装置では、より容易にウォータマークを検出することができる。本技術は、例えば、送信装置と受信装置からなる伝送システムに適用することができる。

Description

送信装置、送信方法、受信装置、及び受信方法
 本技術は、送信装置、送信方法、受信装置、及び受信方法に関し、特に、より容易にウォータマークを検出することができるようにした送信装置、送信方法、受信装置、及び受信方法に関する。
 ビデオウォータマークやオーディオウォータマーク等のウォータマークを利用して、各種の情報を伝送する技術が知られている(例えば、特許文献1参照)。
 例えば、ビデオウォータマークでは、1ビデオフレームにおいて、映像表示領域の上側の数ラインをウォータマークとして利用して、その領域に割り当てられるビットに応じた情報量のデータを伝送することが可能となる。
特開2017-011503号公報
 ところで、ビデオウォータマークは、ビデオデータに含めて伝送されるため、テレビ受像機等の受信機の画面上に表示され、ユーザの視聴の妨げになる恐れがある。そのため、ビデオウォータマークが有効となる場合には、ビデオデータをデコードした後に、ビデオウォータマークの信号を消去することが望まれるが、それを実現するためには、ビデオウォータマークがビデオデータに含まれることを検出する機能(特別な機能)が必要となる。
 また、オーディオウォータマークは、オーディオデータに埋め込まれたウォータマーク信号(通常の信号と異なる信号)を、DSP(Digital Signal Processor)等の演算回路によって検出するため、オーディオデータに含まれるオーディオウォータマークを検出する機能(特別な機能)が必要となる。
 このように、現状では、ビデオウォータマークやオーディオウォータマーク等のウォータマークを利用するためには、受信機側で、ウォータマークを検出するための特別な機能が必要であったため、より容易にウォータマークを検出するための提案が求められていた。
 本技術はこのような状況に鑑みてなされたものであり、より容易にウォータマークを検出することができるようにするものである。
 本技術の第1の側面の送信装置は、ウォータマークを検出するためのウォータマーク情報を生成する生成部と、前記ウォータマーク及び前記ウォータマーク情報を含む放送信号を送信する送信部とを備える送信装置である。
 本技術の第1の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面の送信方法は、上述した本技術の第1の側面の送信装置に対応する送信方法である。
 本技術の第1の側面の送信装置、及び送信方法においては、ウォータマークを検出するためのウォータマーク情報が生成され、前記ウォータマーク及び前記ウォータマーク情報を含む放送信号が送信される。
 本技術の第2の側面の受信装置は、ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号を受信する受信部と、前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークを検出する検出部とを備える受信装置である。
 本技術の第2の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面の受信方法は、上述した本技術の第2の側面の受信装置に対応する受信方法である。
 本技術の第2の側面の受信装置、及び受信方法においては、ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号が受信され、前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークが検出される。
 本技術の第1の側面、及び第2の側面によれば、より容易にウォータマークを検出することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した伝送システムの一実施の形態の構成例を示すブロック図である。 送信装置の構成例を示すブロック図である。 受信装置の構成例を示すブロック図である。 ウォータマーク情報の伝送方式の例を示す図である。 MPEG-H 3D Audio に準拠したオーディオフレームの構造を示す図である。 object_metadata() のシンタックスの例を示す図である。 object_metadata_efficient() のシンタックスの例を示す図である。 intracoded_object_metadata_efficient() のシンタックスの例を示す図である。 WM_Service_information() のシンタックスの例を示す図である。 usacExtElementType の拡張の例を示す図である。 usacExtElementType の値の例を示す図である。 userdataConfig() のシンタックスの例を示す図である。 user_data() のシンタックスの例を示す図である。 ATSC_user_data() のシンタックスの例を示す図である。 user_data_type_code の拡張の例を示す図である。 WM_Service_information() のシンタックスの例を示す図である。 MPEG-2 に準拠したvideo_sequence() のシンタックスの例を示す図である。 extension_and_user_data(2) のシンタックスの例を示す図である。 user_data() のシンタックスの例を示す図である。 ATSC_user_data() のシンタックスの例を示す図である。 WM_Service_information() のシンタックスの例を示す図である。 user_data_registered_itu_t_t35() のシンタックスの例を示す図である。 ATSC1_data() のシンタックスの例を示す図である。 WM_Service_information() のシンタックスの例を示す図である。 User Service Bundle Description(ROUTE)のシンタックスの例を示す図である。 Service Transport Session Instance Descriptionのシンタックスの例を示す図である。 User Service Bundle Description(MMT)のシンタックスの例を示す図である。 TS_program_map_section() のシンタックスの例を示す図である。 WM_component_descriptor() のシンタックスの例を示す図である。 watermark_service_type の値の例を示す図である。 送受信処理の流れを説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システムの構成
2.本技術の実施の形態
(1)第1の実施の形態:オーディオレイヤ伝送方式
(2)第2の実施の形態:ビデオレイヤ伝送方式
(3)第3の実施の形態:システムレイヤ伝送方式
3.送信側と受信側の処理の流れ
4.変形例
5.コンピュータの構成
<1.システムの構成>
(伝送システムの構成例)
 図1は、本技術を適用した伝送システムの一実施の形態の構成を示すブロック図である。
 図1において、伝送システム1は、送信装置10と受信装置20から構成される。
 送信装置10は、例えば、放送サービスの送信(デジタル放送やデータ伝送)を行う。すなわち、送信装置10は、例えばテレビ番組等の放送サービスを構成するコンポーネントとしての映像や音声のデータなどの送信対象のデータを含むストリームを、放送信号(放送波)として、伝送路30を介して送信する。
 受信装置20は、送信装置10から伝送路30を介して送信されてくる放送信号を受信し、元のストリームに復元して出力する。例えば、受信装置20は、テレビ番組等の放送サービスを構成するコンポーネントとしての映像や音声のデータを出力する。
 なお、図1の伝送システム1は、ATSC(Advanced Television Systems Committee standards)規格に準拠したデータ伝送のほか、DVB(Digital Video Broadcasting)規格やISDB(Integrated Services Digital Broadcasting)規格などに準拠したデータ伝送、その他のデータ伝送に適用することができる。また、伝送路30としては、地上波のほか、衛星回線やケーブルテレビジョン網(有線回線)等を利用することができる。
(送信装置の構成)
 図2は、図1の送信装置10の構成例を示すブロック図である。
 図2において、送信装置10は、制御部111、ビデオデータ取得部112、ビデオ処理部113、オーディオデータ取得部114、オーディオ処理部115、制御情報生成部116、制御情報処理部117、マルチプレクサ118、及び送信部119から構成される。
 制御部111は、例えば、CPU(Central Processing Unit)等から構成される。制御部111は、各種の演算処理や、各部の動作制御など、送信装置10における中心的な制御装置として動作する。
 ビデオデータ取得部112は、例えば、通信I/F等のインターフェース回路から構成される。ビデオデータ取得部112は、外部のサーバ、カメラ、又は記録媒体等から、テレビ番組等のコンテンツのビデオデータを取得し、ビデオ処理部113に供給する。
 ビデオ処理部113は、例えば、ビデオエンコーダ等から構成される。ビデオ処理部113は、ビデオデータ取得部112から供給されるビデオデータに対して、例えば、所定の符号化方式に準拠したエンコードなどの処理を施し、ビデオストリームとして、マルチプレクサ118に供給する。
 オーディオデータ取得部114は、例えば、通信I/F等のインターフェース回路から構成される。オーディオデータ取得部114は、外部のサーバ、マイクロフォン、又は記録媒体等から、テレビ番組等のコンテンツのオーディオデータを取得し、オーディオ処理部115に供給する。
 オーディオ処理部115は、例えば、オーディオエンコーダ等から構成される。オーディオ処理部115は、オーディオデータ取得部114から供給されるオーディオデータに対して、例えば、所定の符号化方式に準拠したエンコードなどの処理を施し、オーディオストリームとして、マルチプレクサ118に供給する。
 制御情報生成部116は、受信側でのコンテンツの選局や再生等の処理で用いられる制御情報を生成し、制御情報処理部117に供給する。
 制御情報処理部117は、制御情報生成部116から供給される制御情報を処理し、マルチプレクサ118に供給する。なお、例えば、制御情報生成部116と制御情報処理部117は、制御情報を処理する専用の回路等から構成される。
 マルチプレクサ118は、ビデオ処理部113から供給されるビデオストリームと、オーディオ処理部115から供給されるオーディオストリームと、制御情報処理部117から供給される制御情報(システム情報)とを多重化し、その結果得られる多重化ストリームを、送信部119に供給する。
 送信部119は、例えば、OFDM(Orthogonal Frequency Division Multiplexing)信号の変調等を行う変調回路などから構成される。送信部119は、マルチプレクサ118から供給される多重化ストリームを、アンテナ131を介して、放送信号として送信する。
 なお、ここでは詳細な説明は省略するが、例えば、送信部119とアンテナ131は、送信所の施設内に設置され、この送信用のアンテナ131によって、放送信号が送信されることになる。
 また、制御部111は、ウォータマーク生成部151及びウォータマーク情報生成部152を含んで構成される。
 ウォータマーク生成部151は、ビデオウォータマークやオーディオウォータマーク等のウォータマークを生成するための処理を行う。
 例えば、ウォータマーク生成部151は、ビデオ処理部113を制御して、ビデオストリームに対し、ビデオウォータマークを含める処理を行う。また、例えば、ウォータマーク生成部151は、オーディオ処理部115を制御して、オーディオストリームに対し、オーディオウォータマークを含める処理を行う。
 ウォータマーク情報生成部152は、ウォータマークを検出するための情報(以下、ウォータマーク情報という)を生成するための処理を行う。
 例えば、ウォータマーク情報生成部152は、ビデオ処理部113、オーディオ処理部115、又は制御情報処理部117を制御して、オーディオストリームのレイヤ(オーディオレイヤ)、ビデオストリームのレイヤ(ビデオレイヤ)、又はシステム情報のレイヤ(システムレイヤ)のいずれかのレイヤに、ウォータマーク情報を含める処理を行う。このウォータマーク情報の伝送方式の詳細については、後述する。
 なお、ビデオウォータマークでは、1ビデオフレームにおいて、映像表示領域の上側の数ライン(例えば2ライン)をウォータマークとして利用して、その領域に割り当てられるビットに応じた情報量のデータを伝送することが可能となる(例えば、下記の非特許文献2,3参照)。また、オーディオウォータマークについては、例えば、下記の非特許文献1,3にその詳細な内容が示されている。
 非特許文献1:ATSC Standard:Audio Watermark Emission (A/334)
 非特許文献2:ATSC Standard:Video Watermark Emission (A/335)
 非特許文献3:ATSC Standard:Content Recovery in Redistribution Scenarios (A/336)
(受信装置の構成)
 図3は、図1の受信装置20の構成例を示すブロック図である。
 図3において、受信装置20は、制御部211、記録部212、入力部213、受信部214、デマルチプレクサ215、ビデオ処理部216、ビデオ出力部217、オーディオ処理部218、オーディオ出力部219、表示部220、及びスピーカ221から構成される。
 制御部211は、例えば、CPUやFPGA(Field Programmable Gate Array)等から構成される。制御部211は、各種の演算処理や、各種の動作制御など、受信装置20における中心的な制御装置として動作する。
 記録部212は、例えば、NVRAM(Non Volatile RAM)等の不揮発性メモリであって、制御部211からの制御に従い、各種のデータを記録する。
 入力部213は、例えば、物理的なボタンや、表示部220と一体に構成されるタッチパネルなどであって、ユーザの操作に応じた操作信号を、制御部211に供給する。制御部211は、入力部213から供給される操作信号に基づいて、各部の動作を制御する。なお、入力部213は、ユーザによるリモートコントローラの操作に応じた赤外線信号などを受け付けて、それに応じた操作信号を、制御部211に供給するようにしてもよい。
 受信部214は、例えば、チューナや、OFDM信号の復調等を行う復調回路などから構成される。受信部214は、アンテナ231を介して受信された放送信号を処理して、その結果得られる多重化ストリームを、デマルチプレクサ215に供給する。
 デマルチプレクサ215は、受信部214から供給される多重化ストリームを、ビデオストリームと、オーディオストリームと、制御情報(システム情報)とに分離する。デマルチプレクサ215は、ビデオストリームに含まれるビデオデータをビデオ処理部216に、オーディオストリームに含まれるオーディオデータをオーディオ処理部218に、制御情報を制御部211にそれぞれ供給する。
 制御部211は、デマルチプレクサ215から供給される制御情報(システム情報)に基づいて、放送サービスの選局操作に応じたテレビ番組等のコンテンツを再生するために、デマルチプレクサ215や各コンポーネントの処理部などの各部の動作を制御する。
 ビデオ処理部216は、例えば、ビデオデコーダ等から構成される。ビデオ処理部216は、デマルチプレクサ215から供給されるビデオデータに対して、例えば、所定の復号方式に準拠した復号処理などの処理を施し、ビデオ出力部217に供給する。
 ビデオ出力部217は、例えば、映像を出力するための映像出力回路等から構成される。ビデオ処理部216から供給されるビデオデータを処理して、LCD(Liquid Crystal Display)やOLED(Organic Light Emitting Diode)等のディスプレイとして構成される表示部220に出力する。これにより、表示部220には、放送サービスの選局操作に応じたテレビ番組等のコンテンツの映像が表示される。
 オーディオ処理部218は、例えば、オーディオデコーダ等から構成される。オーディオ処理部218は、デマルチプレクサ215から供給されるオーディオデータに対して、例えば、所定の復号方式に準拠した復号処理などの処理を施し、オーディオ出力部219に供給する。
 オーディオ出力部219は、例えば、音声を出力するための音声出力回路等から構成される。オーディオ出力部219は、オーディオ処理部218から供給されるオーディオデータを処理して、スピーカ221に出力する。これにより、スピーカ221からは、放送サービスの選局操作に応じたテレビ番組等のコンテンツの音声が出力される。
 また、制御部211は、ウォータマーク情報取得部251及びウォータマーク検出部252を含んで構成される。
 ウォータマーク情報取得部251は、ウォータマーク情報を取得するための処理を行う。
 例えば、ウォータマーク情報取得部251は、ビデオ処理部216、又はオーディオ処理部218などを制御して、オーディオレイヤ、ビデオレイヤ、又はシステムレイヤのいずれかのレイヤに含まれるウォータマーク情報を取得する。このウォータマーク情報の伝送方式の詳細については、後述する。
 ウォータマーク検出部252は、ウォータマーク情報に基づいて、ビデオウォータマークやオーディオウォータマーク等のウォータマークを検出するための処理を行う。
 例えば、ウォータマーク検出部252は、ウォータマーク情報に基づき、ビデオ処理部113を制御して、ビデオストリームに含まれるビデオウォータマークを検出する処理を行う。また、例えば、ウォータマーク検出部252は、オーディオ処理部218を制御して、オーディオストリームに含まれるオーディオウォータマークを検出する処理を行う。
 なお、受信装置20は、例えば、テレビ受像機やセットトップボックス(STB:Set Top Box)、録画機、パーソナルコンピュータ、ゲーム機などの固定受信機、あるいはスマートフォンや携帯電話機、タブレット型コンピュータなどのモバイル受信機として構成することができる。
 そのため、図3に示した構成では、表示部220とスピーカ221を含む構成を示しているが、例えば、受信装置20が、セットトップボックスや録画機、ゲーム機などとして構成される場合には、その構成に、表示部220とスピーカ221を含める必要はない。
 なお、図1の伝送システム1においては、説明の都合上、1台の送信装置10と1台の受信装置20のみを図示しているが、送信装置10は、例えば、放送局等の事業者ごとに、複数台設けるようにしてもよい。また、受信装置20は、例えば、テレビ受像機として構成され、ユーザ宅ごとに設置することができる。
<2.本技術の実施の形態>
 本技術では、ウォータマーク情報の伝送方式として、図4に示した6つの伝送方式を提案する。
 第1に、オーディオレイヤを利用して、オーディオストリームに含まれるオーディオデータに対し、ウォータマーク情報を付加するものとして、3Dオーディオのメタデータを用いた伝送方式(以下、第1のオーディオレイヤ伝送方式ともいう)と、3Dオーディオのユーザデータを用いた伝送方式の2つの伝送方式(以下、第2のオーディオレイヤ伝送方式ともいう)を提案する。
 ここで、3Dオーディオは、上方に配置されたスピーカを含め多数のスピーカを使用し、空間上のあらゆる方向からの音の再生を可能にすることで、これまでにない臨場感を実現するものである。MPEG(Moving Picture Experts Group)では、MPEG-H 3D Audioの標準化を進めている。
 第1のオーディオレイヤ伝送方式では、例えばMPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域に、ウォータマーク情報が挿入されるようにする。また、第2のオーディオレイヤ伝送方式では、例えばMPEG-H 3D Audioに準拠したオーディオデータのユーザデータ領域に、ウォータマーク情報が挿入されるようにする。
 第2に、ビデオレイヤを利用して、ビデオストリームに含まれるビデオデータに対し、ウォータマーク情報を付加するものとして、ビデオユーザデータを用いた2つの伝送方式を提案する。以下、この2つの伝送方式を、第1のビデオレイヤ伝送方式と、第2のビデオレイヤ伝送方式と呼んで区別する。
 ここで、動画圧縮の規格としては、例えば、MPEG-2や、MPEG4-AVC(Advanced Video Coding),HEVC(High Efficiency Video Coding)などが知られている。
 MPEG-2は、デジタル放送やDVD-Videoなどにも採用され、広く普及している。MPEG4-AVCは、MPEG-2の2倍以上の圧縮効率を実現し、低ビットレート用途から高ビットレート用途に至るまで、幅広く利用されることを想定している。HEVCは、ブロックサイズの適正化など圧縮効率が優れており、MPEG-2に比べて約4倍、MPEG4-AVCに比べて約2倍の圧縮性能を有し、高解像度な映像(例えば4K映像や8K映像)や、モバイル端末向けの映像配信での利用が想定されている。
 第1のビデオレイヤ伝送方式では、例えば、MPEG-2に準拠したビデオデータのユーザデータ領域に、ウォータマーク情報が挿入されるようにする。また、第2のビデオレイヤ伝送方式では、MPEG4-AVC又はHEVCに準拠したビデオデータのユーザ領域に、ウォータマーク情報が挿入されるようにする。
 第3に、システムレイヤを利用して、ウォータマーク情報を、制御情報(システム情報)に含めて伝送するものとして、制御情報を用いた2つの伝送方式を提案する。以下、この2つの伝送方式を、第1のシステムレイヤ伝送方式と、第2のシステムレイヤ伝送方式と呼んで区別する。
 ここで、次世代地上波放送規格の1つとして、ATSC(Advanced Television Systems Committee)3.0が策定されている。ATSC3.0では、データ伝送に、UDP(User Datagram Protocol)パケットを含むIP(Internet Protocol)パケットを用いるIP伝送方式を採用し、より高度なサービスを提供することが想定されている。また、MPEG2-TS(Transport Stream)は、データ伝送に、固定長のTSパケットを用いるものであるが、各国のデジタル放送に採用され、ビデオ・オーディオの多重化方式として広く普及している。
 第1のシステムレイヤ伝送方式では、例えば、ATSC3.0に準拠した制御情報であるシグナリングに、ウォータマーク情報が挿入されるようにする。また、第2のシステムレイヤ伝送方式では、例えば、MPEG2-TSに準拠した制御情報であるPSI(Program Specific Information)のPMT(Program Map Table)に、ウォータマーク情報が挿入されるようにする。
 以下、これらの6つのウォータマーク情報の伝送方式の詳細な内容を順に説明する。
(1)第1の実施の形態
 第1の実施の形態では、ウォータマーク情報を、オーディオレイヤを利用して伝送する方式を説明する。
(1-1)第1のオーディオレイヤ伝送方式
 まず、図5乃至図9を参照して、第1のオーディオレイヤ伝送方式について説明する。第1のオーディオレイヤ伝送方式では、MPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域に、ウォータマーク情報が挿入されるようにする。
 なお、MPEG-H 3D Audioについては、例えば、下記の非特許文献4にその詳細な内容が示されている。
 非特許文献4:ISO/IEC 23008-3, "High efficiency coding and media delivery in heterogeneous environments - Part3 : 3D Audio"
 図5は、MPEG-H 3D Audio のオーディオフレームの構造を示す図である。
 図5において、オーディオフレームは、複数のMPEGオーディオストリームパケット(mpeghAudioStreamPacket())から構成される。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload:MHASPacketPayload)により構成されている。
 ヘッダは、パケットタイプ(MHASPacketType)、パケットラベル(MHASPacket Label)、及びパケット長(MHASPacketLength)などの情報を配置している。ペイロードには、ヘッダのパケットタイプで定義された情報が配置される。このペイロードには、同期スタートコードに相当する"SYNC"と、実際のデータである"Frame"と、この"Frame"の構成を示す"Config"が存在する。
 3Dオーディオのオブジェクト音源に係るオブジェクトデータは、オブジェクトオーディオデータ及びオブジェクトメタデータからなる。これらのデータは、"Frame"に含まれる。この"Frame"としてのmpegh3daFrame()は、SCE(Single Channel Element),CPE(Channel Pair Element),LFE(LFE element),及びEXT(Extension element)から構成される。
 オブジェクトオーディオデータは、SCEの符号化サンプルデータとして含まれる。また、オブジェクトメタデータは、エクステンションエレメント(EXT)として含まれる。ここでは、さらに、ユーザデータを含めるエクステンションエレメント(EXT)を定義することができる。
 第1のオーディオレイヤ伝送方式では、このエクステンションエレメント(EXT)として含まれるオブジェクトメタデータの領域(メタデータ領域)に、ウォータマーク情報が挿入されるようにする。このメタデータ領域は、図中のmpegh3daExtElement()のObject_metadata() に対応している。
 ただし、このオブジェクトメタデータの領域(メタデータ領域)は、ObjectMetadataConfig() にて、lowDelayMetadataCoding == "0" となる場合に伝送される。なお、ObjectMetadataConfig() は、MPEGオーディオストリームパケットのペイロードに、"Config"として配置される、mpegh3daConfig()のmpegh3daDecoderConfig()のmpegh3daExtElementConfig() に含まれる。
 なお、詳細は後述するが、エクステンションエレメント(EXT)として含まれるユーザデータの領域(ユーザデータ領域)に、ウォータマーク情報が挿入されるようにする方式が、後述の第2のオーディオレイヤ伝送方式に相当するものである。
 図6は、object_metadata() のシンタックスの例を示している。図6に示すように、object_metadata() には、lowDelayMetadataCoding == "0" となるとき、object_metadata_efficient() が配置される。
 図7は、object_metadata_efficient() のシンタックスの例を示している。図7に示すように、object_metadata_efficient() には、intracoded_object_metadata_efficient() が配置される。
 図8は、intracoded_object_metadata_efficient() のシンタックスの例を示している。図8に示しているintracoded_object_metadata_efficient() は、MPEG-H 3D Audio で規定されているintracoded_object_metadata_efficient() に対応しているが、最終行に、ウォータマーク情報としてのWM_Service_information() が追加されている点が異なる。
 図9は、WM_Service_information() のシンタックスの例を示している。
 1ビットのwatermark_service_flag は、ウォータマークサービスが有効であるかどうか示すフラグである。
 例えば、watermark_service_flag として、"1"が設定された場合には、ウォータマークのサービスが有効であって、ビデオストリームに含まれるビデオウォータマーク、又はオーディオストリームに含まれるオーディオウォータマークが存在することを示している。一方で、例えば、watermark_service_flag として、"0"が設定された場合には、ウォータマークのサービスが無効であることを示している。
 7ビットのreserved は、将来の予約の領域である。なお、ここでは、7ビットのreserved を確保して、バイトアライメントを行っているが、このバイトアライメントは必ずしも行わなくてもよい。このことは、バイトアライメントを行っている、後述する他のシンタックスでも同様である。
 なお、図8に示したintracoded_object_metadata_efficient() においては、最終行に、WM_Service_information() を追加したが、WM_Service_information() が追加される領域は、任意である。
 このように、第1のオーディオレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、MPEG-H 3D Audio に準拠したオーディオデータのメタデータ領域に挿入され、伝送されることになる。
(1-2)第2のオーディオレイヤ伝送方式
 次に、図10乃至図16を参照して、第2のオーディオレイヤ伝送方式について説明する。第2のオーディオレイヤ伝送方式では、MPEG-H 3D Audioに準拠したオーディオデータのユーザデータ領域に、ウォータマーク情報が挿入されるようにする。
 ここでは、上述した図5のMPEG-H 3D Audio のオーディオフレームの構造に示したように、エクステンションエレメント(EXT)として、ユーザデータを定義して、そこに、ウォータマーク情報を挿入する。このユーザデータ領域は、上述した図5のmpegh3daExtElement()のUser_data()(Ancillary data)に対応している。
 図10は、usacExtElementType の拡張の例を示している。図10においては、usacExtElementType として、ID_EXT_ELE_FILL,ID_EXT_ELE_MPEGS,ID_EXT_ELE_SAOC,ID_EXT_ELE_AUDIOPREROLL,ID_EXT_ELE_UNI_DRC,ID_EXT_ELE_OBJ_METADATA,ID_EXT_ELE_SAOC_3D,ID_EXT_ELE_HOA,及びID_EXT_ELE_FMT_CNVRTRに加えて、ID_EXT_ELE_USERDATAが配置されている。
 ID_EXT_ELE_USERDATAには、ユーザデータ領域であるuser_data() が対応付けられている。また、図11は、usacExtElementType の値の例を示している。
 図11に示すように、usacExtElementType の値として、例えば、"128"が設定された場合、ID_EXT_ELE_USERDATAを意味し、mpegh3daExtElement() には、user_data() が配置される。
 図12は、userdataConfig() のシンタックスの例を示している。
 32ビットのuserdata_identifier は、あらかじめ定義された配列の値がセットされることで、ユーザデータであることを示すフィールドである。16ビットのuserdata_frame_length は、ユーザデータのバイト数を示すフィールドである。このuserdata_frame_length が示すバイト数に応じて、user_data()が配置される。
 図13は、user_data() のシンタックスの例を示している。図13において、user_data_identifier である32ビットのフィールドに、"0x47413934"("GA94")が設定されることで、user_structure() のフィールドに、ATSC_user_data() が配置される。
 図14は、ATSC_user_data() のシンタックスの例を示している。
 8ビットのuser_data_type_code は、ユーザデータのタイプを示すフィールドである。user_data_type_code に設定されたユーザデータのタイプに応じて、user_data_type_structure() のフィールドにデータが配置される。
 図15は、user_data_type_code の拡張の例を示している。例えば、図15に示すように、user_data_type_code である8ビットのフィールドに、"0x07"が設定されることで、user_data_type_structure() のフィールドに、ウォータマーク情報としてのWM_Service_information() が配置される。
 図16は、WM_Service_information() のシンタックスの例を示している。
 1ビットのwatermark_service_flag は、ウォータマークサービスが有効であるかどうかを示すフラグである。なお、watermark_service_flag に続く7ビットにより、バイトアライメントがなされている。
 このように、第2のオーディオレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、MPEG-H 3D Audioに準拠したオーディオデータのユーザデータ領域に挿入され、伝送されることになる。
 以上、第1の実施の形態について説明した。第1の実施の形態では、送信装置10によって、ウォータマーク情報が、例えば、MPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域やユーザデータ領域などに挿入され、オーディオレイヤで伝送されることになる。そして、受信装置20は、オーディオレイヤで伝送されるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定し、ウォータマークを検出することができる。
 そのため、受信装置20では、ビデオウォータマークがビデオデータに含まれることを検出する機能(例えば演算回路やソフトウェア処理)や、オーディオデータに含まれるオーディオウォータマークを検出する機能(例えばDSP等の演算装置)などの特別な機能を追加することなく、単に、オーディオデータに含まれるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定して、ウォータマークを検出することができる。
 このように、受信装置20では、より容易にウォータマークを検出することができる。また、常時、ウォータマークを監視する方式であると、監視処理での電力消費が増大するため、特に、バッテリにより駆動されるモバイル受信機では、そのことが問題になる可能性があるが、本技術では、ウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定できるため、常時、ウォータマークを監視する必要はなく、バッテリによる駆動時間の短縮、ひいては、電力消費を抑制することができる。
 また、ビデオウォータマークは、ビデオデータ(映像信号)として伝送されるため、ビデオデータをデコードした後に、ビデオウォータマークの信号を消去する(例えば黒に置き換える)ことが望まれるが、ウォータマーク情報を用いることで、特別な機能(例えば演算回路やソフトウェア処理)を追加することなく、容易にビデオウォータマークを検出して、ビデオウォータマークの信号を消去する処理などを行うことができる。
 なお、上述した第1の実施の形態では、オーディオレイヤを利用して伝送する方式として、ウォータマーク情報が、MPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域又はユーザデータ領域に挿入される場合を説明したが、オーディオデータは、他の規格に準拠したフォーマットであってもよい。また、オーディオデータにおいて、ウォータマーク情報は、メタデータ領域やユーザデータ領域とは異なる領域に挿入されるようにしてもよい。
 また、上述したシンタックスの「Mnemonic」又は「Format」の項目であるが、"uimsbf(unsigned integer most significant bit first)" が指定された場合、ビット演算をして、整数として扱われることを意味している。一方で、「Mnemonic」又は「Format」として、"bslbf(bit string, left bit first)" が指定された場合には、ビット列として扱われることを意味する。これらの関係は、後述する他のシンタックスでも同様とされる。
(2)第2の実施の形態
 第2の実施の形態では、ウォータマーク情報を、ビデオレイヤを利用して伝送する方式を説明する。
(2-1)第1のビデオレイヤ伝送方式
 まず、図17乃至図21を参照して、第1のビデオレイヤ伝送方式について説明する。第1のビデオレイヤ伝送方式では、MPEG-2に準拠したビデオデータのユーザデータ領域に、ウォータマーク情報が挿入されるようにする。
 なお、MPEG-2 Videoについては、例えば、下記の非特許文献5,6にその詳細な内容が示されている。
 非特許文献5:ISO/IEC 13818-2, "Generic coding of moving pictures and associated audio information - Part2 : Video"
 非特許文献6:ATSC Digital Television Standard:Part 4 - MPEG-2 Video System Characteristics
 図17は、MPEG-2に準拠したビデオデータのvideo_sequence() のシンタックスの例を示している。図17に示すように、video_sequence() には、extension_and_user_data(2) のフィールドが配置されている。
 図18は、extension_and_user_data(2) のシンタックスの例を示している。図18に示すように、extension_and_user_data(2)には、user_data() のフィールドが配置されている。
 図19は、user_data() のシンタックスの例を示している。図19において、user_data_identifier である32ビットのフィールドに、"0x47413934"("GA94")が設定されることで、user_structure() のフィールドに、ATSC_user_data() が配置される。
 図20は、ATSC_user_data() のシンタックスの例を示している。図20において、user_data_type_code である8ビットのフィールドに、例えば、"0x07"が設定されることで、user_data_type_structure() のフィールドに、ウォータマーク情報としてのWM_Service_information() が配置される。
 なお、ここでは、上述した図15に示したように、WM_Service_information() であるuser_data_type_structure() に対し、"0x07"であるuser_data_type_codeが割り当てられているものとする。
 図21は、WM_Service_information() のシンタックスの例を示している。
 1ビットのwatermark_service_flag は、ウォータマークサービスが有効であるかどうか示すフラグである。なお、watermark_service_flag に続く7ビットにより、バイトアライメントがなされている。
 このように、第1のビデオレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、MPEG-2に準拠したビデオデータのユーザデータ領域に挿入され、伝送されることになる。
(2-2)第2のビデオレイヤ伝送方式
 次に、図22乃至図24を参照して、第2のビデオレイヤ伝送方式について説明する。第2のビデオレイヤ伝送方式では、MPEG4-AVC又はHEVCに準拠したビデオデータのユーザ領域に、ウォータマーク情報が挿入されるようにする。
 なお、ここでは、MPEG4-AVC又はHEVCのSEI(Supplemental Enhancement Information)を利用した例を説明するが、SEIの詳細については、例えば、下記の非特許文献7にその詳細な内容が示されている。
 非特許文献7:ANSI/SCTE 128-1 "AVC Video Constraints for Cable Television Part1 - Coding"
 図22は、SEIのユーザデータとしてのuser_data_registered_itu_t_t35() のシンタックスの例を示している。図22において、user_identifier である32ビットのフィールドに、"0x47413934"("GA94")が設定されることで、user_structure() のフィールドに、ATSC1_data() が配置される。
 図23は、ATSC1_data() のシンタックスの例を示している。図23において、user_data_type_code である8ビットのフィールドに、例えば、"0x07"が設定されることで、user_data_type_structure() のフィールドに、ウォータマーク情報としてのWM_Service_information() が配置される。
 図24は、WM_Service_information() のシンタックスの例を示している。
 1ビットのwatermark_service_flag は、ウォータマークサービスが有効であるかどうかを示すフラグである。なお、watermark_service_flag に続く7ビットにより、バイトアライメントがなされている。
 このように、第2のビデオレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、MPEG4-AVC又はHEVCに準拠したビデオデータのユーザデータ領域に挿入され、伝送されることになる。
 以上、第2の実施の形態について説明した。第2の実施の形態では、送信装置10によって、ウォータマーク情報が、例えば、MPEG-2,又はMPEG4-AVC若しくはHEVCに準拠したビデオデータのユーザデータ領域などに挿入され、ビデオレイヤで伝送されることになる。そして、受信装置20は、ビデオレイヤで伝送されるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定し、ウォータマークを検出することができる。
 そのため、受信装置20では、ウォータマークを検出するための特別な機能(例えば、演算回路や演算装置等)を追加することなく、単に、ビデオデータに含まれるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定して、ウォータマークを検出することができる。その結果として、受信装置20では、より容易にウォータマークを検出することができる。
 なお、上述した第2の実施の形態では、ビデオレイヤを利用して伝送する方式として、ウォータマーク情報が、MPEG-2,又はMPEG4-AVC若しくはHEVCに準拠したビデオデータのユーザデータ領域に挿入される場合を説明したが、ビデオデータは、他の規格に準拠したフォーマットであってもよい。また、ビデオデータにおいて、ウォータマーク情報は、ユーザデータ領域とは異なる領域に挿入されるようにしてもよい。
(3)第3の実施の形態
 第3の実施の形態では、ウォータマーク情報を、システムレイヤを利用して伝送する方式を説明する。
(3-1)第1のシステムレイヤ伝送方式
 まず、図25乃至図27を参照して、第1のシステムレイヤ伝送方式について説明する。第1のシステムレイヤ伝送方式では、ATSC3.0に準拠した制御情報であるシグナリングに、ウォータマーク情報が挿入されるようにする。
 ここで、ATSC3.0では、シグナリングとして、LLS(Low Level Signaling)と、SLS(Service Layer Signaling)が規定されている(下記の非特許文献8参照)。
 非特許文献8:ATSC Proposed Standard:Signaling, Delivery, Synchronization,and Error Protection (A/331)
 LLSには、SLT(Service List Table)等のメタデータが含まれる。SLTは、放送サービスの選局に必要な情報など、放送ネットワークにおけるストリームや放送サービスの構成を示す基本情報を含んでいる。
 SLSは、サービスレベルの制御情報であり、対象の放送サービスに属するコンポーネントの探索と選択に必要な情報や属性などを提供するものである。SLSは、USBD(User Service Bundle Description),S-TSID(Service-based Transport Session Instance Description),MPD(Media Presentation Description)等のメタデータが含まれる。
 USBDは、他のメタデータの取得先などの情報を含む。S-TSIDは、LSID(LCT Session Instance Description)をATSC3.0向けに拡張したものであって、ROUTE(Real-time Object Delivery over Unidirectional Transport)プロトコルの制御情報である。MPDは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)に準拠したストリーミング配信を行うために用いられる、ビデオやオーディオのファイルの制御情報である。
 第1のシステムレイヤ伝送方式では、ATSC3.0に準拠したシグナリングとして、USBD又はS-TSIDに、ウォータマーク情報が挿入されるようにする。
 なお、上記の非特許文献8の「Figure 5.1 ATSC 3.0 receiver protocol stack」に示すように、ATSC3.0では、トランスポート・プロトコルとして、ROUTEプロトコルと、MMT(MPEG Media Transport)プロトコルが規定されている。USBDは、ROUTEとMMTの両方のプロトコルで用いられるため、以下の説明では、ROUTEプロトコル用のUSBD(USBD - ROUTE)のほかに、MMTプロトコル用のUSBD(USBD - MMT)についても説明する。
(第1の例:USBD - ROUTE)
 図25は、User Service Bundle Description(ROUTE)のシンタックスの例を示している。
 なお、図25において、要素と属性のうち、属性には「@」が付されている。また、インデントされた要素と属性は、その上位の要素に対して指定されたものとなる。これらの関係は、後述する図26及び図27でも同様とされる。
 BundleDescriptionROUTE要素は、ルート要素であって、UserServiceDescription要素の上位要素となる。
 UserServiceDescription要素は、globalServiceID属性、serviceId属性、serviceStatus属性、Name要素、ServiceLanguage要素、DeliveryMethod要素、BroadcastAppService要素、UnicastAppService要素、VideoWaterMarkService要素、及びAudioWaterMarkService要素の上位要素となる。
 globalServiceID属性には、グローバルサービスIDが指定される。serviceId属性には、サービスIDが指定される。serviceStatus属性には、サービスのステータスに関する情報が指定される。
 Name要素には、ATSC3.0のサービスの名称が指定される。Name要素は、lang属性の上位要素となる。lang属性には、ATSC3.0のサービスの名称の言語が指定される。ServiceLanguage要素には、ATSC3.0のサービスで利用できる言語が指定される。
 DeliveryMethod要素には、データの配信方法に関する情報が指定される。BroadcastAppService要素は、BasePattern要素の上位要素であって、放送経由での配信に関する情報が指定される。UnicastAppService要素は、BasePattern要素の上位要素であって、通信経由での配信に関する情報が指定される。
 VideoWaterMarkService要素は、ビデオデータに、ビデオウォータマーク(のサービス)が含まれていることを示す。AudioWaterMarkService要素は、オーディオデータに、オーディオウォータマーク(のサービス)が含まれていることを示す。
 なお、ROUTEプロトコル用のUSBDの詳細については、上記の非特許文献8の「Table 7.1 Semantics of the User Service Bundle Description Fragment for ROUTE」にその詳細な内容が記載されている。
(第2の例:S-TSID)
 図26は、Service Transport Session Instance Descriptionのシンタックスの例を示している。
 S-TSID要素は、ルート要素であって、1又は複数のROUTEセッションに関する情報を表すためのRS要素の上位要素となる。RS要素は、sIpAddr属性、dIpAddr属性、dport属性、及びLS要素の上位要素となる。
 sIpAddr属性には、ROUTEセッションの送信元IPアドレス(source IP address)が指定される。dIpAddr属性には、ROUTEセッションの送信先IPアドレス(destination IP address)が指定される。dport属性には、ROUTEセッションのポート番号が指定される。
 LS要素には、LCTチャネルに関する情報が記述される。なお、LS要素は、LCTチャネルごとに、1又は複数配置することができる。LS要素は、tsi属性、bw属性、startTime属性、endTime属性、VideoWaterMarkService属性、AudioWaterMarkService属性、SrcFlow要素、及びRepairFlow要素の上位要素となる。
 tsi属性には、TSI(Transport Session Identifier)の値が指定される。bw属性には、最大バンド幅が指定される。startTime属性とendTime属性には、開始時刻と終了時刻が指定される。
 VideoWaterMarkService属性は、ビデオデータに、ビデオウォータマーク(のサービス)が含まれていることを示す。AudioWaterMarkService属性は、オーディオデータに、オーディオウォータマーク(のサービス)が含まれていることを示す。
 SrcFlow要素には、Source Flowに関する情報が指定される。RepairFlow要素には、Repair Flowに関する情報が指定される。
 なお、S-TSIDの詳細については、上記の非特許文献8の「Table 7.2 Semantics of the Service-based Transport Session Instance Description Fragment」にその詳細な内容が記載されている。
(第3の例:USBD - MMT)
 図27は、User Service Bundle Description(MMT)のシンタックスの例を示している。
 BundleDescriptionMMT要素は、ルート要素であって、UserServiceDescription要素の上位要素となる。
 UserServiceDescription要素は、serviceId属性、serviceStatus属性、及びComponentInfo要素などの上位要素となる。
 serviceId属性には、サービスIDが指定される。serviceStatus属性には、サービスのステータスに関する情報が指定される。
 ComponentInfo要素は、コンポーネントに関する情報を表す。ComponentInfo要素は、componentType属性、componentRole属性、componentProtectedFlag属性、componentId属性、componentName属性、VideoWaterMarkService属性、及びAudioWaterMarkService属性の上位要素となる。
 VideoWaterMarkService属性は、ビデオデータに、ビデオウォータマーク(のサービス)が含まれていることを示す。AudioWaterMarkService属性は、オーディオデータに、オーディオウォータマーク(のサービス)が含まれていることを示す。
 なお、MMTプロトコル用のUSBDの詳細については、上記の非特許文献8の「Table 7.4 XML Format of the User Service Bundle Description Fragment for MMTP」にその詳細な内容が記載されている。
 また、図25乃至図27においては、「Use」の項目として、"0..1"が指定された場合には、その要素又は属性を指定するかどうかは任意である。また、「Use」の項目として、"1..N"が指定された場合には、その要素又は属性は、1以上指定され、"1"が指定された場合にはその要素又は属性は必ず1つだけ指定される。
 また、「Data Type」の項目であるが、"unsignedShort"や"unsignedInt"が指定された場合、その要素又は属性の値が、整数型であることを示し、"string"が指定された場合には、その要素又は属性の値が、文字列型であることを示している。また、「Data Type」の項目として、"boolean"が指定された場合、その要素又は属性がブーリアン型であることを示している。"dateTime"が指定された場合、その要素又は属性が、特定の日時を表すことを示している。
 なお、図25乃至図27に示したメタデータのフォーマットは一例であって、例えば、XML(Extensible Markup Language)形式の以外の他のテキスト形式を採用することもできる。また、メタデータは、テキスト形式に限らず、バイナリ形式であってもよい。
 このように、第1のシステムレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、ATSC3.0に準拠したシグナリング(例えば、USBDやS-TSID等のメタデータ)に挿入され、伝送されることになる。
(3-2)第2のシステムレイヤ伝送方式
 次に、図28乃至図30を参照して、第2のシステムレイヤ伝送方式について説明する。第2のシステムレイヤ伝送方式では、MPEG2-TSに準拠した制御情報であるPSIのPMTに、ウォータマーク情報が挿入されるようにする。
 ここで、MPEG2-TSでは、制御情報(伝送制御信号)として、PSI(Program Specific Information)を含んでいる。PSIは、PAT(Program Association Table),CAT(Conditional Access Table),PMT(Program Map Table),及びNIT(Network Information Table)の4種類のテーブルからなり、多重化されたストリームを、受信装置20が多重解除してデコードする機能を実現するための情報を提供する。
 PATは、あるトランスポートストリーム内に含まれるプログラム一覧の情報を含む。CATは、多重化で使用されている限定受信(CA:Conditional Access)方式に関連する情報を含む。PMTは、あるプログラムに含まれるビデオやオーディオのストリームの各PID等を格納している。NITは、物理的ネットワークに関する情報を含む。
 第2のシステムレイヤ伝送方式では、MPEG2-TSに準拠した制御情報として、PSIのPMTに、ウォータマーク情報が挿入されるようにする。なお、PSIについては、例えば、下記の非特許文献9にその詳細な内容が示されている。
 非特許文献9:ISO/IEC 13818-1, "Generic coding of moving pictures and associated audio information - Part1 : Systems"
 図28は、MPEG2-TSに準拠したPMTのデータ構造として、TS_program_map_section() のシンタックスの例を示している。
 図28に示すように、TS_program_map_section() には、プログラム全体に関連する情報を配置するためのプログラムループ(Program loop)と、ビデオやオーディオ等の各エレメンタリストリームに関連した情報を配置するためのESループ(Elementary Stream loop)が存在している。
 例えば、ESループには、ビデオストリームに対応したビデオ・エレメンタリストリームループ(Video ES Loop)や、オーディオストリームに対応したオーディオ・エレメンタリストリームループ(Audio ES Loop)が存在する。各ループには、ストリームタイプ(Stream_Type)、エレメンタリ識別子(elementary_PID)などの情報が配置される。
 ここでは、ESループに、WM_component_descriptor() を追加する。図29は、WM_component_descriptor() のシンタックスの例を示している。
 図29において、8ビットのdescription_tag は、各記述子を識別する記述子タグのフィールドである。8ビットのdescription_length は、記述子のバイト長を示すフィールドである。8ビットのwatermark_service_type は、ウォータマークサービスが有効であるかどうかを示すタイプ情報である。
 図30は、watermark_service_type の値の例を示している。図30において、watermark_service_type が、"0x00"となる場合、ウォータマークサービスがない、すなわち、無効であることを示している。一方で、watermark_service_type が、"0x01"となる場合、ウォータマークサービスがある、すなわち、有効であることを示している。
 なお、"0x02"~"0xff" であるwatermark_service_type は、将来の予約の領域とされる。
 このように、第2のシステムレイヤ伝送方式では、ウォータマークサービスが有効であるかどうかを示すウォータマーク情報が、MPEG2-TSに準拠したPSIのPMTに挿入され、伝送されることになる。
 以上、第3の実施の形態について説明した。第3の実施の形態では、送信装置10によって、ウォータマーク情報が、例えば、ATSC3.0,又はMPEG2-TSに準拠した制御情報に挿入され、システムレイヤで伝送されることになる。そして、受信装置20は、システムレイヤで伝送されるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定し、ウォータマークを検出することができる。
 そのため、受信装置20では、ウォータマークを検出するための特別な機能(例えば、演算回路や演算装置等)を追加することなく、単に、制御情報に含まれるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定して、ウォータマークを検出することができる。その結果として、受信装置20では、より容易にウォータマークを検出することができる。
 なお、上述した第3の実施の形態では、システムレイヤを利用して伝送する方式として、ウォータマーク情報が、ATSC3.0に準拠したシグナリング(例えば、USBDやS-TSID等のメタデータ)、又はMPEG2-TSに準拠したPSIのPMTに含まれる場合を説明したが、他の規格に準拠した制御情報に含まれるようにしてもよい。
<3.送信側と受信側の処理の流れ>
 次に、図31のフローチャートを参照して、図1の伝送システム1にて行われる送受信処理の流れを説明する。
 なお、図31において、ステップS101乃至S103の処理は、送信装置10により実行され、ステップS201乃至S204の処理は、受信装置20により実行される。
 ステップS101において、ウォータマーク情報生成部152は、ウォータマーク情報を生成するための処理を行う。
 ここでは、ウォータマーク情報生成部152は、ビデオ処理部113、オーディオ処理部115、又は制御情報処理部117を制御して、オーディオレイヤ、ビデオレイヤ、又はシステムレイヤのいずれかのレイヤに、ウォータマーク情報を含める処理を行う。
 このとき、オーディオレイヤを利用する場合、ウォータマーク情報は、例えば、MPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域やユーザデータ領域などに挿入される。
 また、ウォータマーク情報は、ビデオレイヤを利用する場合には、例えば、MPEG-2,又はMPEG4-AVC若しくはHEVCに準拠したビデオデータのユーザデータ領域などに挿入され、システムレイヤを利用する場合には、例えば、ATSC3.0,又はMPEG2-TSに準拠した制御情報に挿入される。
 ステップS102においては、コンポーネントと制御情報に対する処理が行われる。
 ここでは、ビデオ処理部113によって、ビデオデータに対するエンコードなどの処理が行われる。また、オーディオ処理部115によって、オーディオデータに対するエンコードなどの処理が行われる。また、制御情報処理部117によって、制御情報に対する処理が行われる。
 このとき、ウォータマークサービスが、ビデオストリームで伝送される場合には、ウォータマーク生成部151によって、ビデオ処理部113が制御され、ビデオストリームに対し、ビデオウォータマークが含められる。
 また、ウォータマークサービスが、オーディオストリームで伝送される場合には、ウォータマーク生成部151によって、オーディオ処理部115が制御され、オーディオストリームに対し、オーディオウォータマークが含められる。
 なお、ウォータマークサービスが、ビデオストリーム又はオーディオストリームで伝送される場合には、ステップS101の処理で、ウォータマーク情報生成部152によって、ウォータマークサービスが有効であることを示すウォータマーク情報が生成され、オーディオレイヤ、ビデオレイヤ、又はシステムレイヤのいずれかのレイヤに含められる。
 ステップS103において、送信部119は、ステップS101,S102の処理で得られるストリームを含む放送信号を送信する。
 ステップS201において、受信部214は、送信装置10から送信される放送信号を、アンテナ231を介して受信する。
 ステップS202において、ウォータマーク情報取得部251は、ウォータマーク情報を取得するための処理を行う。
 ここでは、オーディオレイヤ、ビデオレイヤ、又はシステムレイヤのいずれかのレイヤに、ウォータマーク情報が挿入されているため、ウォータマーク情報取得部251は、そこから、ウォータマーク情報を抽出する。
 このとき、オーディオレイヤを利用して、ウォータマーク情報が伝送される場合、ウォータマーク情報取得部251は、例えば、MPEG-H 3D Audioに準拠したオーディオデータのメタデータ領域やユーザデータ領域などに挿入されたウォータマーク情報を抽出する。
 また、ウォータマーク情報が、ビデオレイヤを利用して伝送される場合には、例えば、MPEG-2,又はMPEG4-AVC若しくはHEVCに準拠したビデオデータのユーザデータ領域などに挿入されたウォータマーク情報が抽出され、システムレイヤを利用して伝送される場合には、例えば、ATSC3.0,又はMPEG2-TSに準拠した制御情報に挿入されたウォータマーク情報が抽出される。
 ステップS203において、ウォータマーク検出部252は、ステップS202の処理で得られたウォータマーク情報に基づいて、ウォータマークサービスが有効であるかどうかを判定する。
 ステップS203において、ウォータマークサービスが有効であると判定された場合、処理は、ステップS204に進められる。ステップS204において、ウォータマーク検出部252は、ウォータマークを検出するための処理を行う。また、このとき、ウォータマークに対応しない受信装置20では、視聴の妨げとなるウォータマークを消去することができる(S204)。
 ここでは、ウォータマークサービスが、ビデオストリームで伝送される場合、ウォータマーク検出部252は、ウォータマーク情報に基づき、ビデオ処理部113を制御して、ビデオストリームに含まれるビデオウォータマークを検出する処理を行う。
 また、ウォータマークサービスが、オーディオストリームで伝送される場合、ウォータマーク検出部252は、オーディオ処理部218を制御して、オーディオストリームに含まれるオーディオウォータマークを検出する処理を行う。
 一方で、ステップS203において、ウォータマークサービスが無効であると判定された場合、処理は、ステップS205に進められる。この場合に、例えばウォータマークが存在するときには、当該ウォータマークを消去するようにしてもよい(S205)。すなわち、受信装置20では、ウォータマークサービスが無効となるとき、ウォータマークを検出する処理は不要であるため、ウォータマークの検出処理(S204)は行われないことになる。ステップS204又はS205の処理が終了すると、送受信処理は終了される。
 このように、受信装置20では、ウォータマークを検出するための特別な機能(例えば、演算回路や演算装置等)を実装することなく、単に、ビデオデータやオーディオデータ、制御情報に含まれるウォータマーク情報に基づき、ウォータマークサービスが有効であるかどうかを判定し、ウォータマークサービスが有効である場合には、ウォータマークを検出することができる。その結果として、受信装置20では、より容易にウォータマークを検出することができる。
 以上、送受信処理の流れについて説明した。
<4.変形例>
(放送方式の例)
 上述した説明では、放送サービスの放送方式として、米国等で採用されている方式であるATSC(特に、ATSC3.0)を説明したが、本技術は、日本等が採用する方式であるISDB(Integrated Services Digital Broadcasting)や、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などに適用するようにしてもよい。
 また、放送サービス(サービス)を伝送するための伝送路30(図1)としては、地上波放送のほか、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)等を利用した衛星放送や、ケーブルテレビ(CATV)等の有線放送などの放送伝送路は勿論、IPTV(Internet Protocol TV)網や、インターネット、電話網などの通信伝送路を用いることができる。
 なお、図1の伝送システム1においては、送信装置10(図2)が単独で、ストリームの多重化処理を行うマルチプレクサ118と、変調処理等を行う送信部119を有する構成を例示したが、一般的なデジタル放送のシステムでは、マルチプレクサ118と送信部119とは、異なる場所に設置され、所定のインターフェース(I/F)を介して接続されるものである。例えば、マルチプレクサ118を有する第1の装置は、放送局内の施設に設置される一方で、送信部119を有する第2の装置は、送信所内の施設に設置される。
 また、上述した説明では、ATSC3.0やMPEG2-TSに準拠した制御情報が、システムレイヤで伝送される場合を説明したが、制御情報は、ATSC3.0やMPEG2-TSに対応したフォーマットのコンテナにより伝送されているとも言える。したがって、上述のシステムレイヤは、コンテナのレイヤであるとも言える。ここで、コンテナとしては、例えば、インターネット配信などで用いられるMP4など、上述した以外のフォーマットのコンテナであってもよい。
(受信装置の他の構成例)
 また、上述した説明では、受信装置20は、テレビ受像機等の固定受信機、又はスマートフォン等のモバイル受信機であるとして説明したが、受信装置20は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)などのウェアラブルコンピュータであってもよい。さらに、受信装置20は、例えば車載テレビなどの自動車に搭載される機器であってもよい。すなわち、受信装置20は、コンテンツの再生や録画が可能な機器であれば、いずれの機器であってもよい。
(その他)
 なお、本明細書で使用している名称は、一例であって、実際には、他の名称が用いられる場合がある。ただし、これらの名称の違いは、形式的な違いであって、対象のものの実質的な内容が異なるものではない。
 例えば、上述したUSBDやS-TSID等の制御情報は、他の名称とされる場合がある。また、制御情報がXML等のマークアップ言語により記述される場合において、それらの要素や属性の名称は一例であって、他の名称が採用されるようにしてもよい。また、例えば、MPEG4-AVCは、「H.264」とも称され、HEVCは、「H.265」とも称される。
<5.コンピュータの構成>
 上述した一連の処理(例えば、図31に示した送受信処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
 入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 ウォータマークを検出するためのウォータマーク情報を生成する生成部と、
 前記ウォータマーク及び前記ウォータマーク情報を含む放送信号を送信する送信部と
 を備える送信装置。
(2)
 前記ウォータマークは、前記放送信号として伝送されるオーディオストリーム又はビデオストリームに含まれ、
 前記ウォータマーク情報は、前記オーディオストリームのレイヤ、前記ビデオストリームのレイヤ、又はシステム情報のレイヤのいずれかのレイヤに含まれる
 前記(1)に記載の送信装置。
(3)
 前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのメタデータ領域に挿入される
 前記(2)に記載の送信装置。
(4)
 前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのユーザデータ領域に挿入される
 前記(2)に記載の送信装置。
(5)
 前記オーディオデータは、MPEG-H 3D Audioに準拠している
 前記(3)又は(4)に記載の送信装置。
(6)
 前記ウォータマーク情報は、前記ビデオストリームに含まれるビデオデータのユーザデータ領域に挿入される
 前記(2)に記載の送信装置。
(7)
 前記ビデオデータは、MPEG-2,MPEG4-AVC(Advanced Video Coding),又はHEVC(High Efficiency Video Coding)に準拠している
 前記(6)に記載の送信装置。
(8)
 前記ウォータマーク情報は、前記システム情報として伝送される制御情報に含まれる
 前記(2)に記載の送信装置。
(9)
 前記制御情報は、ATSC(Advanced Television Systems Committee)3.0,又はMPEG2-TS(Transport Stream)に準拠している
 前記(8)に記載の送信装置。
(10)
 送信装置の送信方法において、
 前記送信装置が、
 ウォータマークを検出するためのウォータマーク情報を生成し、
 前記ウォータマーク及び前記ウォータマーク情報を含む放送信号を送信する
 送信方法。
(11)
 ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号を受信する受信部と、
 前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークを検出する検出部と
 を備える受信装置。
(12)
 前記ウォータマークは、前記放送信号として伝送されるオーディオストリーム又はビデオストリームに含まれ、
 前記ウォータマーク情報は、前記オーディオストリームのレイヤ、前記ビデオストリームのレイヤ、又はシステム情報のレイヤのいずれかのレイヤに含まれる
 前記(11)に記載の受信装置。
(13)
 前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのメタデータ領域に挿入される
 前記(12)に記載の受信装置。
(14)
 前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのユーザデータ領域に挿入される
 前記(12)に記載の受信装置。
(15)
 前記オーディオデータは、MPEG-H 3D Audioに準拠している
 前記(13)又は(14)に記載の受信装置。
(16)
 前記ウォータマーク情報は、前記ビデオストリームに含まれるビデオデータのユーザデータ領域に挿入される
 前記(12)に記載の受信装置。
(17)
 前記ビデオデータは、MPEG-2,MPEG4-AVC,又はHEVCに準拠している
 前記(16)に記載の受信装置。
(18)
 前記ウォータマーク情報は、前記システム情報として伝送される制御情報に含まれる
 前記(12)に記載の受信装置。
(19)
 前記制御情報は、ATSC3.0,又はMPEG2-TSに準拠している
 前記(18)に記載の受信装置。
(20)
 受信装置の受信方法において、
 前記受信装置が、
 ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号を受信し、
 前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークを検出する
 受信方法。
 1 伝送システム, 10 送信装置, 20 受信装置, 30 伝送路, 111 制御部, 113 ビデオ処理部, 115 オーディオ処理部, 117 制御情報処理部, 119 送信部, 151 ウォータマーク生成部, 152 ウォータマーク情報生成部, 211 制御部, 214 受信部, 216 ビデオ処理部, 218 オーディオ処理部, 251 ウォータマーク情報取得部, 252 ウォータマーク検出部, 1000 コンピュータ, 1001 CPU

Claims (20)

  1.  ウォータマークを検出するためのウォータマーク情報を生成する生成部と、
     前記ウォータマーク及び前記ウォータマーク情報を含む放送信号を送信する送信部と
     を備える送信装置。
  2.  前記ウォータマークは、前記放送信号として伝送されるオーディオストリーム又はビデオストリームに含まれ、
     前記ウォータマーク情報は、前記オーディオストリームのレイヤ、前記ビデオストリームのレイヤ、又はシステム情報のレイヤのいずれかのレイヤに含まれる
     請求項1に記載の送信装置。
  3.  前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのメタデータ領域に挿入される
     請求項2に記載の送信装置。
  4.  前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのユーザデータ領域に挿入される
     請求項2に記載の送信装置。
  5.  前記オーディオデータは、MPEG-H 3D Audioに準拠している
     請求項3に記載の送信装置。
  6.  前記ウォータマーク情報は、前記ビデオストリームに含まれるビデオデータのユーザデータ領域に挿入される
     請求項2に記載の送信装置。
  7.  前記ビデオデータは、MPEG-2,MPEG4-AVC(Advanced Video Coding),又はHEVC(High Efficiency Video Coding)に準拠している
     請求項6に記載の送信装置。
  8.  前記ウォータマーク情報は、前記システム情報として伝送される制御情報に含まれる
     請求項2に記載の送信装置。
  9.  前記制御情報は、ATSC(Advanced Television Systems Committee)3.0,又はMPEG2-TS(Transport Stream)に準拠している
     請求項8に記載の送信装置。
  10.  送信装置の送信方法において、
     前記送信装置が、
     ウォータマークを検出するためのウォータマーク情報を生成し、
     前記ウォータマーク及び前記ウォータマーク情報を含む放送信号を送信する
     送信方法。
  11.  ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号を受信する受信部と、
     前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークを検出する検出部と
     を備える受信装置。
  12.  前記ウォータマークは、前記放送信号として伝送されるオーディオストリーム又はビデオストリームに含まれ、
     前記ウォータマーク情報は、前記オーディオストリームのレイヤ、前記ビデオストリームのレイヤ、又はシステム情報のレイヤのいずれかのレイヤに含まれる
     請求項11に記載の受信装置。
  13.  前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのメタデータ領域に挿入される
     請求項12に記載の受信装置。
  14.  前記ウォータマーク情報は、前記オーディオストリームに含まれるオーディオデータのユーザデータ領域に挿入される
     請求項12に記載の受信装置。
  15.  前記オーディオデータは、MPEG-H 3D Audioに準拠している
     請求項13に記載の受信装置。
  16.  前記ウォータマーク情報は、前記ビデオストリームに含まれるビデオデータのユーザデータ領域に挿入される
     請求項12に記載の受信装置。
  17.  前記ビデオデータは、MPEG-2,MPEG4-AVC,又はHEVCに準拠している
     請求項16に記載の受信装置。
  18.  前記ウォータマーク情報は、前記システム情報として伝送される制御情報に含まれる
     請求項12に記載の受信装置。
  19.  前記制御情報は、ATSC3.0,又はMPEG2-TSに準拠している
     請求項18に記載の受信装置。
  20.  受信装置の受信方法において、
     前記受信装置が、
     ウォータマーク、及び前記ウォータマークを検出するためのウォータマーク情報を含む放送信号を受信し、
     前記ウォータマーク情報に基づいて、前記放送信号に含まれる前記ウォータマークを検出する
     受信方法。
PCT/JP2018/028202 2017-08-10 2018-07-27 送信装置、送信方法、受信装置、及び受信方法 WO2019031269A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP18845008.4A EP3668101B1 (en) 2017-08-10 2018-07-27 Transmission device, transmission method, reception device, and reception method
KR1020207001786A KR20200035396A (ko) 2017-08-10 2018-07-27 송신 장치, 송신 방법, 수신 장치, 및 수신 방법
JP2019535102A JPWO2019031269A1 (ja) 2017-08-10 2018-07-27 送信装置、送信方法、受信装置、及び受信方法
CA3071560A CA3071560C (en) 2017-08-10 2018-07-27 Transmission apparatus, transmission method, reception apparatus, and reception method
MX2020001303A MX2020001303A (es) 2017-08-10 2018-07-27 Aparato de transmision, metodo de transmision, aparato de recepcion y metodo de recepcion.
US16/634,612 US11770595B2 (en) 2017-08-10 2018-07-27 Transmission apparatus, transmission method, reception apparatus, and reception method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-156160 2017-08-10
JP2017156160 2017-08-10

Publications (1)

Publication Number Publication Date
WO2019031269A1 true WO2019031269A1 (ja) 2019-02-14

Family

ID=65271319

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028202 WO2019031269A1 (ja) 2017-08-10 2018-07-27 送信装置、送信方法、受信装置、及び受信方法

Country Status (7)

Country Link
US (1) US11770595B2 (ja)
EP (1) EP3668101B1 (ja)
JP (1) JPWO2019031269A1 (ja)
KR (1) KR20200035396A (ja)
CA (1) CA3071560C (ja)
MX (1) MX2020001303A (ja)
WO (1) WO2019031269A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2617790B (en) * 2019-03-20 2024-03-13 V Nova Int Ltd Low complexity enhancement video coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311120A (ja) * 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd デジタル放送受信装置
JP2015531189A (ja) * 2012-07-16 2015-10-29 エルジー エレクトロニクス インコーポレイティド デジタルサービス信号処理方法及び装置
JP2017011503A (ja) 2015-06-22 2017-01-12 ソニー株式会社 受信装置、送信装置、及び、データ処理方法

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412072B2 (en) * 1996-05-16 2008-08-12 Digimarc Corporation Variable message coding protocols for encoding auxiliary data in media signals
US7770016B2 (en) * 1999-07-29 2010-08-03 Intertrust Technologies Corporation Systems and methods for watermarking software and other media
US6571144B1 (en) * 1999-10-20 2003-05-27 Intel Corporation System for providing a digital watermark in an audio signal
US8091025B2 (en) * 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US7111167B1 (en) * 2000-06-30 2006-09-19 Intel Corporation Digital watermarks with values derived from remote platforms
JP2002062888A (ja) * 2000-08-21 2002-02-28 Matsushita Electric Ind Co Ltd 電子音楽加工装置、電子音楽再生装置及び電子音楽配信システム
KR100794808B1 (ko) * 2000-10-31 2008-01-15 소니 가부시끼 가이샤 부가 정보가 삽입되어 있는 오디오 데이터를기록/재생하는 장치 및 방법
JP4664572B2 (ja) * 2001-11-27 2011-04-06 富士通株式会社 文書配布方法および文書管理方法
US20030226020A1 (en) * 2002-06-04 2003-12-04 Ripley Michael S. Protecting digital broadcast content from unauthorized redistribution
US20040120404A1 (en) * 2002-11-27 2004-06-24 Takayuki Sugahara Variable length data encoding method, variable length data encoding apparatus, variable length encoded data decoding method, and variable length encoded data decoding apparatus
US20050021970A1 (en) * 2003-07-21 2005-01-27 Curtis Reese Embedded data layers
JP2007520918A (ja) * 2003-11-28 2007-07-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビットストリームを符号化又は復号化するための方法及び装置
EP1932360A1 (en) * 2005-09-09 2008-06-18 Thomson Licensing Video watermark detection
WO2007042976A1 (en) * 2005-10-13 2007-04-19 Koninklijke Philips Electronics N.V. Efficient watermark detection
JP4349429B2 (ja) * 2007-03-29 2009-10-21 ブラザー工業株式会社 通信装置
EP2183898B1 (en) * 2007-07-05 2016-09-14 Coherent Logix Incorporated Mobile television broadcast system
DE102008014311A1 (de) * 2008-03-14 2009-09-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Einbetter zum Einbetten eines Wasserzeichens in eine Informationsdarstellung, Detektor zum Detektieren eines Wasserzeichens in einer Informationsdarstellung, Verfahren, Computerprogramm und Informationssignal
US8320606B1 (en) * 2008-08-29 2012-11-27 Adobe Systems Incorporated Video watermarking with fast detection
EP2335418A1 (en) * 2008-09-08 2011-06-22 Telefonaktiebolaget L M Ericsson (PUBL) Provision of marked data content to user devices of a communications network
US8090146B2 (en) 2009-01-15 2012-01-03 Google Inc. Image watermarking
EP2257067A1 (en) * 2009-05-29 2010-12-01 Thomson Licensing Method for inserting watermark assistance data in a bitstream, method of watermarking said bitstream, device implementing the method of watermarking and bitstream comprising the watermark assistance data
US8438397B2 (en) * 2009-06-04 2013-05-07 Broadcom Corporation Watermarking for compressed scalable coded bitstreams
US8908905B2 (en) * 2009-10-29 2014-12-09 Lg Electronics Inc. Device and method for embedding watermarks in contents and for detecting embedded watermarks
US8548810B2 (en) * 2009-11-04 2013-10-01 Digimarc Corporation Orchestrated encoding and decoding multimedia content having plural digital watermarks
US20120154633A1 (en) * 2009-12-04 2012-06-21 Rodriguez Tony F Linked Data Methods and Systems
KR101798672B1 (ko) * 2009-12-11 2017-11-16 토마스 에이치 프로버트 코드 불변식을 이용한 스테가노그래픽 메시징 시스템
US8971532B1 (en) * 2011-01-17 2015-03-03 Exaimage Corporation System and methods for protecting video content
US9380356B2 (en) * 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
US8578404B2 (en) * 2011-06-30 2013-11-05 The Nielsen Company (Us), Llc Program telecast monitoring using watermarks
US9823892B2 (en) * 2011-08-26 2017-11-21 Dts Llc Audio adjustment system
WO2013042902A1 (ko) * 2011-09-23 2013-03-28 엘지전자 주식회사 방송 서비스 수신 방법 및 그 수신 장치
US9197946B2 (en) * 2011-10-19 2015-11-24 Thomson Licensing System and method for automatic content program discovery
EP2605536A1 (en) * 2011-12-13 2013-06-19 Thomson Licensing Device for generating watermark metadata, associated device for embedding watermark
TR201906342T4 (tr) * 2012-03-22 2019-05-21 Saturn Licensing Llc Alma cihazı, alma yöntemi, program, şifre çözme işleme cihazı, alma işleme sistemi ve bilgi işleme cihazı.
US20130276046A1 (en) * 2012-04-13 2013-10-17 Electronics And Telecommunications Research Institute Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
WO2014007571A1 (en) * 2012-07-05 2014-01-09 Lg Electronics Inc. Method and apparatus for processing digital service signals
JP6100377B2 (ja) * 2012-08-29 2017-03-22 エルジー エレクトロニクス インコーポレイティド デジタルサービス信号処理方法及び装置
WO2014051315A1 (en) * 2012-09-26 2014-04-03 Lg Electronics Inc. Method and apparatus for processing digital service signal
US9191516B2 (en) * 2013-02-20 2015-11-17 Qualcomm Incorporated Teleconferencing using steganographically-embedded audio data
US8775815B2 (en) * 2013-07-03 2014-07-08 Sky Socket, Llc Enterprise-specific functionality watermarking and management
US9665723B2 (en) * 2013-08-15 2017-05-30 Airwatch, Llc Watermarking detection and management
GB2534752B (en) * 2013-11-08 2021-09-08 Friend For Media Ltd Identifying media components
US10504200B2 (en) * 2014-03-13 2019-12-10 Verance Corporation Metadata acquisition using embedded watermarks
KR101953855B1 (ko) * 2014-04-01 2019-03-04 후아웨이 테크놀러지 컴퍼니 리미티드 다중 계층 구조 부호화 유닛에서의 데이터 은닉을 위한 방법 및 장치
US10177912B2 (en) * 2014-05-09 2019-01-08 Sony Corporation Content individualization
US10770087B2 (en) * 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
JP6440747B2 (ja) * 2014-06-27 2018-12-19 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ Hevcでタイル化されたビデオ・ストリームに基づく関心領域の決定
JP6187698B2 (ja) * 2014-07-14 2017-08-30 富士通株式会社 電子透かし情報検出装置および電子透かし情報検出方法
US10701426B1 (en) * 2014-07-28 2020-06-30 Verizon Patent And Licensing Inc. Virtual reality system including social graph
CA2952847A1 (en) * 2014-08-07 2016-02-11 Sonic Ip, Inc. Systems and methods for protecting elementary bitstreams incorporating independently encoded tiles
US9639911B2 (en) * 2014-08-20 2017-05-02 Verance Corporation Watermark detection using a multiplicity of predicted patterns
WO2016069016A1 (en) * 2014-10-31 2016-05-06 Verance Corporation Object-based watermarking
WO2016086047A1 (en) * 2014-11-25 2016-06-02 Verance Corporation Enhanced metadata and content delivery using watermarks
US9942602B2 (en) * 2014-11-25 2018-04-10 Verance Corporation Watermark detection and metadata delivery associated with a primary content
WO2016100916A1 (en) * 2014-12-18 2016-06-23 Verance Corporation Service signaling recovery for multimedia content using embedded watermarks
US10277934B2 (en) * 2015-03-13 2019-04-30 Qualcomm Incorporated Permissions management for watermarked data in a broadcast environment
US9912986B2 (en) * 2015-03-19 2018-03-06 Sony Corporation System for distributing metadata embedded in video
CA2977708C (en) * 2015-04-29 2021-03-23 Sharp Kabushiki Kaisha Broadcast system with a watermark payload
US10257567B2 (en) * 2015-04-30 2019-04-09 Verance Corporation Watermark based content recognition improvements
US10218994B2 (en) * 2015-05-01 2019-02-26 Verance Corporation Watermark recovery using audio and video watermarking
US10547913B2 (en) * 2015-06-21 2020-01-28 Sharp Kabushiki Kaisha Extensible watermark associated information retrieval
CN107852526B (zh) * 2015-08-19 2021-01-22 夏普株式会社 用于处理数据流的方法和接收机
CN105263024B (zh) * 2015-10-15 2018-06-29 宁波大学 一种抗量化转码的hevc视频流零水印的注册和检测方法
FR3044140B1 (fr) * 2015-11-24 2017-11-24 B<>Com Procede de traitement d'une sequence d'images numeriques, procede de tatouage, dispositifs et programmes d'ordinateurs associes
WO2017094734A1 (en) * 2015-12-04 2017-06-08 Sharp Kabushiki Kaisha Recovery data with content identifiers
CA3007464C (en) * 2015-12-11 2022-09-06 Sharp Kabushiki Kaisha Broadcast system with a watermark payload
KR102653289B1 (ko) * 2016-01-15 2024-04-02 소니그룹주식회사 수신 장치, 송신 장치 및 데이터 처리 방법
US20190069043A1 (en) * 2016-03-01 2019-02-28 Sharp Kabushiki Kaisha Systems and methods for signaling resource identifiers using watermarks
EP3226570A1 (en) * 2016-03-31 2017-10-04 Thomson Licensing Synchronizing audio and video signals rendered on different devices
US20190132652A1 (en) * 2016-04-18 2019-05-02 Verance Corporation System and method for signaling security and database population
WO2017216125A1 (en) * 2016-06-15 2017-12-21 Nagravision S.A. Methods, devices and system for generating a watermarked stream
US10062134B2 (en) * 2016-06-24 2018-08-28 The Nielsen Company (Us), Llc Methods and apparatus to perform symbol-based watermark detection
US10210881B2 (en) * 2016-09-16 2019-02-19 Nokia Technologies Oy Protected extended playback mode
TWI640195B (zh) * 2016-12-14 2018-11-01 日商夏普股份有限公司 具有統一資源識別符訊息浮水印有效負載之廣播系統
US11457290B2 (en) * 2017-02-24 2022-09-27 Telefonaktiebolaget Lm Ericsson (Publ) System and method for watermarking of media segments using sample variants for normalized encryption (SVNE)
US10713391B2 (en) * 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
EP3622426B1 (en) * 2017-05-09 2023-01-04 Verimatrix, Inc. Systems and methods of preparing multiple video streams for assembly with digital watermarking
US10395650B2 (en) * 2017-06-05 2019-08-27 Google Llc Recorded media hotword trigger suppression
WO2018237191A1 (en) * 2017-06-21 2018-12-27 Verance Corporation ACQUISITION AND TREATMENT OF METADATA BASED ON A WATERMARK
US20220417617A1 (en) * 2017-06-21 2022-12-29 Verance Corporation Watermark-based metadata acquisition and processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311120A (ja) * 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd デジタル放送受信装置
JP2015531189A (ja) * 2012-07-16 2015-10-29 エルジー エレクトロニクス インコーポレイティド デジタルサービス信号処理方法及び装置
JP2017011503A (ja) 2015-06-22 2017-01-12 ソニー株式会社 受信装置、送信装置、及び、データ処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ATSC STANDARD: INTERACTIVE SERVICES STANDARD A/105, 29 October 2015 (2015-10-29), pages 83 - 86,119-129, XP055570972 *

Also Published As

Publication number Publication date
EP3668101B1 (en) 2024-03-20
US11770595B2 (en) 2023-09-26
MX2020001303A (es) 2020-03-09
EP3668101A4 (en) 2020-07-22
EP3668101A1 (en) 2020-06-17
US20200275170A1 (en) 2020-08-27
JPWO2019031269A1 (ja) 2020-09-10
CA3071560A1 (en) 2019-02-14
KR20200035396A (ko) 2020-04-03
CA3071560C (en) 2024-01-23

Similar Documents

Publication Publication Date Title
CN105981391B (zh) 发送装置、发送方法、接收装置、接收方法、显示装置及显示方法
RU2547624C2 (ru) Способ сигнализации для широковещания видео-контента, способ записи и устройство, использующее сигнализацию
JP6261741B2 (ja) デジタル放送システムにおける高画質uhd放送コンテンツの送受信方法及び装置
KR101838084B1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20160134927A1 (en) Reception device, reception method, transmission device, and transmission method
EP3288270B1 (en) Broadcasting signal transmission device, broadcasting signal reception device, broadcasting signal transmission method, and broadcasting signal reception method
US11956159B2 (en) Transmission device, transmission method, reception device, and reception method
US10536665B2 (en) Device for transmitting broadcast signal, device for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
Park et al. Delivery of ATSC 3.0 services with MPEG media transport standard considering redistribution in MPEG-2 TS format
CN101232613B (zh) 发送/接收数字内容的方法和接收数字内容的装置
KR20180068969A (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
JP6700658B2 (ja) 受信装置、受信方法、及びプログラム
KR20190068477A (ko) 지상파 초고화질 방송을 위한 통합신호 발생장치
US11552720B2 (en) Reception apparatus, transmission apparatus, and data processing method
US10616618B2 (en) Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method and broadcast signal receiving method
CA3071560C (en) Transmission apparatus, transmission method, reception apparatus, and reception method
JP2000278665A (ja) 受信装置および方法、並びに提供媒体
US20180359495A1 (en) Apparatus for broadcast signal transmission, apparatus for broadcast signal reception, method for broadcast signal transmission, and method for broadcast signal reception
US20210195254A1 (en) Device for transmitting broadcast signal, device for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
KR20090130609A (ko) 인터넷 프로토콜 텔레비전 수신기 및 채널 전환 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18845008

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019535102

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3071560

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018845008

Country of ref document: EP

Effective date: 20200310