WO2012164864A1 - 映像処理装置、方法、プログラム、記録媒体及び集積回路 - Google Patents

映像処理装置、方法、プログラム、記録媒体及び集積回路 Download PDF

Info

Publication number
WO2012164864A1
WO2012164864A1 PCT/JP2012/003312 JP2012003312W WO2012164864A1 WO 2012164864 A1 WO2012164864 A1 WO 2012164864A1 JP 2012003312 W JP2012003312 W JP 2012003312W WO 2012164864 A1 WO2012164864 A1 WO 2012164864A1
Authority
WO
WIPO (PCT)
Prior art keywords
display object
auxiliary display
data
video
information
Prior art date
Application number
PCT/JP2012/003312
Other languages
English (en)
French (fr)
Inventor
宗續 敏彦
由佳 小澤
川口 透
洋 矢羽田
上坂 靖
智輝 小川
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013517849A priority Critical patent/JP5957770B2/ja
Publication of WO2012164864A1 publication Critical patent/WO2012164864A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Definitions

  • the present invention relates to a technique for processing stream data, and particularly to a technique for processing data such as subtitles to be displayed together with 3D video.
  • subtitles of digital video content such as movies are distributed in association with video data as data different from video data, and displayed together with the digital video content on the receiving device side.
  • 3D digital video content (hereinafter referred to as “3D video”) that can be viewed as a stereoscopic video by the viewer
  • digital video content (hereinafter referred to as “2D”) that does not introduce a mechanism for viewing as a stereoscopic video.
  • the subtitle is displayed together with the 3D video in the same manner as the subtitle is displayed in “video”.
  • 3D video has a widening at the front or back of the screen, so it is difficult to see the subtitles at the back or at the front of the 3D video. Become.
  • Non-Patent Document 1 The display data distributed for display together with 2D video and 3D video in digital broadcasting includes display data for telop and data broadcasting other than subtitles, and when these data are displayed together with 3D video.
  • the above processing technique can be applied.
  • subtitles, telops, display data for data broadcasting, and the like are collectively referred to as “subtitle display data”.
  • the 1 plane + offset mode and the 2 plane + offset mode are collectively referred to as a 3D subtitle display mode.
  • the 3D subtitle display mode is the 1 plane + offset mode or the 2 plane + offset mode can be determined by analyzing the content of the stream including the display data such as the subtitle, but the content of the stream including the display data such as the subtitle is analyzed.
  • the display mode for 3D subtitles and the like is determined, it takes a relatively long time to display the subtitles and other display data together with the 3D video. For this reason, it is desirable for the video processing apparatus to be able to quickly determine the display mode such as 3D subtitles. Therefore, it is considered to newly distribute a stream including information that can quickly identify the display mode such as 3D subtitles from the video distribution system.
  • the video processing apparatus cannot cope with the discrimination processing using such information, and cannot take advantage of the new video distribution system as it is.
  • the present invention has been made to solve the above-described problems, and processes a stream including information that can quickly identify a display mode such as 3D subtitles distributed from a video distribution system, and quickly displays a display mode such as 3D subtitles.
  • An object of the present invention is to provide a video processing apparatus capable of discriminating between the two.
  • a video processing device for displaying an auxiliary display object together with 3D video, and the auxiliary display object is based on information representing the auxiliary display object in one plane.
  • the first processing means having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the display object, and information representing the auxiliary display object in two planes
  • a second processing means having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object; and the auxiliary display object is either one plane or two planes.
  • the identification information in the data block is extracted, and the first processing means and the first processing unit according to the identification information are extracted.
  • Selection means for selecting any one of the two processing means, and information indicating the auxiliary display object that is the content of the auxiliary display object reproduction stream after the selection by the selection means is provided as the first processing means and the second processing means.
  • Control means for sequentially supplying to the processing means selected by the selection means to generate and output the auxiliary display object for the right eye and the auxiliary display object for the left eye.
  • the video processing apparatus can process a stream including information that can quickly identify the display mode such as 3D subtitles distributed from the video distribution system, and can quickly determine the display mode such as 3D subtitles.
  • the functional block diagram of the data broadcast process means 310. 5 is a flowchart showing processing of the video processing apparatus 300.
  • 5 is a flowchart showing processing of a determination unit 304 in the first embodiment.
  • FIG. 2 is a block diagram showing a functional configuration of a multiplexing device 3000.
  • 9 is a flowchart showing processing of a determination unit 304 in the second embodiment.
  • the figure which shows the data structure of a data content descriptor. 10 is a flowchart showing processing of a determination unit 304 in the fifth embodiment.
  • the figure which shows the data structure of ERI. 1 is a schematic configuration diagram of an electronic video distribution system 2200.
  • FIG. 20 is a schematic configuration diagram of a data broadcast data providing server in a ninth embodiment.
  • display data such as subtitles
  • display data such as subtitles is difficult to view for viewers unless the display data is properly arranged and displayed in the 3D space according to the 3D video. there is a possibility.
  • the processing method is different, and the resources required for processing such as the number of decoders and the amount of memory are different. These resources are also used in common with other processes of the video processing device (for example, recording of back program and dubbing of recorded programs). It is necessary to perform arbitration with other processes to secure the data. For this reason, if resources are secured and data is processed after analysis, it takes time until the data is displayed together with the 3D video.
  • the present inventors pay attention to a data block to be referred to before processing a stream of display data such as subtitles in a video processing apparatus, and information for identifying a display mode such as 3D subtitles in this data block (hereinafter, referred to as a data block).
  • a data block information for identifying a display mode such as 3D subtitles in this data block
  • the video processing apparatus analyzes display data to be displayed with 3D video.
  • 3D subtitle display mode can be identified based on this mode identification information, and necessary resources can be secured in each mode. Thereby, it is possible to shorten the time until display data such as subtitles displayed together with the 3D video is displayed together with the 3D video.
  • the video processing apparatus receives a data stream in the MPEG2-TS (Transport Stream) format used in broadcasting and data distribution.
  • MPEG2-TS Transport Stream
  • the data stream transmitting side (for example, a broadcasting station) encodes 3D video data, audio data, caption data, data for data broadcasting, etc. that constitute a program (program) to generate an ES (Elementary Stream) and multiplex them Distribute the data stream.
  • program program
  • ES Simple Stream
  • the content concept referred to in the present embodiment includes such a program that is broadcast or distributed.
  • a multiplexing apparatus that generates a multiplexed data stream will be described later.
  • the data stream transmission side transmits the mode identification information in SI (Service Information Information) / PSI (Program Specific Information) included in the conventional MPEG2-TS format data stream.
  • SI Service Information Information
  • PSI Program Specific Information
  • the video processing apparatus extracts and analyzes the mode identification information described in SI / PSI included in the received data stream before processing the stream including the display data such as subtitles, thereby displaying the 3D subtitle display mode. Is determined.
  • SI / PSI information defined in the MPEG2-TS standard is used.
  • SI is a generic name for various tables in which information related to a program is encoded in a format that can be interpreted by a video processing device. This is defined by ARIB (The Association of Radio Industries and Businesses) and includes, for example, a table of NIT (Network Information Table) and EIT (Event Information Table).
  • PSI is a generic name for various tables in which information describing which program each ES included in the TS belongs to is encoded in a format that can be interpreted by the video processing device. It is defined in the standards established by ISO / IEC13818-1 and ARIB, and includes, for example, PAT (Program Association Table) and PMT (Program Map Table) tables.
  • PMT is used as a table describing mode identification information.
  • FIG. 1 is a diagram showing the data structure of the PMT.
  • the PMT stores information on the program to be distributed, the ES configuration of the program, and information on each ES.
  • descriptors can be described at the location of descriptor () in the first loop 400 and the location of descriptor () in the second loop 402 in FIG.
  • a descriptor “arib_3d_offsetmode_info” is newly described in the first loop 400 of the PMT, which is a place for defining descriptors related to information common to the entire program, and subtitle_offset_mode and bml_offset_mode are described in this descriptor as mode identification information. And used for determining the display mode of 3D subtitles and the like.
  • FIG. 2 shows the data structure of the arib_3d_offsetmode_info descriptor.
  • subtitle_offset_mode is a field used to identify a 3D subtitle display mode related to subtitles
  • bml_offset_mode is used to identify a 3D subtitle display mode related to data broadcasting.
  • FIG. 3 shows the relationship between each value of subtitle_offset_mode and bml_offset_mode and the display mode such as 3D subtitles.
  • the values of the subtitle_offset_mode and the bml_offset_mode are “0”, the 1 plane + offset mode is shown, and when the value is “1”, the 2 plane + offset mode is shown.
  • the video processing apparatus 300 receives the PMT in which the arib_3d_offsetmode_info descriptor illustrated in FIG. 2 is described in the descriptor () portion of the first loop 400 illustrated in FIG.
  • FIG. 4 is a functional block diagram of the video processing apparatus 300 according to the embodiment of the present invention.
  • the video processing apparatus 300 includes a receiving unit 301, a demultiplexer 302, an analysis unit 303, a determination unit 304, a video decoding unit 305, an offset acquisition unit 306, a left-eye video output unit 307, a right-eye video output unit 308, a caption processing unit 309, data
  • the broadcast processing unit 310 and the display video output unit 311 are included.
  • the video processing apparatus 300 includes a processor (not shown), a RAM (Random Access Memory), a ROM (Read Only Memory), and a hard disk. Each functional block of the video processing device 300 is configured as hardware, or is realized by the processor executing a program stored in the ROM or the hard disk.
  • the receiving unit 301 is a tuner and receives MPEG2-TS format stream data distributed from a broadcasting station or a distribution center.
  • the demultiplexer 302 has a function of extracting a PAT from the MPEG2-TS stream data received by the receiving unit 301 and outputting the PAT to the analysis unit 303.
  • the TS packet having the PMT PID is output to the analysis unit 303.
  • the analysis unit 303 has a function of selecting a PID of a TS packet related to a program (program) to be reproduced obtained by analyzing the PMT.
  • the SI / PSI information packet is sent to the analyzing means 303, the video data packet is sent to the video decoding means 305, the caption data packet is sent to the caption processing means 309, and the data relating to the data broadcasting is classified according to the TS packet type based on the PID.
  • the analysis unit 303 has a function of analyzing the contents of SI / PSI such as PAT, PMT, NIT, EIT, BIT (Broadcaster Information Table) and the like, and the PMT PID of the program (program) to be reproduced obtained as a result of the PAT analysis Is obtained from the result of the PMT analysis, the function of outputting the PID of each data such as video and audio constituting the playback target program obtained as a result of the PMT analysis, and the result of the PMT analysis. And a function for outputting the mode identification information to the determination means 304.
  • SI / PSI such as PAT, PMT, NIT, EIT, BIT (Broadcaster Information Table) and the like
  • BIT Broadcaster Information Table
  • the determination unit 304 Based on the mode identification information output from the analysis unit 303, the determination unit 304 selects a 3D subtitle display mode to be used for data processing by the subtitle processing unit 309 and the data broadcast processing unit 310, and sets the selection result as a subtitle. A function of outputting to the processing unit 309 and the data broadcast processing unit 310 is provided. It also has a function of securing a decoder and a plane memory necessary for processing in the selected 3D subtitle display mode. (Video decoding means 305) The video decoding unit 305 extracts and decodes the encoded 3D video data from the TS packet including the 3D video data distributed and input by the demultiplexer 302, and decodes the left-eye video frame to the left-eye video output unit 307.
  • the offset acquisition unit 306 acquires an offset value used for 3D display of subtitle data to be displayed together with the 3D video included in the TS packet including the 3D video data decoded by the video decoding unit 305. It has a function.
  • the obtained offset value has a function of outputting to the caption processing unit 309 when there is caption data, and outputting to the data broadcast processing unit 310 when there is display data for data broadcasting.
  • the left-eye video output unit 307 has a function of outputting the left-eye video frame output from the video decoding unit 305 to the display video output unit 311. If the left-eye subtitle video or the left-eye data broadcast video exists before the left-eye video frame is output to the display video output unit 311, the left-eye video frame is synthesized with these videos and displayed as the left-eye video. 311 is output. (Right-eye video output means 308) The right-eye video output unit 308 has a function of outputting the right-eye video frame output from the video decoding unit 305 to the display video output unit 311.
  • FIG. 5 is a functional block diagram of the caption processing unit 309.
  • the caption processing unit 309 includes a first caption processing unit 700, a second caption processing unit 800, and a switch 600.
  • the switch 600 outputs, to the first subtitle processing unit 700, a packet including the subtitle display data distributed and output by the demultiplexer 302 according to the determination result of the determination unit 304 or to the second subtitle processing unit 800.
  • the first caption processing means 700 is for processing a packet including caption display data in the 1 plane + offset mode, and includes caption decoding means 701, caption plane memory 702, left caption shift output means 703, and right caption shift output.
  • the configuration includes means 704.
  • the subtitle decoding means 701 generates a subtitle plane video by decoding the packet including subtitle data distributed from the MPEG2-TS stream data by the demultiplexer 302.
  • the subtitle plane memory 702 is an area to which the determination unit 304 allocates a part of a storage medium such as a RAM included in the video processing device 300, and stores the subtitle plane video generated by the subtitle decoding unit 701.
  • the left subtitle shift output means 703 shifts the subtitle plane video stored in the subtitle plane memory 702 for the left eye according to the offset value acquired by the offset acquisition means 306 and outputs the left eye subtitle video.
  • the right subtitle shift output unit 704 shifts the subtitle plane video stored in the subtitle plane memory 702 for the right eye in accordance with the offset value acquired by the offset acquisition unit 306, and outputs the right-eye subtitle video.
  • the second caption processing means 800 is for processing a packet including caption display data in the 2 plane + offset mode, and includes a left caption decoding means 801, a left caption plane memory 802, a left caption shift output means 803, and a right caption decoding. Means 804, right subtitle plane memory 805, and right subtitle shift output means 806.
  • Left caption decoding means 801 decodes a packet including caption data for the left eye distributed from the MPEG2-TS stream data by the demultiplexer 302 to generate a video of the left caption plane.
  • the left subtitle plane memory 802 is an area to which the determination unit 304 has allocated a part of a storage medium such as a RAM included in the video processing device 300, and stores the video of the left subtitle plane generated by the left subtitle decode unit 801.
  • the left subtitle shift output means 803 shifts the video of the left subtitle plane stored in the left subtitle plane memory 802 for the left eye according to the offset value acquired by the offset acquisition means 306, and outputs the subtitle video for the left eye.
  • the right subtitle decoding means 804 decodes the packet including the subtitle data for the right eye distributed from the MPEG2-TS stream data by the demultiplexer 302 to generate a video of the right subtitle plane.
  • the right subtitle plane memory 805 is an area to which the determination unit 304 allocates a part of a storage medium such as a RAM included in the video processing apparatus 300, and stores the video of the right subtitle plane generated by the right subtitle decoding unit 804.
  • the right subtitle shift output unit 806 shifts the video of the right subtitle plane stored in the right subtitle plane memory 805 for the right eye according to the offset value acquired by the offset acquisition unit 306, and outputs the right subtitle video.
  • the physical subtitle decoders of the subtitle decoding unit 701, the left subtitle decoding unit 801, and the right subtitle decoding unit 804 are processed by the determination unit 304. Assigned each time. Therefore, the same physical subtitle decoder is not always assigned to one of the subtitle decoding means 701, the left subtitle decoding means 801, and the right subtitle decoding means 804, and is used for any of these. It is possible that Similarly, the physical memory areas of the subtitle plane memory 702, the left subtitle plane memory 802, and the right subtitle plane memory 805 are allocated by the determination unit 304 every time processing is performed.
  • FIG. 6 is a functional block diagram of the data broadcast processing means 310.
  • the data broadcast processing unit 310 includes a first data broadcast processing unit 900, a second data broadcast processing unit 1000, and a switch 601.
  • the switch 601 outputs, to the first data broadcast processing unit 900, a packet including data for data broadcasting distributed and output by the demultiplexer 302 according to the determination result of the determination unit 304, or the second data broadcast processing unit. A function of switching whether to output to 1000 is provided.
  • the first data broadcast processing means 900 is for processing a data broadcast data packet in the 1 plane + offset mode.
  • the data broadcast decoding means 901, the data broadcast plane memory 902, the left data broadcast shift output means 903, and the right data broadcast shift output means 904 are included.
  • the data broadcast decoding means 901 decodes a packet including data for data broadcast distributed from the MPEG2-TS stream data by the demultiplexer 302 to generate a video of the data broadcast plane.
  • the data broadcast plane memory 902 is an area to which the determination unit 304 allocates a part of a storage medium such as a RAM included in the video processing device 300, and stores the video of the data broadcast plane generated by the data broadcast decoding unit 901.
  • the left data broadcast shift output means 903 shifts the data broadcast plane image stored in the data broadcast plane memory 902 for the left eye according to the offset value acquired by the offset acquisition means 306, and outputs the left eye data broadcast image.
  • the right data broadcast shift output unit 904 shifts the video of the data broadcast plane stored in the data broadcast plane memory 902 for the right eye according to the offset value acquired by the offset acquisition unit 306, and outputs the data broadcast video for the right eye.
  • the second data broadcast processing means 1000 is for processing a data broadcast data packet in the 2 plane + offset mode.
  • the left data broadcast decoding means 1001, the left data broadcast plane memory 1002, and the left data broadcast shift output means 1003 are used.
  • Left data broadcast decoding means 1001 decodes a packet including data for left eye data broadcast distributed from MPEG2-TS stream data by the demultiplexer 302 to generate a video of the left data broadcast plane.
  • the left data broadcast plane memory 1002 is an area where the determination unit 304 allocates a part of a storage medium such as a RAM of the video processing device 300, and the left data broadcast plane image generated by the left data broadcast decoding unit 1001 is displayed. save.
  • the left data broadcast shift output unit 1003 shifts the video of the left data broadcast plane stored in the left data broadcast plane memory 1002 for the left eye according to the offset value acquired by the offset acquisition unit 306, and outputs the data broadcast video for the left eye. .
  • the right data broadcast decoding means 1004 decodes the packet including the data for the right eye data broadcast distributed from the MPEG2-TS stream data by the demultiplexer 302 to generate a video of the right data broadcast plane.
  • the right data broadcast plane memory 1005 is an area to which the determination unit 304 allocates a part of a storage medium such as a RAM included in the video processing device 300, and the right data broadcast plane image generated by the right data broadcast decoding unit 1004 is displayed. save.
  • the right data broadcast shift output means 1006 shifts the video of the right data broadcast plane stored in the right data broadcast plane memory 1005 for the right eye according to the offset value acquired by the offset acquisition means 306, and outputs the data broadcast video for the right eye. Output.
  • FIG. 6 shows the logical structure of the data broadcast processing means 310.
  • the physical data broadcast decoders of the data broadcast decoding means 901, the left data broadcast decoding means 1001, and the right data broadcast decoding means 1004 are as follows.
  • the determination means 304 is assigned for each process. Therefore, the same physical data broadcast decoder is not always assigned to one of the data broadcast decoding unit 901, the left data broadcast decoding unit 1001, and the right data broadcast decoding unit 1004, and any one of these may be used. May also be used.
  • the physical memory areas of the data broadcast plane memory 902, the left data broadcast plane memory 1002, and the right data broadcast plane memory 1005 are allocated by the determination unit 304 every time processing is performed.
  • the display video output unit 311 includes a right-eye video obtained by combining display data output from each of the left-eye video output unit 307, the right-eye video output unit 308, the caption processing unit 309, and the data broadcast processing unit 310. A function of outputting the left-eye video to the external display device 312 is provided.
  • the display device 312 has a function of allowing viewing as 3D video using the output left-eye video and right-eye video.
  • the display device 312 is, for example, a 3D video compatible television.
  • FIG. 7 is a flowchart showing the processing of the video processing apparatus.
  • the receiving unit 301 receives a broadcast and outputs an MPEG2-TS stream included in the broadcast to the demultiplexer 302 (step S10).
  • the demultiplexer 302 extracts the PAT TS packet from the MPEG2-TS stream and outputs it to the analysis unit 303 (step S11).
  • the analysis unit 303 extracts the PAT from the TS packet input from the demultiplexer 302, analyzes the content, extracts the PMT PID related to the program to be played back, and notifies the demultiplexer 302 (step S12).
  • the demultiplexer 302 outputs a TS packet having the PID of the PMT to the analysis unit 303 (step S13).
  • the analysis unit 303 extracts the PMT from the received TS packet and analyzes the content (step S14).
  • the analysis unit 303 checks whether the ARIB_3D_OFFSETMODE_INFO descriptor is described in the first loop 400 of the PMT, and if the ARIB_3D_OFFSETMODE_INFO descriptor is described, outputs the content to the determination unit 304 (step S15).
  • the determination unit 304 analyzes the contents of arib_3d_offsetmode_info and determines the display mode such as 3D subtitles used by the subtitle processing unit 309 and the data broadcast processing unit 310 (step S16). Detailed processing in step S16 will be described later.
  • the determination unit 304 notifies the determination result to the caption processing unit 309 and the data broadcast processing unit 310 (step S17). Further, the determination unit 304 notifies the analysis unit 303 of the determination result notification completion (step S18).
  • the analyzing unit 303 Upon receiving the notification of the determination result notification completion, the analyzing unit 303 notifies the demultiplexer 302 of the ES PID including the video of the program to be played, the caption, and the display data for data broadcasting (step S19). Note that the PID of these ESs is obtained by analyzing the PMT.
  • the demultiplexer 302 outputs the TS packet of the PID notified from the analyzing unit 303 among the received TS packets to the video decoding unit 305, the caption processing unit 309, and the data broadcast processing unit 310 according to the PID (step). S20).
  • step S16 the operation of the determination unit 304 in step S16 will be described in detail.
  • FIG. 8 is a flowchart showing details of the process of step S16 in the determination unit 304.
  • the determination unit 304 determines whether the value of subtitle_offset_mode in arib_3d_offsetmode_info sent from the analysis unit 303 is “0”. If the value is “0” (step S31: Yes), the subtitle processing unit 309 It is determined that the 3D caption display mode is the 1 plane + offset mode, and a decoder and a memory necessary for the processing in the caption processing unit 309 are secured (step S32). Next, the determination unit 304 notifies the determination result to the caption processing unit 309 (step S33). When the process of step S33 is completed, the process proceeds to step S37.
  • step S31 the determination unit 304 determines whether the value of subtitle_offset_mode in arib_3d_offsetmode_info is “1”, and if it is “1” (step S34: Yes) It is determined that the 3D subtitle display mode in the processing unit 309 is the 2 plane + offset mode, and a decoder and memory necessary for the processing in the subtitle processing unit 309 are secured (step S35). Next, the determination unit 304 notifies the determination result to the caption processing unit 309 (step S36). When the process of step S36 is completed, the process proceeds to step S37.
  • step S34 the process proceeds to step S37.
  • step S34 determines whether or not the value of bml_offset_mode in arib_3d_offsetmode_info is “0” (step 0).
  • step 0 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 1 plane + offset mode, and reserves a decoder and memory necessary for the processing in the data broadcast processing unit 310 (step S38).
  • step S39 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 1 plane + offset mode, and reserves a decoder and memory necessary for the processing in the data broadcast processing unit 310 (step S38).
  • step S39 determines whether or not the value of bml_offset_mode in arib_3d_offsetmode_info is “0” (step 0).
  • the determination unit 304 determines whether or not the value of bml_offset_mode in arib_3d_offsetmode_info is “1”. If the value is “1” (step S40: Yes), It is determined that the 3D subtitle display mode in the data broadcasting processing unit 310 is the 2 plane + offset mode, and a decoder and a memory necessary for the processing in the data broadcasting processing unit 310 are secured (step S41). Next, the determination unit 304 notifies the determination result to the data broadcast processing unit 310 (step S42).
  • the name of a newly defined descriptor may not be arib_3d_offsetmode_info.
  • An arbitrary name may be used as long as it is different from the name of the descriptor that has already been standardized and defined and can be recognized as the descriptor in which the mode identification information is described.
  • arbitrary names may be used for the names of subtitle_offset_mode and bml_offset_mode.
  • the information for determining the display mode of subtitles and 3D subtitles for data broadcasting is represented using the fields assigned 1 bit as subtitle_offset_mode and bml_offset_mode in the arib_3d_offsetmode_info descriptor, respectively.
  • the description is not limited to a 1-bit field. As long as the display mode of 3D subtitles such as subtitles can be identified, it may not be 1 bit.
  • 2 bits may be assigned to each of subtitle_offset_mode and bml_offset_mode in the arib_3d_offsetmode_info descriptor, and expressed by the values shown in FIG.
  • “00” means that there is no 3D caption or 3D data broadcasting data
  • “01” means 1 plane + offset mode
  • “10” means 2 plane + offset mode. It means that “11” is a use-prohibited value, so subtitle_offset_mode and bml_offset_mode do not use this value.
  • subtitle_offset_mode When a plurality of subtitles (for example, both for 1 plane + offset and for 2 plane + offset) are prepared, “11” is used as the value of subtitle_offset_mode, and there is data for 1 plane + offset and for 2 plane + offset. It may be expressed. In this case, when resources necessary for processing subtitles or the like in 2 plane + offset mode cannot be secured, processing in 1 plane + offset mode is performed or the user specifies which 3D subtitle display mode is to be used. You may make it process in mode. Also, the display data for data broadcasting may be processed for bml_offset_mode in the same manner as described above for subtitle_offset_mode.
  • the data structure of the arib_3d_offsetmode_info descriptor is the data structure shown in FIG. 2, any data structure may be used as long as the data structure includes a field capable of identifying the display mode such as 3D subtitles.
  • the data structure shown in FIG. 11 may be used.
  • subtitle_1plan_offset_flag is a 1-bit field.
  • the 3D subtitle display mode is not 1 plane + offset mode, and when the value is “1”, the 3D subtitle display mode is 1 plane + offset mode. To do.
  • subtitle_2plan_offset_flag is a 1-bit field.
  • the 3D subtitle display mode is not the 2 plane + offset mode, and when the value is “1”, the 3D subtitle display mode is the 2 plane + offset mode. .
  • subtitle_1plane_offset_flag and subtitle_2plane_offset_flag are both “0”, 3D subtitle display data may not be attached.
  • any one of them displays 3D subtitles and the like.
  • the mode is the 1 plane + offset mode
  • the value of the subtitle_ 1 plane_offset_flag is “1”
  • the 3D subtitle display mode of all 3D subtitles is not the 1 plane + offset mode
  • the value of the subtitle_ 1 plane_offset_flag is also good as “0”.
  • the value of subtitle-2 plane_offset_flag is “1”. The value of “0” may be set to “0”, and the display mode such as 3D subtitles may be determined using these values.
  • bml_1plan_offset_flag and bml_2plane_offset_flag are for identifying a 3D subtitle display mode when 3D display data for 3D data broadcasting is displayed.
  • bml_1plan_offset_flag corresponds to subtitle_1plane_offset_flag in 3D caption
  • Bml_2plane_offset_flag like using a method similar to subtitle_1plane_offset_flag and Subtitle_2plane_offset_flag described above it is equal to Subtitle_2plane_offset_flag, performs determination of the 3D caption such as a display mode of the display data of the broadcast data Also good.
  • the arib_3d_offsetmode_info descriptor is described in the first loop 400 of the PMT, but the arib_3d_offsetmode_info descriptor may be described in the second loop 402 of the ES information description location 401 of the PMT.
  • the description location of the arib_3d_offsetmode_info descriptor in which information for identifying the display mode such as 3D subtitles is described may be described anywhere as long as the descriptor can be described in the PMT.
  • an unused area (reserved area) in the PMT may be used. That is, mode identification information only needs to be described in the PMT. For example, 2 bits in the reserved area of the PMT may be used for describing the mode identification information as subtitle_offset_mode and bml_offset_mode shown in FIG.
  • any 4 bits of the reserved area may be used.
  • mode identification information can be described as subtitle_offset_mode and bml_offset_mode shown in FIG.
  • the reserved area for example, any one of reserved 403, reserved 404, and reserved 405 shown in FIG. 1 is used.
  • the mode identification information is described using the reserved area of the PMT, the use of the unused area is not limited to the reserved area of the PMT.
  • a reserved area of a descriptor described in the PMT may be used.
  • the mode identification information may be described by using a reserved area in an existing descriptor described in the PMT and using a method similar to the above-described method using the reserved area of the PMT.
  • FIG. 12 is a diagram conceptually showing the mechanism of the 1 plane + offset mode.
  • subtitle plane image 100 After the subtitle plane image 100 is encoded, it is multiplexed and distributed along with other data ES (eg, audio ES) such as 3D video ES as subtitle display ES.
  • data ES eg, audio ES
  • 3D video ES subtitle display ES
  • the video processing apparatus 300 decodes the encoded subtitle data extracted from the received subtitle display ES, and creates the subtitle plane image 100.
  • the video processing apparatus 300 uses the subtitle plane image 100 and the offset value included in the ES of the 3D video to generate a left-eye subtitle image and a right-eye subtitle image for displaying the 3D subtitle.
  • the value of offset is for appropriately superimposing captions on 3D video, and is represented by the number of pixels. Since it is necessary to synchronize with the video, it is included in the 3D video ES and transmitted.
  • the offset value is embedded as GOP (Group of Pictures) or user data of each image frame when 3D video data is encoded in MPEG format.
  • the image processing apparatus 300 When outputting the left-eye caption image to be superimposed on the 3D image left-eye image, the image processing apparatus 300 outputs the left-eye caption image 101 obtained by shifting the created caption plane image 100 to the right by the number of pixels corresponding to the offset value.
  • an image obtained by shifting the created caption plane image 100 to the left by the number of pixels corresponding to the offset value is output as the right-eye caption image 102. From the left-eye caption image 101 and the right-eye caption image 102, the caption plane 103 appears to be positioned in front of the 3D video screen.
  • the value of offset is a negative value
  • an image of the subtitle plane image 100 that is shifted to the left is output as the left-eye subtitle image 101
  • the image that is shifted to the right is output as the right-eye subtitle image 102.
  • the subtitle plane 103 appears to be located behind the 3D video screen.
  • the depth of the subtitle plane 103 can be set by the offset value to be shifted. Since 1 plane + offset can be processed with a single subtitle plane memory, there is an advantage that the processing in the display mode of the 3D subtitles and the like requires less decoders and memories than the 2 plane + offset mode. However, since a planar image is arranged in front of the screen or arranged behind the screen, there is a demerit that the object itself such as subtitle text cannot be shown three-dimensionally.
  • FIG. 13 is a diagram conceptually showing the mechanism of the 2 plane + offset mode.
  • the caption is composed of two pieces of caption data for the left eye and caption data for the right eye. These two caption data are encoded and then multiplexed and distributed as separate ESs together with other data ESs such as 3D video ESs (for example, audio ESs).
  • the video processing device 300 decodes the received two subtitle ESs.
  • the left-eye caption data is decoded by a decoder reserved for left-eye caption data to create a left caption plane image 200.
  • the right-eye caption data is decoded by a decoder secured for the right-eye caption data to create a right caption plane image 201.
  • the video processing device 300 generates, as the left-eye caption image 202, an image obtained by shifting the created left caption plane image 200 to the right by the number of pixels corresponding to the offset value included in the 3D video ES, and creates the created right caption plane image.
  • An image obtained by shifting 201 to the left by the number of pixels corresponding to the offset value included in the ES of the 3D video is generated as the right-eye caption image 203.
  • the left-eye caption image 202 is superimposed on the left-eye image and the right-eye caption image 203 is output with the right-eye image, so that the caption plane 204 appears to be positioned in front of the 3D image screen.
  • the left-eye caption image 202 is generated by shifting the left caption plane image 200 to the left, and the right-eye caption image 203 is shifted to the right of the right caption plane image 201.
  • the subtitle plane 204 appears to be located behind the 3D video screen. In this way, the depth of the caption plane 204 can be set by the offset value to be shifted.
  • the concept of captions in the present embodiment includes a character supermarket in the ARIB standard. (Multiplexer 3000) Next, a multiplexing apparatus that generates a multiplexed data stream received by the video processing apparatus 300 according to the present embodiment will be described.
  • FIG. 14 is a schematic configuration diagram of a multiplexing apparatus 3000 that generates MPEG2-TS used for broadcasting and distribution.
  • the multiplexing device 3000 includes a multiplexing unit 3001, a video data storage unit 3002, a video input unit 3003, an audio data storage unit 3004, an audio input unit 3005, a caption data storage unit 3006, a caption input unit 3007, and a data broadcast data storage unit. 3008, data broadcasting data input means 3009, program information input means 3010, and SI / PSI generation means 3011.
  • the multiplexing device 3000 includes a processor and a memory (not shown), and includes a multiplexing unit 3001, a video input unit 3003, an audio input unit 3005, a caption input unit 3007, a data broadcast data input unit 3009, and program information input.
  • the functions of the means 3010 and the SI / PSI generating means 3011 are realized by the processor executing a program stored in the memory.
  • Multiplexing means 3001 includes video input means 3003, audio input means 3005, subtitle input means 3007, data broadcast data input means 3009, and SI / PSI generation means 3011, respectively.
  • a TS stream is generated from data broadcasting data and SI / PSI.
  • the video data storage means 3002 is composed of a storage medium such as a hard disk and stores video data.
  • the video input means 3003 reads out video data from the video data storage means 3002, encodes it, outputs it to the multiplexing means 3001, and information on video data necessary for SI / PSI generation means 3011 to construct SI / PSI.
  • the function to output is provided.
  • the audio data storage means 3004 is composed of a storage medium such as a hard disk and stores audio data.
  • the audio input means 3005 reads out the audio data from the audio data storage means 3004, encodes it, outputs it to the multiplexing means 3001, and information on the audio data necessary for the SI / PSI generation means 3011 to construct the SI / PSI.
  • the function to output is provided.
  • the subtitle data storage means 3006 is composed of a storage medium such as a hard disk and stores subtitle data.
  • the subtitle input unit 3007 reads subtitle data from the subtitle data storage unit 3006, performs encoding, outputs the subtitle data to the multiplexing unit 3001, and information on subtitle data necessary for the SI / PSI generation unit 3011 to construct SI / PSI.
  • the function to output is provided.
  • information indicating in which 3D subtitle display mode the subtitle data is processed is also stored in the subtitle data storage unit 3006 together with the subtitle data, and the subtitle input unit 3007 provides information on the 3D subtitle display mode. Is output to the SI / PSI generating means 3011.
  • Data broadcasting data storage means 3008 is composed of a storage medium such as a hard disk, and stores data broadcasting data.
  • the data broadcasting data input means 3009 reads subtitle data from the data broadcasting data storage means 3008, encodes it, and outputs it to the multiplexing means 3001.
  • the SI / PSI generating means 3011 requires the SI / PSI construction. A function for outputting information related to data broadcasting. At this time, information on which 3D subtitle display mode the data for data broadcasting is processed is also stored in the data broadcasting data storage means 3008 together with the data broadcasting data, and the data broadcasting data input means 3009 is used. Outputs information about the display mode such as 3D subtitles to the SI / PSI generating means 3011.
  • the program information input means 3010 outputs the program configuration information necessary for generating the EIT to the SI / PSI generation means 3011.
  • SI / PSI generation means 3011 is based on information input from video input means 3003, audio input means 3005, subtitle input means 3007, data broadcasting data input means 3009, and program information input means 3010, and information on SI / PSI And the generated SI / PSI information is output to the multiplexing means 3001.
  • the SI / PSI generating unit 3011 describes the arib_3d_offsetmode_info descriptor in which the value of the 3D subtitle display mode is set in the subtitle_offset_mode in the first loop 400 of the PMT in accordance with the 3D subtitle display mode information obtained from the subtitle input unit 3007.
  • the SI / PSI generation unit 3011 sets the arib_3d_offsetmode_info descriptor in which the value of the 3D subtitle display mode is set in the bml_offset_mode according to the 3D subtitle display mode information obtained from the data broadcasting data input unit 3009. It describes.
  • the video processing apparatus determines the 3D subtitle display mode from the mode identification information described in the received PMT. Since the PMT is a data block to be processed before processing ES including display data such as 3D video and caption, it is possible to determine the 3D caption display mode and secure resources before processing the display data such as caption. it can. For this reason, the time until display data is displayed together with 3D video can be shortened.
  • the newly defined arib_3d_offsetmode_info descriptor is used. However, in this embodiment, the field of the data encoding scheme descriptor (data_component_descriptor) that is an already standardized descriptor is used. Is different.
  • the video processing apparatus extracts the mode identification information from the data_component_id of the data encoding scheme descriptor described in the second loop 402 instead of the PMT first loop 400, and discriminates the display mode such as 3D subtitles. .
  • the second loop 402 is included in the ES information description location 401.
  • the ES information description location is a location where information for each ES related to this program is described. For this reason, the for loop of the ES information description location 401 is repeated by the number of ESs related to this program.
  • ⁇ Elementary_PID> in the figure is information for identifying a transport packet that is a packet of each TS. Transport packets of the same video ES, the same caption ES, and the same SI / PSI table are transmitted with the same elementary_PID. Note that elementary_PID is also simply referred to as PID.
  • the mode identification information for subtitles is described in the data encoding method descriptor of the descriptor description location corresponding to the PID of the ES including the subtitle data
  • the mode identification information for the display data for data broadcasting is It is described in the data encoding method descriptor in the description part of the descriptor corresponding to the PID of the ES including the display data for data broadcasting.
  • FIG. 15 is a diagram illustrating a data structure of a data encoding scheme descriptor.
  • the mode identification information is described in the data_component_id field in the data encoding scheme descriptor.
  • the data_component_id 1501 has a data length of 16 bits.
  • the value of data_component_id representing a conventional caption is 0x0008, but in the present embodiment, the value shown in FIG. 16 is used for data_component_id.
  • the value shown in FIG. 16 is used for data_component_id.
  • FIG. 16 in the case of 3D subtitles processed in 1 plane + offset mode, 0x0100, in the case of 3D subtitles processed in 2 plane + offset mode, 0x0200, in the case of display data for data broadcasting processed in 1 plane + offset mode, 0x0400, 2 plane + offset
  • a value of 0x0800 is used.
  • the difference from the first embodiment is that the analysis unit 303 does not extract mode identification information from arib_3d_offsetmode_info described in the first loop of the PMT, but from data_component_id in the data encoding scheme descriptor described in the second loop 402.
  • the mode identification information is extracted and output to the determination unit 304, and the 3D subtitle display mode is determined based on the data_component_id value of the data encoding scheme descriptor, not the mode identification information described by the determination unit 304 in the arib_3d_offsetmode_info descriptor. It is a point to discriminate.
  • step S15 of FIG. 7 the analysis unit 303 uses the data encoding method descriptor in the second loop 402 of the PMT instead of the arib_3d_offsetmode_info descriptor in the first loop 400 of the PMT. And the content is output to the determination unit 304, and the determination unit 304 extracts the value of data_component_id from the data encoding scheme descriptor and determines the display mode such as 3D subtitles in step S16. Different from Form 1. Since other steps are the same as those in the first embodiment, description thereof will be omitted.
  • FIG. 17 is a flowchart showing details of the process in step S16 in the determination unit 304 of the video processing apparatus 300 according to the second embodiment.
  • the determining unit 304 extracts data_component_id from the data encoding scheme descriptor input from the analyzing unit 303, and determines whether or not the value of the data_component_id matches 0x0100 (step S51). When the value of data_component_id matches 0x0100 (step S51: Yes), the determination unit 304 determines that the 3D subtitle display mode in the subtitle processing unit 309 is the 1 plane + offset mode, and is necessary for the processing in the subtitle processing unit 309. A secure decoder and memory are secured (step S52). Next, the determination means 304 notifies the determination result to the caption processing means 309 (step S53), and the process of step S16 is completed.
  • step S54 determines whether or not the value of data_component_id matches 0x0200 (step S54).
  • the determination unit 304 determines that the 3D subtitle display mode in the subtitle processing unit 309 is the 2plane + offset mode, and is necessary for the processing in the subtitle processing unit 309.
  • a secure decoder and memory are secured (step S55).
  • the determination unit 304 notifies the determination result to the caption processing unit 309 (step S56), and the process of step S16 is completed.
  • step S57 determines whether or not the value of data_component_id matches 0x0400 (step S57).
  • step S57: Yes the determination unit 304 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 1 plane + offset mode, and the processing in the data broadcast processing unit 310 The decoder and memory necessary for the above are secured (step S58).
  • step S59 the determination unit 304 notifies the data broadcast processing unit 310 of the determination result (step S59) and completes the process of step S16.
  • the determination means 304 determines whether or not the value of data_component_id matches 0x0800 when the result is No in step S57 (step S60). When the value of data_component_id matches 0x0800 (step S60: Yes), the determination unit 304 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 2 plane + offset mode, and the process in the data broadcast processing unit 310 The decoder and memory necessary for the above are secured (step S61). Next, the determination unit 304 notifies the determination result to the data broadcast processing unit 310 (step S62), and the process of step S16 is completed.
  • the 3D subtitle display mode is determined based on the mode identification information described in the data encoding scheme descriptor described in the second loop of the PMT. Since the data encoding scheme descriptor is included in the information regarding each ES constituting the program in the PMT, the determination unit 304 performs data in the description portion of the information regarding the ES including the caption data before performing the process of step S51. If it is an encoding method descriptor or a data encoding method descriptor of a description part of information relating to ES including display data for data broadcasting, and if it is information relating to ES including caption data, Proceeding to step S51, in the case of an ES including display data of data broadcasting, the process may proceed to step S57.
  • the SI / PSI generating means 3011 of the multiplexing device 3000 uses the mode identification information output from the caption input means 3007 to describe the data coding scheme description of the part describing the information about the ES including the caption in the second loop 402 of the PMT. Set to child. Further, the mode identification information output from the data broadcasting data input means 3009 is set in the data encoding scheme descriptor of the portion describing the information regarding the ES including the display data for data broadcasting in the second loop 402 of the PMT. . ⁇ 2.7 Summary> Since the video processing apparatus according to the present embodiment can describe the mode identification information by using the field of the existing descriptor, it is possible to describe the existing description without defining a new descriptor as in the first embodiment.
  • mode identification information is described in data_component_id in a data encoding method descriptor (data_component_descriptor) that is an already standardized descriptor described in the second loop 402 of the PMT.
  • the mode is different in that mode identification information is described in an unused area (reserved area) of the data encoding scheme descriptor.
  • the video processing apparatus extracts the mode identification information from the reserved area of the data encoding scheme descriptor described in the second loop 402 instead of the PMT first loop 400, and determines the display mode such as 3D subtitles. To do. ⁇ 3.2 Data> A data structure of data used in this embodiment will be described.
  • an additional_arib_bxml_info descriptor described as one of additional_data_component_info is used in the data encoding scheme descriptor shown in FIG.
  • FIG. 18 shows the data structure of additional_arib_bxml_info.
  • the lower 2 bits of 4 bits of reserved_future_use 1801 are used to describe the information of subtitle_offset_mode and bml_offset_mode shown in FIG. Since values that can be taken by subtitle_offset_mode and bml_offset_mode are the same as those in the first embodiment, description thereof is omitted.
  • ⁇ 3.3 Configuration> In the configuration of the video processing apparatus according to the present embodiment, the description of the same configuration as that of the video processing apparatus 300 according to the first embodiment will be omitted, and different points will be mainly described.
  • symbol of the video processing apparatus used by this Embodiment uses the same code
  • the difference from the first embodiment is that the analysis unit 303 does not extract mode identification information from arib_3d_offsetmode_info described in the first loop of the PMT, but mode identification described in an unused area in the data encoding scheme descriptor. Information is extracted and output to the determination unit 304, and the determination unit 304 determines the 3D subtitle display mode based on the mode identification information.
  • step S15 of FIG. 7 the analysis unit 303 uses the data encoding scheme descriptor in the second loop 402 of the PMT instead of the arib_3d_offsetmode_info descriptor in the first loop 400 of the PMT. This is implemented in that it is extracted and the contents are output to the determination unit 304, and in step S16, the determination unit 304 extracts the lower 2 bits of the reserved_future_use 1801, and determines the display mode of 3D subtitles and the like based on this value. Different from Form 2. Since the other steps are the same as those in the second embodiment, description thereof is omitted.
  • the determination unit 304 determines that the subtitle and the display data for data broadcasting are both in the 1 plane + offset mode when the value of the lower 2 bits of the reserved_future_use 1801 is “00” in step S16, and if the value is “01”, the subtitle is It is determined that the mode is 1 plane + offset mode, and the display data for data broadcasting is in the 2 plane + offset mode. In the case of “10”, it is determined that the subtitle is in the 2 plane + offset mode and the display data for data broadcasting is in the 1 plane + offset mode. In the case of “11”, both the subtitle and the display data for data broadcasting are in the 2 plane + offset mode. Is determined.
  • mode identification information is described in the lower 2 bits of reserved_future_use 1801, but the description of mode identification information is not limited to using the lower 2 bits of reserved_future_use 1801. It is sufficient if 2 bits can be secured for the mode identification information. For example, it may be described in the upper 2 bits of reserved_future_use 1801.
  • reserved_future_use 1801 the unused area to be used is not limited to reserved_future_use 1801. Any unused area in the data encoding system descriptor may be used. For example, since the additional_arib_bxml_info descriptor in the data encoding scheme descriptor shown in FIG. 18 describes the additional_arib_carousel_info descriptor, it may be described in an unused area of this descriptor. Moreover, you may describe in 2 bits of Reserved of the data structure of additional_arib_carousel_info shown in FIG.
  • the values of subtitle_offset_mode and bml_offset_mode shown in FIG. 3 are described as mode identification information.
  • the mode identification information is not limited to using this value. Any information that can identify the display mode such as 3D subtitles may be used.
  • the values of subtitle_offset_mode and bml_offset_mode shown in FIG. 10 may be described using 4 bits of reserved_future_use 1801.
  • the arib_3d_offsetmode_info descriptor is described in the EIT that is one of the SI information instead of the PMT. Is different.
  • the video processing apparatus according to the present embodiment performs the determination by extracting the mode identification information contained in the descriptor described in the EIT.
  • FIG. 20 is a diagram showing the data structure of the EIT.
  • EIT stores information related to the program such as the program name, broadcast date and time, and broadcast content. Since each field is defined in the standard established by ARIB, the description is omitted, and only the part related to the present embodiment is described.
  • the arib_3d_offsetmode_info descriptor is described in a descriptor 1401 surrounded by a for loop.
  • the descriptor 1401 is a descriptor in which different information is described for each program described in the EIT.
  • arib_3d_offsetmode_info descriptor is the same as that in the first embodiment, the description thereof is omitted.
  • the PMT is sent as a set with the data constituting each program, whereas the EIT is sent prior to the broadcast of the program and is used to construct an EPG (Electronic Program Guide). It is also used for recording and viewing reservations.
  • EPG Electronic Program Guide
  • the analysis unit 303 is different from the first embodiment in that the analysis unit 303 determines a display mode such as 3D subtitles based on mode identification information included in the EIT instead of the PMT.
  • the operation of the video processing apparatus 300 will be described by taking as an example a case where the user makes a viewing reservation for one of a plurality of programs included in the EIT.
  • the video processing apparatus 300 receives the stream data of the reserved program at the receiving unit 301.
  • the analysis unit 303 extracts the arib_3d_offsetmode_info descriptor from the information related to the viewing reservation program included in the EIT received in advance, and outputs it to the determination unit 304.
  • the process of extracting the mode identification information from the EIT is not limited to the start of the program. Since the EIT is received before the start of the program, the display mode such as 3D subtitles of each program whose information is described in the EIT may be determined and stored before the start of the program. For example, when the EIT is received, the contents of the arib_3d_offsetmode_info descriptor included in the EIT are extracted and stored, and the 3D subtitle display mode is determined based on the contents stored by the determination unit 304 at the start of the program. You may do it. Alternatively, the determination may be performed in advance, the determination result may be stored, the determination result may be read out at the start of the program, and the subsequent processing may be performed.
  • the newly defined arib_3d_offsetmode_info descriptor is described in the EIT, but it is not necessary to define a new descriptor. It suffices if mode identification information is described in the EIT. For example, instead of describing the arib_3d_offsetmode_info descriptor, an unused area (reserved area) of the EIT may be used.
  • the display mode of 3D subtitles or the like may be determined by describing the values of the subtitle_offset_mode and bml_offset_mode shown in FIG. 3 in any 2 bits of the reserved area of the EIT.
  • the unused area is not limited to 2 bits. Bits necessary for the description of the mode identification information may be assigned.
  • the 3D subtitle display mode may be determined by describing the values of the subtitle_offset_mode and bml_offset_mode shown in FIG. 12 in any 4 bits of the unused area.
  • subtitle_plane_offset_flag, bml_1plane_value, and bml_2plane_value are set by subtitle_plane_offset_flag, bml_1plane_offset_flag, and bml_2plane_g_description as shown in FIG. Also good.
  • the description method of the mode identification information may be combined.
  • the processing may be performed in combination with the identification method using the PMT described in the first embodiment.
  • the SI / PSI generation unit 3011 of the multiplexing device 3000 generates EIT based on the program configuration information input from the program information input unit 3010. At this time, the program information input unit 3010 performs 3D subtitles for each program. The subtitle display mode and the 3D subtitle display mode of the display data for data broadcasting are output to the SI / PSI generating means 3011.
  • the SI / PSI generating means 3011 sets mode identification information at a location where information related to each program of the EIT is described based on the information output from the program information input means 3010.
  • the video processing apparatus determines the display mode such as 3D subtitles from the mode identification information for each program described in the received EIT.
  • the mode identification information is described in the newly defined descriptor, arib_3d_offsetmode_info descriptor, at the location where the information related to the EIT program is described, and the video processing apparatus extracts the mode identification information to generate 3D subtitles.
  • mode identification information is described in a data content descriptor (data_content_descriptor), which is a standardized descriptor, and 3D is extracted by extracting the mode identification information. Determine the display mode of subtitles.
  • FIG. 21 shows the data structure of the data content descriptor.
  • mode identification information is described in data_component_id 1701 in the data content descriptor.
  • the values shown in FIG. 16 are used as values for identifying display modes such as 3D subtitles of display data for subtitles and data broadcasting.
  • a 3D subtitle display mode is set for each of subtitles and display data for data broadcasting with data_component_id 1701. It needs to be identified. Since each value of data_component_id has already been described, the description thereof is omitted.
  • the sum of each value is used. Specifically, for example, when subtitles are processed in 2 plane + offset mode and display data for data broadcasting is data to be processed in 1 plane + offset mode, 0x0200 is added to 0x0400, and 0x0600 is set. If both the caption and the display data for data broadcasting are data to be processed in the 2 plane + offset mode, the sum of 0x0200 and 0x0800 is taken and 0x0A00 is set. For other combinations, a value obtained by summing is similarly used.
  • the difference from the fourth embodiment is that the analysis unit 303 does not extract the mode identification information from the ARIB_3d_offsetmode_info of the EIT, but extracts the data_component_id in the data content descriptor as the mode identification information and outputs it to the determination unit 304.
  • the determination unit 304 determines the 3D subtitle display mode based on the value of data_component_id.
  • step S15 in FIG. 7 the analysis unit 303 extracts the data content descriptor and outputs it to the determination unit 304.
  • step S16 the determination unit 304
  • the difference from Embodiment 4 is that the value of data_component_id is extracted from the data content descriptor, and the display mode such as 3D subtitles is determined based on the value. Since the other steps are the same as those in the fourth embodiment, description thereof is omitted.
  • FIG. 22 is a flowchart showing details of the processing in step S16 in the determination unit 304 of the video processing apparatus 300 according to the present embodiment.
  • the determination unit 304 extracts data_component_id from the data content descriptor input from the analysis unit 303, obtains the logical product of the value of data_component_id and 0x0100, and determines whether the result is “0” (step S71). ). If the result of the logical product is not “0” (step S71: Yes), the determination unit 304 determines that the 3D subtitle display mode in the subtitle processing unit 309 is the 1 plane + offset mode, and performs the processing in the subtitle processing unit 309. Necessary decoders and memories are secured (step S72). Next, the determination unit 304 notifies the determination result to the caption processing unit 309 (step S73), and proceeds to step S77.
  • the determination unit 304 obtains the logical product of the value of data_component_id and 0x0200, and determines whether the result is “0” (step S74). When the result of the logical product is not “0” (step S74: Yes), the determination unit 304 determines that the 3D subtitle display mode in the subtitle processing unit 309 is the 2plane + offset mode, and performs the processing in the subtitle processing unit 309. Necessary decoders and memories are secured (step S75). Next, the determination unit 304 notifies the determination result to the caption processing unit 309 (step S76), and the process proceeds to step S77.
  • the determination unit 304 obtains the logical product of the value of data_component_id and 0x0400, and determines whether or not the result is “0” (step S77). When the result of the logical product is not “0” (step S77: Yes), the determination unit 304 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 1 plane + offset mode, and the data broadcast processing unit 310 A decoder and a memory necessary for the processing are secured (step S78). Next, the determination unit 304 notifies the data broadcast processing unit 310 of the determination result (step S79) and completes the process of step S16.
  • the determination unit 304 obtains the logical product of the value of data_component_id and 0x0800, and determines whether or not the result is “0” (step S80). If the result of the logical product is not “0” (step S80: Yes), the determination unit 304 determines that the 3D subtitle display mode in the data broadcast processing unit 310 is the 2 plane + offset mode, and the data broadcast processing unit 310 A decoder and a memory necessary for processing are secured (step S81). Next, the determination unit 304 notifies the data broadcast processing unit 310 of the determination result (step S82) and completes the process of step S16.
  • the video processing apparatus can describe the mode identification information by using the existing descriptor field, so that the descriptor is not newly defined as in the fourth embodiment.
  • 3D subtitle display mode can be identified without expanding the field.
  • the mode identification information is described in the data_component_id of the data content descriptor, which is an existing standardized descriptor, and the 3D subtitle display mode is determined by extracting the mode identification information.
  • mode identification information is described in a field defined as an unused area (reserved area) of the data content descriptor, and the 3D subtitle display mode is determined by extracting the mode identification information.
  • an arib_bxml_info descriptor described as one of a series of selector_bytes is used in the data content descriptor shown in FIG.
  • FIG. 23 is a diagram showing a data structure of the arib_bxml_info descriptor.
  • the lower 2 bits of the 6 bits of reserved_future_use 2001 of the arib_bxml_info descriptor are used to describe the information of subtitle_offset_mode and bml_offset_mode shown in FIG. Since values that can be taken by subtitle_offset_mode and bml_offset_mode are the same as those in the first embodiment, description thereof is omitted.
  • mode identification information described in an unused area in the data content descriptor is not extracted from the data_component_id in the data content descriptor, but the determination means 304 extracts the mode identification information.
  • the output point and the determination unit 304 determine the display mode such as 3D subtitles based on the mode identification information.
  • step S16 of FIG. 7 the determination unit 304 extracts the lower 2 bits of the reserved_future_use 2001 from the data content descriptor, and displays the 3D subtitle display mode based on the value. This is different from the fifth embodiment in that it is determined. Since the other steps are the same as those in the fifth embodiment, description thereof will be omitted.
  • the determination unit 304 determines that the caption and the display data for data broadcasting are both in the 1 plane + offset mode, and if the value is “01”, the caption is It is determined that the mode is 1 plane + offset mode, and the display data for data broadcasting is in the 2 plane + offset mode. In the case of “10”, it is determined that the subtitle is in the 2 plane + offset mode and the display data for data broadcasting is in the 2 plane + offset mode. In the case of “11”, both the subtitle and the display data for data broadcasting are in the 2 plane + offset mode. Is determined.
  • the mode identification information is described in the lower 2 bits of reserved_future_use 2001.
  • the description of the mode identification information is not limited to the description in the lower 2 bits of reserved_future_use 2001. It is sufficient if 2 bits can be secured for the mode identification information. For example, it may be described in the upper 2 bits of reserved_future_use2001.
  • the mode identification information is not limited to being described in the reserved_future_use 2001. Any unused area in the data content descriptor may be used.
  • the arib_bxml_info descriptor in FIG. 23 includes an arib_carousel_info descriptor, and may be described in an unused area of this descriptor. Specifically, it may be described in 2 bits of Reserved of arib_carousel_info shown in FIG.
  • the values of subtitle_offset_mode and bml_offset_mode shown in FIG. 3 are described as mode identification information.
  • the mode identification information is not limited to using this value. Any information that can identify the display mode such as 3D subtitles may be used.
  • the values of the subtitle_offset_mode and bml_offset_mode shown in FIG. 10 may be described in 4 bits of reserved_future_use2001.
  • the 4 bits of reserved_future_use 2001 may include the subtitle_ 1 plane_offset_flag, subtitle_ 2 plane_offset_flag, bml — 1 plane_offset_flag, and blag_flag_blag_flag_blag_flag_blag_flag_blag_2
  • mode identification information is described in additional information (metadata) of content to be distributed in VOD (Video On Demand) in an electronic video distribution system using an IP (Internet Protocol) network instead of broadcasting. Then, the video processing apparatus analyzes the additional information and determines a display mode such as 3D subtitles.
  • the electronic video distribution system describes the mode identification information in the playback control information defined in “Digital TV Network Function Specification Streaming Function Specification Codec” of the Digital TV Information Society.
  • mode identification information is described in ERI (Entry Resource Information).
  • FIG. 25 is a diagram showing a data structure of ERI. However, descriptions that are not necessary for this embodiment are omitted.
  • the ERI is described in an XML (Extensible Markup Language) document format.
  • a caption_info element that can be described 0 to 2 times in one ERI is defined as a tag element that describes information about subtitles.
  • an attribute “offset_mode” 2501 is newly added to the “caption_info” element. If the offset_mode 2501 does not exist or the value of the offset_mode 2501 is “0”, it indicates that it is a conventional 2D caption, not a 3D caption, and if the value of the offset_mode 2501 is “1”, it indicates 1 plane + offset mode, and “2” The case is defined to be 2 plane + offset mode.
  • the receiving unit 301 receives information from the IP network instead of broadcasting, and the received information is content data constituting a program such as video and audio transmitted in the MPEG2-TS format.
  • the determination means 304 does not receive the PMT from the analysis means 303, but includes a receiving unit such as additional information (metadata) such as a content list and reproduction control information.
  • the determination unit 304 determines the display mode such as 3D subtitles based on the mode identification information described in the tag element defined in the ERI, not the arib_3d_offsetmode_info descriptor. is there.
  • the operation of the video processing apparatus 300 in the present embodiment is not the process of step S18 in FIG. 7, and the processes of step S16 and step S17 are processes other than steps S16, S17, and S18 of FIG. This is performed when the ERI is received prior to the process of receiving and reproducing the content data.
  • the point from which the determination means 304 determines display mode, such as 3D subtitles, based on the value of the caption_info element extracted from ERI in step S16 differs from Embodiment 1. Since other steps are the same as those in the first embodiment, description thereof will be omitted.
  • the determination unit 304 determines that the 3D subtitle display mode in the subtitle processing unit 309 is the 1 plane + offset mode, and the 2 plane + offset mode in the case of “2”. Is determined.
  • Embodiment 7 ⁇ 7.5 Modification of Embodiment 7> (1)
  • the value of “0” or “1” is used as the value of mode identification information, but the value for identification is not limited to this. Any value can be used as long as the 3D subtitle display mode can be discriminated.
  • a value of “1 plane + offset” may be used for the 1 plane + offset mode
  • a value of “2 plane + offset” may be used for the 2 plane + offset mode.
  • the 3D subtitle display mode is expressed by adding the attribute of the caption_info element of ERI.
  • a child element is further added to the caption_info element, and mode identification information is described in the child element. May be.
  • an offset_mode element is added as a child element to the caption_info element.
  • the value of the offset_mode element is “0”, it is defined as the display of the conventional 2D subtitle.
  • the display mode such as 3D subtitles may be determined based on this value. Note that in the case of conventional 2D subtitle display, the value of the offset_mode element is not set to “0”, but the offset_mode element is not described in the caption_info element, and the conventional 2D subtitle is not described. May be determined.
  • the offset_mode element is an empty element having no content, mode is defined as the attribute of the offset_mode, and the offset_mode element does not exist or the value of the mode attribute is “0”.
  • the case represents a conventional 2D subtitle instead of a 3D subtitle.
  • the value of the mode attribute of the offset_mode element is “1”, it represents 1 plane + offset mode, and when the value of the mode attribute of the offset_mode element is “2” You may define that it is 2plane + offset mode.
  • the attribute added to the caption_info element of ERI and the mode identification information are described in the child element, but elements other than the caption_info element of ERI may be used. Any element in the ERI may be used. Even when elements other than the caption_info element are used, the method used in the caption_info element may be used. For example, a stereoscopic_info element may be used to define the display mode in the same manner as the caption_info element, and may be used to determine the 3D subtitle display mode.
  • FIG. 26 is a schematic configuration diagram of an electronic video distribution system 2200 according to the present embodiment.
  • An electronic video distribution system 2200 includes a video processing device 300, a portal server 2201, a playback control information server 2202, a license server 2203, and a content server 2204. It is the structure containing. These servers and the video processing apparatus 300 are connected by an IP network 2205.
  • the portal server 2201 is a server that provides a list of contents distributed to the video processing apparatus 300 and a metadata URL (Uniform Resource Locator) necessary for reproducing the contents.
  • a metadata URL Uniform Resource Locator
  • the reproduction control information server 2202 is a server that provides additional information on content.
  • the ERI is provided from this server.
  • the license server 2203 is a server that gives a license for use permission to the video processing device 300 regarding the content received and reproduced by the video processing device 300.
  • the content server 2204 is a server that provides content data such as video to the video processing apparatus 300.
  • FIG. 27 is a diagram illustrating a processing sequence of the electronic video distribution system 2200.
  • the video processing device 300 requests the portal server 2201 to transmit navigation information including a list of content to be distributed and a URI (Uniform Resource Identifier) of metadata necessary for reproducing the content. (Step S101).
  • a URI Uniform Resource Identifier
  • the portal server 2201 Upon receiving the request from the video processing device 300, the portal server 2201 transmits navigation information to the video processing device 300 (step S102).
  • the navigation information in this embodiment is transmitted as data in the HTML (HyperText Markup Language) document format, and the URI of the playback control information is described as a reference destination that is selected when the button is clicked on the HTML browser. It is assumed that
  • the video processing apparatus 300 presents the received navigation information using an HTML browser to present a content list to the user.
  • the video processing device 300 requests the playback control information server 2202 to transmit playback control information based on the URI of the playback control information of the selected content (step S103).
  • the reproduction control information server 2202 that has received the reproduction control information transmission request transmits reproduction control information including the ERI in which the mode identification information is described to the video processing device 300 (step S104).
  • the video processing apparatus 300 refers to the reproduction control information, and if a license for reproducing the content is necessary, transmits a license issuance request to the license server 2203 (step S105).
  • the license server 2203 Upon receiving the license issuance request, the license server 2203 performs a license issuance process and transmits license information to the video processing apparatus 300 (step S106).
  • the video processing apparatus 300 that has received the license information requests the content server 2204 to transmit the content data of the requested content based on the playback control information (step S107).
  • the content server 2204 Upon receiving the content data transmission request, the content server 2204 transmits the content data related to the content requested for reproduction to the video processing device 300 (step S108).
  • the video processing device 300 decodes the content data sequentially received from the content server 2204, performs processing such as subtitles based on the mode identification information extracted from the ERI included in the playback control information, and displays the video for display on the display device 312. Output to.
  • the transmission of the content data transmission request and the reception of the content data use a protocol such as HTTP or RTP (Real-time Transport Protocol) / RTSP (Real Time Streaming Protocol).
  • the video processing apparatus uses playback control information as additional information (metadata) of content used in an electronic video distribution system using an IP network, and mode identification information described in ERI as a more specific example. Is used to determine the 3D subtitle display mode. Since playback control information to be processed before receiving streaming data including display data such as 3D subtitles is used, the display mode such as 3D subtitles is identified before processing streaming data including display data such as 3D subtitles. It becomes possible to secure resources. For this reason, the time until display data is displayed together with 3D video can be shortened.
  • Embodiment 8 mode identification information is described in ECG (Electronic Content Guide) metadata in IPOD VOD (Video On Demand), and the video processing apparatus extracts the mode identification information extracted from the ECG metadata. To determine the display mode for 3D subtitles and the like.
  • ECG Electronic Content Guide
  • IPOD VOD Video On Demand
  • the electronic video distribution system describes mode identification information in ECG metadata defined in “STD-0006 CDN Scope Service Approach Specification 1.3” of IPTV (Internet Protocol Television) Forum Japan. To do.
  • FIG. 29 is a diagram showing a data structure of ECG metadata. However, descriptions that are not necessary for this embodiment are omitted.
  • the ECG metadata is described in an XML document format.
  • the CaptionLanguage element in the BasicDescription element in the ProgramInformation element is used, and the mode identification information is described in the description attribute 2901 of the CaptionLanguage element.
  • the 3D subtitle display mode is 1 plane + offset mode
  • the 3D subtitle display mode is the 2 plane + offset mode
  • ECG metadata is included as additional information received by the receiving unit 301.
  • the determining unit 304 receives ECG metadata instead of receiving ERI from the receiving unit 301. Is to determine the display mode such as 3D subtitles based on the mode identification information described in the tag element defined in the ECG metadata, not the mode identification information described in the tag element defined in the ERI.
  • the operation of the video processing apparatus 300 in the present embodiment is not the process of step S18 in FIG. 7, and the processes of step S16 and step S17 are processes other than steps S16, S17, and S18 of FIG.
  • the point from which the determination means 304 determines display mode, such as 3D subtitles, based on the value of description attribute 2901 extracted from ECG metadata by step S16 differs from Embodiment 7.
  • the determination unit 304 displays 3D subtitles and the like in the subtitle processing unit 309. It is determined that the mode is the 1 plane + offset mode, and when the mode is “2 plane + offset”, it is determined that the mode is the 2 plane + offset mode.
  • Embodiment 8 ⁇ 8.5 Modification of Embodiment 8> (1)
  • “1 plane + offset” or “2 plane + offset” is used as the value of mode identification information described in the description attribute, but the value for identification is not limited to this. Any value can be used as long as the 3D subtitle display mode can be discriminated. For example, “1” may be set for the 1 plane + offset mode, and “2” may be set for the 2 plane + offset mode.
  • the mode identification information is described in the value of the description attribute of the Caption Language element.
  • an attribute describing the mode identification information may be newly defined.
  • an offset_mode attribute 3101 may be defined in the CaptionLanguage element, and mode identification information may be described in the offset_mode attribute 3101.
  • the value of the offset_mode attribute is “0”, it indicates that the conventional 2D caption display is performed instead of the 3D caption display, and when the offset_mode attribute value is “1”, the 1 plane + offset mode is represented, and the value of the offset_mode attribute is May be defined as 2 plane + offset mode.
  • a child element may be newly added to the Caption Language element, and mode identification information may be described in this child element.
  • the offset_mode element is an empty element having no content, and mode is defined as the attribute of the offset_mode, and the same method is used for determination. May be.
  • the video processing apparatus 300 has a function of performing ECG processing, processes the received ECG metadata, and presents a content selection screen to the user.
  • the function of processing ECG processing is realized by a processor included in the video processing apparatus 300 executing a program for ECG processing.
  • the video processing device 300 transmits the playback control information to the playback control information server 2202 based on the URI described in the received ECG metadata. Request.
  • the video processing apparatus uses the mode identification information described in ECG metadata, which is additional information (metadata) of content used in an electronic video distribution system using an IP network, to display a 3D subtitle display mode.
  • ECG metadata is additional information (metadata) of content used in an electronic video distribution system using an IP network.
  • the 3D subtitle display mode is identified and processed before the streaming data including display data such as 3D subtitles is processed. Can be secured. For this reason, the time until display data is displayed together with 3D video can be shortened.
  • the video processing apparatus receives display data for data broadcasting not by broadcasting but by communication on an IP network such as pseudo data broadcasting performed by IP broadcasting. At this time, the video processing apparatus 300 acquires a URI for requesting data for data broadcasting from the hyperlink descriptor in the BIT. Since BIT and hyperlink descriptors are defined in “STD-0004 IP Broadcasting Specification 1.2” of IPTV Forum Japan, description thereof is omitted.
  • the electronic video distribution system describes mode identification information in the response header of HTTP or HTTPS (Hypertext Transfer Protocol over Secure Socket Layer), and the video processing device analyzes the response header to display 3D subtitles, etc. Determine the mode.
  • HTTP Hypertext Transfer Protocol over Secure Socket Layer
  • FIG. 31 shows the data structure of the HTTP header. However, descriptions that are not necessary for this embodiment are omitted.
  • FIG. 31A shows an HTTP-GET request transmitted from the video processing device 300.
  • FIG. 31B shows an HTTP including an HTTP response header when the 3D subtitle display mode is the 1 plane + offset mode transmitted from the server that provides the data for data broadcasting that has received the HTTP-GET request shown in FIG. It is a response.
  • FIG. 31C shows an HTTP including an HTTP response header when the 3D caption display mode is the 2 plane + offset mode transmitted from the server that provides the data for data broadcasting that has received the HTTP-GET request of FIG. It is a response.
  • X-Offset-Mode is defined as an extension header of the HTTP response header, and mode identification information is described in this extension header. That is, if the value of X-Offset-Mode is “1 plane + offset”, it is defined that the 3D caption display mode is 1 plane + offset mode, and if “2 plane + offset”, the 3D caption display mode is 2 plane + offset mode.
  • mode identification information is extracted from the HTTP response header received by the processor of the video processing apparatus 300 and output to the determination unit 304, and the determination unit 304 is described in the tag element defined in the ERI.
  • 3D subtitle display mode is determined based on the mode identification information described in the extension header of the HTTP response header instead of the mode identification information.
  • step S15 the processor included in the video processing device 300 executes a program for performing HTTP processing to receive data broadcasting data by HTTP, and subsequently, X-Offset-Mode, which is an extension header of the HTTP response header.
  • mode identification information is extracted from and output to determination means 304, and determination means 304 determines the display mode of 3D subtitles, etc., based on the value of X-Offset-Mode in step S16 . Since the other steps are the same as those in the seventh embodiment, description thereof is omitted.
  • the request destination URL for data broadcasting data is http: // www. broadcastcaster. In the following description, it is assumed that it is com / data_broadcast / 3Ddata.
  • the video processing apparatus 300 transmits an HTTP-GET request shown in FIG. 31A to a server that provides data for data broadcasting.
  • This HTTP-GET request is sent as a request destination URL for data broadcasting data at http: // www. broadcastcaster. com / data_broadcast / 3Ddata is an HTTP-GET request.
  • the server that provides the display data for data broadcasting that has received the request of FIG. 31A when the 3D caption display mode of the data broadcasting display data at the request destination of the requested data broadcasting data is the 1 plane + offset mode returns the HTTP response header shown in FIG. In this HTTP response, X-Offset-Mode is described as an extension header, and this value is “1 plane-offset”. Therefore, the determination unit 304 displays data broadcast processing unit 310 for data broadcasting. It is determined that the data processing is processing in the 1 plane + offset mode. On the other hand, when the 3D subtitle display mode is the 2 plane + offset mode, the HTTP response header of FIG. 31C is returned. Since the value of X-Offset-Mode in this case is “2 plane + offset”, the determination unit 304 determines that the processing of the display data for data broadcasting in the data broadcast processing unit 310 is processing in the 2 plane-offset mode. To do.
  • an extension header called X-Offset-Mode is defined in the HTTP response header, and either “1 plane-offset” or “2 plane-offset” is specified in this X-Offset-Mode.
  • the display mode of 3D subtitles and the like of the display data for data broadcasting is determined based on this value. Any value can be used as long as the 1 plane + offset mode and the 2 plane + offset mode can be identified. For example, if the value of X-Offset-Mode is “1”, the mode may be 1 plane + offset mode, and if it is “2”, the mode may be 2 plane + offset mode.
  • the name of the extension header may not be X-Offset-Mode. Any name may be used as long as it is an extension header in which mode identification information is described.
  • FIG. 32 is a schematic configuration diagram of a data broadcast data providing server 3200 that provides data broadcast data to the video processing device 300 according to the ninth embodiment.
  • the data broadcasting data providing server 3200 includes a transmission / reception unit 3201, an analysis unit 3202, a data acquisition unit 3203, a response generation unit 3204, and a storage unit 3205.
  • the transmission / reception unit 3201 has a function of transmitting / receiving data to / from the video processing apparatus 300.
  • the analysis unit 3202 has a function of analyzing an HTTP-GET request received by the transmission / reception unit 3201 and a function of specifying data to be transmitted to the video processing device 300.
  • the data acquisition unit 3203 has a function of reading out data broadcasting data and attribute information specified by the analysis unit 3202 from the storage unit 3205.
  • the response generation unit 3204 receives the HTTP-GET request information notified from the analysis unit 3202, the data broadcast data read from the storage unit 3205 by the data acquisition unit 3203, and the mode identification information included in the attribute information. A function of generating an HTTP response to be returned to the video processing apparatus 300 is provided.
  • the response generated by the response generation unit 3204 is output to the transmission / reception unit 3201 and transmitted from the transmission / reception unit 3201 to the video processing device 300.
  • the data broadcasting data providing server 3200 includes a processor and a memory (not shown), and the functions of the transmission / reception unit 3201, the analysis unit 3202, the data acquisition unit 3203, and the response generation unit 3204 are stored in this memory.
  • the program is implemented by executing this program.
  • the accumulation unit 3205 is configured by a recording medium such as a hard disk, and accumulates attribute information including data broadcasting data, accumulated data broadcasting display data, and mode identification information of the display data.
  • the transmission / reception unit 3201 receives an HTTP-GET request, which is an acquisition request for data broadcasting data related to content, and outputs the HTTP-GET request to the analysis unit 3202.
  • the analysis unit 3202 analyzes the HTTP-GET request and outputs information for specifying display data for data broadcasting related to the requested content to the data acquisition unit 3203.
  • the data acquisition unit 3203 reads display data for data broadcasting and its attribute information from the storage unit 3205 based on the information notified from the analysis unit 3202.
  • the data acquisition unit 3203 extracts, from the read attribute information, information indicating whether the 3D caption display mode of the display data for data broadcasting is the 1 plane + offset mode or the 2 plane + offset mode, and outputs the information to the response generation unit 3204. To do.
  • the response generation unit 3204 sets the X-Offset-Mode extension header according to the 3D subtitle display mode of the display data for data broadcasting. Specifically, when the mode identification information received from the data acquisition unit 3203 is 1 plane + offset mode, the value of X-Offset-Mode is “1 plane + offset”, and when the mode identification information is 2 plane + offset mode, the value of X-Offset-Mode is set. An HTTP response including “2 plane + offset” in the HTTP response header is generated.
  • the generated HTTP response is output to the transmission / reception unit 3201, and the transmission / reception unit 3201 transmits the HTTP response to the video processing device 300.
  • the video processing apparatus determines the 3D subtitle display mode using the mode identification information described in the HTTP response header, which is a communication protocol used in an electronic video distribution system using an IP network. Thereby, before processing the display data for data broadcasting, it is possible to identify the display mode such as 3D subtitles and secure resources, so that it is possible to shorten the time until the display data is displayed together with the 3D video.
  • the video processing apparatus has been described above based on the embodiment. However, the video processing apparatus can be modified as follows, and the present invention can be applied to the video processing apparatus as described in the above-described embodiment. Of course, it is not limited.
  • the video processing apparatus outputs the processed video to an external display device (for example, a 3D video compatible television).
  • the video processing device and the display device are integrated (for example, It may be a 3D video-compatible television provided with the video processing device according to the present invention.
  • the determination unit 304 secures the decoder and memory resources necessary for processing by the caption processing unit 309 and the data broadcast processing unit 310 based on the determination result.
  • memory are used in common with other processes in the video processing device, so if other processes are being executed (for example, recording a back program or dubbing a recorded program), reserve resources for the decoder and memory. It may not be possible.
  • the user Prior to subtitle processing, the user interrupts other processing to secure processing resources for display of subtitles, etc., and the user cannot display subtitles or data broadcasts. You may make it notify. The notified user can determine whether or not to interrupt other processing being executed.
  • the video processing apparatus can secure resources from that point and process display data such as subtitles.
  • All or some of the constituent elements described in the embodiments may be realized by an integrated circuit of one chip or a plurality of chips, or may be realized by a computer program.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)) or a semiconductor memory. Further, the present invention may be the computer program or the digital signal recorded on these recording media.
  • a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)) or a semiconductor memory.
  • the present invention may be the computer program or the digital signal recorded on these recording media.
  • the computer program or digital signal according to the present invention may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, data broadcasting, or the like.
  • a wireless or wired communication line a network represented by the Internet
  • data broadcasting or the like.
  • a video processing apparatus is a video processing apparatus for displaying an auxiliary display object together with 3D video, and the auxiliary display is based on information representing the auxiliary display object in one plane.
  • the first processing means having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the display object, and information representing the auxiliary display object in two planes
  • a second processing unit having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object, and at least the auxiliary display object is one of plane 1 and plane 2;
  • Reception for receiving an auxiliary display object reproduction stream including information represented by using and a data block including identification information indicating whether the auxiliary display object is represented by one plane or two planes
  • the identification information in the data block is extracted, and the first processing means and the second processing means are extracted according to the identification information
  • this video processing device it is possible to determine the display mode such as 3D subtitles without analyzing the content of the stream including the display data to be displayed together with the 3D video, and until the display data is displayed together with the 3D video. Can be shortened.
  • control means selects one of the first processing means and the second processing means based on the selection result of the selection means prior to the processing of the first and second processing means.
  • a memory area corresponding to the number of planes necessary for the processed processing unit may be secured.
  • this video processing apparatus it is possible to secure an image plane memory for processing a stream including display data before analyzing the contents of the stream including display data to be displayed together with the 3D video.
  • the receiving means receives a data stream in MPEG2-TS format including a stream related to content including 3D video on which the auxiliary display object is displayed, and the data block is included in the data stream.
  • the selection means may select one of the first processing means and the second processing means based on the identification information extracted from the PMT.
  • the 3D subtitle display mode is identified based on the mode identification information included in the PMT to be analyzed. Can do.
  • the PMT includes a description portion of information relating to each ES constituting the stream related to the content and a description portion of information common to the stream related to the content
  • the identification information includes the content Included in the description portion of information common to the stream related to the content
  • the selecting means is configured to use the first processing means and the first processing means based on the identification information extracted from the description portion of information common to the stream related to the content.
  • One of the second processing means may be selected.
  • this video processing apparatus it is possible to identify the display mode such as 3D subtitles based on the mode identification information described in the description part of the information common to the stream related to the content.
  • the PMT has a description part of information regarding each ES constituting the stream related to the content and a description part of information common to the stream related to the content.
  • the first processing means and the second processing means are included in a description part of the information about each ES, and the selection means is based on the identification information extracted from the description part of the information about each ES. Either of these may be selected.
  • this video processing apparatus it is possible to identify the display mode such as 3D subtitles based on the mode identification information described in the description part of the information for each ES constituting the content.
  • a data coding scheme identifier is included in a description portion of information regarding each of the ESs, the identification information is included in the data coding scheme identifier, and the selection unit includes: One of the first processing unit and the second processing unit may be selected based on the identification information extracted from the data encoding scheme identifier.
  • this video processing apparatus it is possible to identify the display mode such as 3D subtitles based on the mode identification information described in the data encoding scheme identifier among the information for each ES constituting the content.
  • the receiving means receives an MPEG2-TS format data stream from a broadcasting station, the data block is an EIT included in the data stream, and the EIT includes both the auxiliary display objects.
  • a description part of information related to the 3D video to be displayed is included, and the identification information is included in a description part of information related to the 3D video on which the auxiliary display object is displayed together.
  • One of the first processing means and the second processing means may be selected based on the identification information extracted from the description portion of the information related to the 3D video on which the display object is displayed.
  • the 3D subtitle display mode is identified based on the mode identification information included in the transmitted EIT. Can do.
  • the information relating to the 3D video on which the auxiliary display object is displayed includes a data content descriptor, and the identification information is included in the data content descriptor, and the selection means May select one of the first processing means and the second processing means based on the identification information extracted from the data content descriptor.
  • this video processing apparatus it is possible to identify the 3D subtitle display mode based on the mode identification information described in the data content descriptor included in the EIT.
  • the receiving unit receives at least streaming data distributed using an IP network and reproduction control information including information for reproducing the streaming data, and the data block includes the reproduction control. And the selecting means selects either the first processing means or the second processing means based on the identification information extracted from the data block. Good.
  • this video processing apparatus it is possible to identify the 3D subtitle display mode based on the mode identification information described in the reproduction control information for reproducing the IPTV streaming data.
  • the receiving means includes VOD navigation data distributed using at least an IP network, and VOD streaming data including a stream related to a content including 3D video on which the auxiliary display object is displayed together.
  • the data block is included in the navigation data, and the selecting means is configured to select the first processing means and the second processing based on the identification information extracted from the data block. Any one of the means may be selected.
  • this video processing apparatus it is possible to identify the display mode such as 3D subtitles based on the mode identification information described in the navigation data to be processed before receiving the VOD streaming data.
  • the receiving means receives an MPEG2-TS format data stream including a stream related to the content including 3D video on which the auxiliary display object is displayed, and relates to the content included in the data stream.
  • the receiving means Based on the information of the hyperlink descriptor described in the BIT, further comprising an acquisition means for acquiring the auxiliary display object reproduction stream from the IP network using HTTP, the data block responding to the acquisition request An HTTP response header, wherein the selection means selects one of the first processing means and the second processing means based on the identification information extracted from the response header.
  • this video processing apparatus it is possible to identify the 3D subtitle display mode based on the mode identification information described in the HTTP response header.
  • a video processing method is a video processing method of a video processing apparatus for displaying an auxiliary display object together with 3D video, and is based on information representing the auxiliary display object in one plane.
  • a first processing step having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object, and information representing the auxiliary display object in two planes.
  • a second processing step having a function of generating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object, and at least one auxiliary display object and one plane;
  • a stream for reproducing auxiliary display material including information represented using one of the planes, and a data block including identification information indicating whether the auxiliary display material is represented by one plane or two planes.
  • the identification information in the data block is extracted, and a first processing step is performed according to the identification information.
  • a selection step for selecting one of the second processing steps, and after the selection by the selection step, information indicating the auxiliary display object that is the content of the auxiliary display object reproduction stream is obtained as the first processing step and the second processing step.
  • this video processing method it is possible to determine the display mode such as 3D subtitles without analyzing the content of the stream including the display data to be displayed together with the 3D video, and until the display data is displayed together with the 3D video. Can be shortened.
  • a video processing program is a video processing program for a video processing apparatus for displaying an auxiliary display object together with a 3D video image.
  • a first processing step having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information represented by a plane;
  • a second processing step having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information represented by two planes; and at least the auxiliary display
  • An auxiliary display object reproduction stream including information representing an object using one plane or two planes, and the auxiliary display object is represented by either one plane or two planes.
  • this video processing program it is possible to determine the display mode such as 3D subtitles without analyzing the content of the stream including the display data to be displayed together with the 3D video, and until the display data is displayed together with the 3D video. Can be shortened.
  • a recording medium for a video processing program is a recording medium that records a video processing program to be executed by a video processing device for displaying an auxiliary display object together with a 3D video image.
  • the processing apparatus has a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information representing the auxiliary display object in one plane. And a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information representing the auxiliary display object in two planes.
  • an auxiliary display object reproduction stream including information representing at least the one or two planes of the auxiliary display object, and one auxiliary display object
  • the information representing the auxiliary display object is sequentially supplied to the processing step selected by the selection step among the first processing step and the second processing step, and the auxiliary display object for the right eye and the auxiliary display for the left eye
  • a video processing program for causing the video processing device to execute control steps for creating and outputting an object is recorded.
  • the recording medium of this video processing program it is possible to determine the display mode such as 3D subtitles without analyzing the content of the stream including the display data to be displayed together with the 3D video. Time to display can be shortened.
  • An integrated circuit constituting an image processing apparatus is an integrated circuit constituting an image processing apparatus for displaying an auxiliary display object together with a 3D image.
  • a first processing unit having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information represented by a plane;
  • a second processing means having a function of creating and outputting a right-eye auxiliary display object and a left-eye auxiliary display object for 3D display of the auxiliary display object based on information represented by two planes; and at least the auxiliary display An auxiliary display object reproduction stream including information representing an object using one plane or two planes, and identification information indicating whether the auxiliary display object is represented by one plane or two planes
  • receiving means for receiving the data block, and prior to referring to the content of the auxiliary display object reproduction stream, the identification information in the data block is extracted, and the first processing is performed according to the identification information.
  • a control unit that sequentially supplies the processing unit selected by the selection unit among the second processing units to generate and output the right-eye auxiliary display object and the left-eye auxiliary display object.
  • the integrated circuit constituting the video processing apparatus it is possible to determine the display mode such as 3D subtitles without analyzing the content of the stream including the display data to be displayed together with the 3D video. It is possible to shorten the time until the image is displayed together with the video.
  • the video processing apparatus is effective for a video processing apparatus that displays subtitles and data broadcasting data together with 3D video.
  • Video processing device 301 Reception unit 302 Demultiplexer 303 Analysis unit 304 Determination unit 305 Video decoding unit 306 Offset acquisition unit 307 Left eye video output unit 308 Right eye video output unit 309 Subtitle processing unit 310 Data broadcast processing unit 311 Display video output unit 701 Subtitle decoding means 702 Subtitle plane memory 703 Left caption shift output means 704 Right caption shift output means 801 Left caption decoding means 802 Left caption plane memory 803 Left caption shift output means 804 Right caption decoding means 805 Right caption plane memory 806 Right caption shift output means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 映像処理装置は、少なくとも3D映像と共に表示する補助表示物を符号化した補助表示物再生用ストリームと補助表示物の3D表示のための処理手段の識別情報を含むデータブロックとを受信し、補助表示物再生用ストリームの内容の参照に先行して、データブロック内の識別情報を抽出して補助表示物の3D表示のための処理手段を特定し、特定結果に応じた処理手段で、補助表示物再生用ストリームを処理し、右目用補助表示物及び左目用補助表示物の作成及び出力を行う。

Description

映像処理装置、方法、プログラム、記録媒体及び集積回路
 本発明は、ストリームデータを処理する技術に関し、特に3D映像と共に表示されるべき字幕等のデータの処理技術に関する。
 放送や、インターネットなどネットワークでの映像配信において、映画などのデジタル映像コンテンツの字幕は、映像データとは別のデータとして、映像データと関連付けられて配信され、受信装置側でデジタル映像コンテンツと共に表示される。
 視聴者が立体的な映像として見ることができる3Dデジタル映像コンテンツ(以下、「3D映像」と呼ぶ。)においても、立体的な映像として見える仕組みを導入していないデジタル映像コンテンツ(以下、「2D映像」と呼ぶ。)において字幕を表示するのと同様に、字幕を3D映像と共に表示する。ところが、2D映像と同じように3D映像に字幕を重ね合わせると、3D映像は画面の手前や奥に広がりがあるので、字幕が3D映像の奥に位置したり、手前に位置したりして見づらくなる。そこで、これを改善するために、3D映像と共に表示する字幕(以下、「3D字幕」と呼ぶ。)を3D空間内に適切に配置して表示するための技術として、1plane+offsetモードと2plane+offsetモードによる処理技術が提案されている(非特許文献1)。なお、デジタル放送において2D映像や3D映像と共に表示するために配信される表示データには、字幕以外にもテロップやデータ放送用の表示データ等があり、これらのデータを3D映像と共に表示する際に、上記の処理技術が応用できる。以下、字幕、テロップ、データ放送用の表示データなどを総称して「字幕等表示データ」と呼ぶこととする。また、1plane+offsetモード、2plane+offsetモードをまとめて3D字幕等表示モードと呼ぶこととする。
Blu-ray Disc Association、″White Paper Blu-ray Disc Read-Only Format″、p.39~p.42、″6.3 3D graphics with 3D video″、[online]、2010年07月、Blu-ray Disc Association、[2012年4月2日検索]、インターネット〈URL:http://www.blu-raydisc.com/assets/Downloadablefile/BD-ROM_Audio_Visual_Application_Format_Specifications-18780.pdf
 しかしながら、3D字幕等表示モードが1plane+offsetモードであるか2plane+offsetモードであるかは、字幕等表示データを含むストリームの内容を解析することにより判別し得るが、字幕等表示データを含むストリームの内容を解析して3D字幕等表示モードを判別するのでは、字幕等表示データを3D映像と共に表示するまでの処理に比較的大きな時間がかかる。このため、映像処理装置において、迅速に3D字幕等表示モードを判別できることが望まれる。そこで、映像配信システムから、新たに3D字幕等表示モードを迅速に識別できる情報を含めたストリームを配信することが考えられている。
しかしながら、映像処理装置は、このような情報を用いた判別処理に対応することができず、このままでは新たな映像配信システムの良さを生かすことができない。このため、新たな映像配信システムに対応する映像処理装置の開発が喫緊の課題となっている。
本発明は、上記課題を解決するためになされたものであり、映像配信システムから配信された3D字幕等表示モードを迅速に識別できる情報を含めたストリームを処理し、迅速に3D字幕等表示モードを判別することのできる映像処理装置を提供することを目的とする。
 上記課題を解決するために本発明に係る映像処理装置は、3D映像と共に補助表示物を表示するための映像処理装置であって、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理手段と、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理手段と、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを含んで構成される伝送ストリームを受信する受信手段と、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理手段及び第2の処理手段のいずれかを選択する選択手段と、前記選択手段による前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理手段及び第2の処理手段のうち当該選択手段により選択された処理手段に対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御手段とを備える。
 本発明に係る映像処理装置は、映像配信システムから配信された3D字幕等表示モードを迅速に識別できる情報を含めたストリームを処理し、迅速に3D字幕等表示モードを判別することができる。
PMTのデータ構造を示す図。 記述子arib_3d_offsetmode_infoのデータ構造を示す図。 subtitle_offset_mode及びbml_offset_modeそれぞれの値と3D字幕等表示モードの関係を示す図。 本発明の実施の形態に係る映像処理装置300の機能構成を示すブロック図。 字幕処理手段309の機能ブロック図。 データ放送処理手段310の機能ブロック図。 映像処理装置300の処理を示すフローチャート。 実施の形態1における判定手段304の処理を示すフローチャート。 記述子arib_3d_offsetmode_infoのデータ構造の第1の変形例を示す図。 図9の変形例におけるsubtitle_offset_mode及びbml_offset_modeそれぞれの値と3D字幕等表示モードの関係を示す図。 記述子arib_3d_offsetmode_infoのデータ構造の第2の変形例を示す図。 1plane+offsetモードの概念を示す図。 2plane+offsetモードの概念を示す図。 多重化装置3000の機能構成を示すブロック図。 データ符号化方式記述子のデータ構造を示す図。 data_component_idの値と3D字幕等表示モードの関係を示す図。 実施の形態2における判定手段304の処理を示すフローチャート。 additional_arib_bxml_infoのデータ構造を示す図。 additional_arib_carousel_infoのデータ構造を示す図。 EITのデータ構造を示す図。 データコンテンツ記述子のデータ構造を示す図。 実施の形態5における判定手段304の処理を示すフローチャート。 arib_bxml_infoのデータ構造を示す図。 arib_bxml_infoのarib_carousel_infoに記述されるデータの構成を示す図。 ERIのデータ構造を示す図。 電子映像配信システム2200の概略構成図である。 電子映像配信システム2200の処理のシーケンスを示す図。 (a)3D字幕等表示モードの識別情報を記載するERIにおけるタグ要素の第1の変形例を示す図、(b)同じく第2の変形例を示す図。 ECGメタデータのデータ構造を示す図。 3D字幕等表示モードの識別情報を記載するECGメタデータにおけるタグ要素の変形例を示す図。 (a)映像処理装置が送信するHTTP-GETリクエストの一例を示す図。(b)1plane+offsetモードの場合のHTTPレスポンンスヘッダの応答の一例を示す図。(c)2plane+offsetモードの場合のHTTPレスポンンスヘッダの応答の一例を示す図。 実施の形態9におけるデータ放送用データ提供サーバの概略構成図。
<本発明に係る一形態を得るに至った経緯>
 3D映像の視聴者は、平面的な2D映像の視聴時とは異なって、映像が画面の手前方向や奥方向に広がりをもつように感じる。
 このような3D映像と共に、字幕等表示データを表示させる場合には、字幕等表示データも、3D映像に合わせて適切に3D空間内に配置して表示しなければ、視聴者にとって見づらい表示となる可能性がある。
 3D映像と共に3D空間内に適切に字幕等表示データを表示する方法として、1plane+offsetモードと2plane+offsetモードの方法がある(これら3D字幕等表示モードにそれぞれの処理の詳細については後述する。)が、字幕等表示データがどちらの方式で処理されるデータであるかは、字幕等表示データを含むストリームの内容を解析しなければ、判別できない。
 3D字幕等表示モードのそれぞれのモードでは、処理方法が異なり、デコーダの数やメモリ量など処理に必要なリソースが異なる。また、これらのリソースは、映像処理装置の他の処理(例えば、裏番組の録画や、録画済みの番組のダビングなどの処理)と共有で使用され、各処理の実行の際には、リソースの確保のために他の処理と調停を行う必要がある。そのため、解析してからリソースを確保して、データを処理するのでは、3D映像と共に表示されるまでに時間がかかる。
 本発明者らは、映像処理装置において、字幕等表示データのストリームを処理する前に参照されるべきデータブロックに着目し、このデータブロックに3D字幕等表示モードを識別するための情報(以下、「モード識別情報」と呼ぶ。)を記述したデータを配信するシステムを想到するに至った。このシステムでは、モード識別情報を3D映像と共に表示する表示データを含むデータの処理に先だって処理されるデータブロックに含ませて配信するので、映像処理装置は、3D映像と共に表示する表示データを解析して処理する前に、このモード識別情報に基づいて、3D字幕等表示モードを識別し、それぞれのモードで必要なリソースの確保を開始することができる。これにより、3D映像と共に表示する字幕等表示データが3D映像と共に表示されるまでの時間を短縮できる。
 以下、本発明に係る実施の形態について図を参照しながら説明する。
<実施の形態1>
 <1.1 概要>
 本発明に係る実施の形態の映像処理装置は、放送やデータ配信で用いられているMPEG2-TS(Transport Stream)形式のデータストリームを受信する。
 データストリームの送信側(例えば放送局)は、番組(プログラム)を構成する3D映像データ、音声データ、字幕データ、データ放送用データなどをそれぞれ符号化してES(Elementary Stream)を生成し、多重化したデータストリームを配信する。なお、本実施の形態でいうコンテンツの概念には、このように放送やデータ配信される番組を含むものとする。なお、多重化したデータストリームを生成する多重化装置については後述する。このとき、データストリームの送信側は、従来のMPEG2-TS形式のデータストリームに含まれるSI(Service Information)/PSI(Program Specific Information)にモード識別情報を記載して送信する。
 映像処理装置は、受信したデータストリームに含まれるSI/PSIに記載されているモード識別情報を、字幕等表示データを含むストリームを処理する前に、抽出して解析することにより3D字幕等表示モードを判別する。
 <1.2 データ>
 以下、本実施の形態で用いるデータのデータ構造について説明する。
 本実施の形態ではMPEG2-TS規格に規定されているSI/PSI情報を利用する。 SIとは番組に関する情報を映像処理装置が解釈可能な形式で符号化した各種テーブルの総称である。これは、ARIB(The Association of Radio Industries and Businesses)によって規定されており、例えば、NIT(Network Information Table)、EIT(Event Information Table)のテーブルがこれに含まれる。
 PSIとはTSに含まれる各ESがどの番組に属しているかを記載した情報を映像処理装置が解釈可能な形式で符号化した各種テーブルの総称である。ISO/IEC13818-1及びARIBが策定した規格に規定されており、例えば、PAT(Program Association Table)やPMT(Program Map Table)のテーブルがこれに含まれる。
 本実施の形態1では、モード識別情報を記載するテーブルとしてPMTを用いる。
 図1はPMTのデータ構造を示す図である。
 PMTは、配信する番組の情報や、番組のES構成及び、それぞれのESに関する情報を格納する。
 個々のフィールドについては、ISO/IEC13818-1(MPEG-2)にて規定されているため説明を省略し、本実施の形態に関連する部分のみ説明を行なう。
 PMTには、同図のファーストループ400のdescriptor()の箇所と、セカンドループ402のdescriptor()の箇所に記述子を記述することができる。
 本実施の形態では、1つの番組の途中では3D字幕等表示モードは変わらないものとする。このため、番組全体で共通な情報に関する記述子を定義する箇所であるPMTのファーストループ400に新たにarib_3d_offsetmode_infoという記述子を記述し、モード識別情報として、subtitle_offset_modeと、bml_offset_modeとをこの記述子に記述して、3D字幕等表示モードの判定に用いる。
 図2にarib_3d_offsetmode_info記述子のデータ構造を示す。
 arib_3d_oiffsetmode_info記述子の中で、subtitle_offset_modeという1bitのフィールドが字幕に関する3D字幕等表示モードを、bml_offset_modeという1bitのフィールドがデータ放送に関する3D字幕等表示モードをそれぞれ識別するために用いるフィールドである。
 図3は、subtitle_offset_mode及びbml_offset_modeそれぞれの値と3D字幕等表示モードの関係を表す。図3では、subtitle_offset_mode及びbml_offset_modeの値が「0」の場合は、1plane+offsetモードを示し、「1」の場合は2plane+offsetモードを示す。
 本実施の形態の映像処理装置300は、図2で示したarib_3d_offsetmode_info記述子が、図1で示したファーストループ400のdescriptor()の箇所に記載されたPMTを受信する。
 <1.3 構成>
 図4は、本発明の実施の形態に係る映像処理装置300の機能ブロック図である。
 映像処理装置300は、受信部301、デマルチプレクサ302、解析手段303、判定手段304、ビデオデコード手段305、オフセット取得手段306、左目映像出力手段307、右目映像出力手段308、字幕処理手段309、データ放送処理手段310、及び表示用映像出力手段311を含む構成である。
 映像処理装置300は、図示されていないプロセッサ、及びRAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクを含む構成である。また、映像処理装置300の各機能ブロックは、ハードウェアとして構成されているか、もしくは前記プロセッサが前記ROMや前記ハードディスクに記憶されているプログラムを実行することで実現される。
(受信部301)
 受信部301は、チューナーであり、放送局や配信センターから配信されたMPEG2-TS形式のストリームデータを受信する。
(デマルチプレクサ302)
 デマルチプレクサ302は、受信部301で受信したMPEG2-TSのストリームデータからPATを抽出し解析手段303へ出力する機能を備える。また、解析手段303でPATを解析して得られるPMTのPIDの情報に従って、PMTのPIDを持つTSパケットを解析手段303へ出力する機能を備える。また、解析手段303でPMTを解析して得られる再生対象の番組(プログラム)に関係するTSパケットの持つPIDを選択する機能を備える。そして、PIDに基づいてTSパケットの種類別に、SI/PSI情報のパケットは解析手段303へ、映像データのパケットはビデオデコード手段305へ、字幕データのパケットは字幕処理手段309へ、データ放送に関するデータのパケットはデータ放送処理手段310へ、それぞれ振り分けて出力する機能を備える。
(解析手段303)
 解析手段303は、PAT、PMT、NIT、EIT、BIT(Broadcaster Information Table)などのSI/PSIの内容を解析する機能と、PATの解析の結果得られる再生対象の番組(プログラム)のPMTのPIDをデマルチプレクサ302に出力する機能と、PMTの解析の結果得られる再生対象の番組を構成する映像や音声などのデータそれぞれのPIDをマルチプレクサ302に出力する機能と、PMTの解析の結果から得られるモード識別情報を判定手段304に出力する機能とを備える。
(判定手段304)
 判定手段304は、解析手段303から出力されたモード識別情報を基に、字幕処理手段309及びデータ放送処理手段310でのデータの処理に使用する3D字幕等表示モードを選択し、選択結果を字幕処理手段309及びデータ放送処理手段310に出力する機能を備える。また、選択した3D字幕等表示モードでの処理に必要なデコーダとプレーンメモリを確保する機能を備える。
(ビデオデコード手段305)
 ビデオデコード手段305は、デマルチプレクサ302で振り分けられて入力された3D映像のデータを含むTSパケットから符号化された3D映像データを抽出して復号し、左目用の映像フレームを左目映像出力手段307に、右目用の映像フレームを右目映像出力手段308に、それぞれ出力する機能を備える。例えば、サイドバイサイド方式による3D映像を復号処理したり、MPEG4-MVC形式の3D映像を復号処理したりする。
(オフセット取得手段306)
 オフセット取得手段306は、ビデオデコード手段305で復号する3D映像のデータを含むTSパケットに含まれている、3D映像と共に表示する字幕等のデータを3D表示するための処理に用いるoffset値を取得する機能を備える。また、取得したoffset値は、字幕データがある場合には、字幕処理手段309に出力し、データ放送用の表示データがある場合には、データ放送処理手段310に出力する機能を備える。
(左目映像出力手段307)
 左目映像出力手段307は、ビデオデコード手段305が出力した左目用映像フレームを表示用映像出力手段311へ出力する機能を備える。左目用映像フレームは、表示用映像出力手段311に出力される前に、左目用字幕映像や左目用データ放送映像が存在すれば、これらの映像と合成され、左目用映像として表示用映像出力手段311に出力される。
(右目映像出力手段308)
 右目映像出力手段308は、ビデオデコード手段305が出力した右目用映像フレームを表示用映像出力手段311へ出力する機能を備える。右目用映像フレームは、表示用映像出力手段311に出力される前に、右目用字幕映像や右目用データ放送映像が存在すれば、これらの映像と合成され、右目用映像として表示用映像出力手段311に出力される。
(字幕処理手段309)
 図5は、字幕処理手段309の機能ブロック図である。
 字幕処理手段309は、第1の字幕処理手段700、第2の字幕処理手段800、及びスイッチ600を含む構成である。
 スイッチ600は、判定手段304の判定結果に従って、デマルチプレクサ302で振り分けられ出力した字幕の表示データを含むパケットを、第1の字幕処理手段700に出力するか、第2の字幕処理手段800に出力するのかを切り替える機能を備える。
 第1の字幕処理手段700は、1plane+offsetモードで字幕の表示データを含むパケットを処理するためのものであり、字幕デコード手段701、字幕プレーンメモリ702、左字幕シフト出力手段703、及び右字幕シフト出力手段704を含む構成である。
 字幕デコード手段701は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられた字幕データを含むパケットを復号して字幕プレーンの映像を生成する。
 字幕プレーンメモリ702は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、字幕デコード手段701で生成した字幕プレーンの映像を保存する。
 左字幕シフト出力手段703は、オフセット取得手段306が取得したoffset値に従って、字幕プレーンメモリ702に保存する字幕プレーンの映像を左目用にシフトして左目用字幕映像を出力する。
 右字幕シフト出力手段704は、オフセット取得手段306が取得したoffset値に従って、字幕プレーンメモリ702に保存する字幕プレーンの映像を右目用にシフトして右目用字幕映像を出力する。
 第2の字幕処理手段800は、2plane+offsetモードで字幕の表示データを含むパケットを処理するためのものであり、左字幕デコード手段801、左字幕プレーンメモリ802、左字幕シフト出力手段803、右字幕デコード手段804、右字幕プレーンメモリ805、及び右字幕シフト出力手段806を含む構成である。
 左字幕デコード手段801は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられた左目用の字幕データを含むパケットを復号して左字幕プレーンの映像を生成する。
 左字幕プレーンメモリ802は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、左字幕デコード手段801で生成した左字幕プレーンの映像を保存する。
 左字幕シフト出力手段803は、オフセット取得手段306が取得したoffset値に従って、左字幕プレーンメモリ802に保存する左字幕プレーンの映像を左目用にシフトして左目用字幕映像を出力する。
 右字幕デコード手段804は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられた右目用の字幕データを含むパケットを復号して右字幕プレーンの映像を生成する。
 右字幕プレーンメモリ805は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、右字幕デコード手段804で生成した右字幕プレーンの映像を保存する。
 右字幕シフト出力手段806は、オフセット取得手段306が取得したoffset値に従って、右字幕プレーンメモリ805に保存している右字幕プレーンの映像を右目用にシフトして右目用字幕映像を出力する。
 なお、図5は字幕処理手段309の構成は論理的構成を示したものであり、字幕デコード手段701、左字幕デコード手段801、右字幕デコード手段804の物理的字幕デコーダは、判定手段304が処理のたびに割り当てたものである。したがって、同一の物理的字幕デコーダが、必ずしも字幕デコード手段701、左字幕デコード手段801、右字幕デコード手段804のうちのひとつに毎回割り当られるとは限らず、また、これらのいずれにも使用されることがありうる。また、同様に、字幕プレーンメモリ702、左字幕プレーンメモリ802、右字幕プレーンメモリ805の物理的メモリ領域は、判定手段304が処理のたびに割り当てたものである。したがって、同一の物理的メモリ領域が、必ずしも字幕プレーンメモリ702、左字幕プレーンメモリ802、右字幕プレーンメモリ805のうちのひとつに毎回割り当てられるとは限らず、また、これらのいずれにも使用されることがある。また、左字幕シフト手段703と右字幕シフト手段803は物理的には同一のものであっても良い。また、右字幕シフト手段704と右字幕シフト手段806は物理的には同一のものであっても良い。
(データ放送処理手段310)
 図6は、データ放送処理手段310の機能ブロック図である。
 データ放送処理手段310は、第1のデータ放送処理手段900、第2のデータ放送処理手段1000、及びスイッチ601を含む構成である。
 スイッチ601は、判定手段304の判定結果に従って、デマルチプレクサ302で振り分けられ出力したデータ放送用のデータを含むパケットを、第1のデータ放送処理手段900に出力するか、第2のデータ放送処理手段1000に出力するのかを切り替える機能を備える。
 第1のデータ放送処理手段900は、1plane+offsetモードでデータ放送用のデータのパケットを処理するためのものであり、
 データ放送デコード手段901、データ放送プレーンメモリ902、左データ放送シフト出力手段903、及び右データ放送シフト出力手段904を含む構成である。
 データ放送デコード手段901は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられたデータ放送用のデータを含むパケットを復号してデータ放送プレーンの映像を生成する。
 データ放送プレーンメモリ902は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、データ放送デコード手段901で生成したデータ放送プレーンの映像を保存する。
 左データ放送シフト出力手段903は、オフセット取得手段306が取得したoffset値に従って、データ放送プレーンメモリ902に保存するデータ放送プレーンの映像を左目用にシフトして左目用データ放送映像を出力する。
 右データ放送シフト出力手段904は、オフセット取得手段306が取得したoffset値に従って、データ放送プレーンメモリ902に保存するデータ放送プレーンの映像を右目用にシフトして右目用データ放送映像を出力する。
 第2のデータ放送処理手段1000は、2plane+offsetモードでデータ放送用のデータのパケットを処理するためのものであり、左データ放送デコード手段1001、左データ放送プレーンメモリ1002、左データ放送シフト出力手段1003、右データ放送デコード手段1004、右データ放送プレーンメモリ1005、及び右データ放送シフト出力手段1006を含む構成である。
 左データ放送デコード手段1001は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられた左目用のデータ放送用のデータを含むパケットを復号して左データ放送プレーンの映像を生成する。
 左データ放送プレーンメモリ1002は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、左データ放送デコード手段1001で生成した左データ放送プレーンの映像を保存する。
 左データ放送シフト出力手段1003は、オフセット取得手段306が取得したoffset値に従って、左データ放送プレーンメモリ1002に保存する左データ放送プレーンの映像を左目用にシフトして左目用データ放送映像を出力する。
 右データ放送デコード手段1004は、デマルチプレクサ302でMPEG2-TSストリームデータから振り分けられた右目用のデータ放送用のデータを含むパケットを復号して右データ放送プレーンの映像を生成する。
 右データ放送プレーンメモリ1005は、判定手段304が、映像処理装置300の持つRAM等の記憶媒体の一部を割り当てた領域であり、右データ放送デコード手段1004で生成した右データ放送プレーンの映像を保存する。
 右データ放送シフト出力手段1006は、オフセット取得手段306が取得したoffset値に従って、右データ放送プレーンメモリ1005に保存している右データ放送プレーンの映像を右目用にシフトして右目用データ放送映像を出力する。
 なお、図6はデータ放送処理手段310の構成は論理的構成を示したものであり、データ放送デコード手段901、左データ放送デコード手段1001、右データ放送デコード手段1004の物理的データ放送デコーダは、判定手段304が処理のたびに割り当てたものである。したがって、同一の物理的データ放送デコーダが、必ずしもデータ放送デコード手段901、左データ放送デコード手段1001、右データ放送デコード手段1004のうちのひとつに毎回割り当られるとは限らず、また、これらのいずれにも使用されることがありうる。また、同様に、データ放送プレーンメモリ902、左データ放送プレーンメモリ1002、右データ放送プレーンメモリ1005の物理的メモリ領域は、判定手段304が処理のたびに割り当てたものである。したがって、同一の物理的メモリ領域が、必ずしも字幕プレーンメモリ902、左字幕プレーンメモリ1002、右字幕プレーンメモリ1005のうちのひとつに毎回割り当てられるとは限らず、また、これらのいずれにも使用されることがある。また、左字幕シフト手段1003と右字幕シフト手段1003は物理的には同一のものであっても良い。また、右字幕シフト手段904と右字幕シフト手段1006は物理的には同一のものであっても良い。
(表示用映像出力手段311)
 表示用映像出力手段311は、左目映像出力手段307、右目映像出力手段308、字幕処理手段309、及びデータ放送処理手段310のそれぞれから出力された表示データを合成して得られた右目用映像と左目用映像とを外部の表示装置312に出力する機能を備える。
 表示装置312は、出力された左目用映像と右目用映像とを用いて3D映像として視聴可能な機能を備える。表示装置312は、例えば3D映像対応テレビである。
 <1.4 動作>
 以下、放送を受信したときを例に映像処理装置300の処理動作について説明する。
 図7は、映像処理装置の処理を示すフローチャートである。
 まず、受信部301は、放送を受信し、放送に含まれるMPEG2-TSストリームをデマルチプレクサ302へ出力する(ステップS10)。
 デマルチプレクサ302は、MPEG2-TSストリームからPATのTSパケットを抽出し、解析手段303へ出力する(ステップS11)。
 解析手段303は、デマルチプレクサ302から入力されたTSパケットからPATを抽出し、その内容を解析し、再生する番組に関するPMTのPIDを取り出し、デマルチプレクサ302に通知する(ステップS12)。
 デマルチプレクサ302は、PMTのPIDを持つTSパケットを解析手段303へ出力する(ステップS13)。
 解析手段303は、受け取ったTSパケットからPMTを抽出し、その内容を解析する(ステップS14)。
 解析手段303は、PMTのファーストループ400にarib_3d_offsetmode_info記述子の記載があるかを調べ、arib_3d_offsetmode_info記述子が記載されていれば、その内容を判定手段304に出力する(ステップS15)。
 判定手段304は、arib_3d_offsetmode_infoの内容を解析し、字幕処理手段309及びデータ放送処理手段310で使用する3D字幕等表示モードを判別する(ステップS16)。なお、ステップS16の詳しい処理については後述する。
 判定手段304は、判定結果を字幕処理手段309及びデータ放送処理手段310に通知する(ステップS17)。更に、判定手段304は、解析手段303に判定結果通知完了を通知する(ステップS18)。
 解析手段303は、判定結果通知完了の通知を受けると、再生する番組の映像、字幕、データ放送用の表示データそれぞれを含むESのPIDをデマルチプレクサ302に通知する(ステップS19)。なお、これらのESのPIDはPMTを解析することによって取得する。
 デマルチプレクサ302は、受信したTSパケットのうち、解析手段303から通知されたPIDのTSパケットをPIDに応じて、ビデオデコード手段305、字幕処理手段309、データ放送処理手段310にそれぞれ出力する(ステップS20)。
 TSパケットが入力されたビデオデコード手段305、字幕処理手段309、データ放送処理手段310は、それぞれ入力されたTSパケットから映像データ、字幕データ、データ放送用データを抽出し、表示用の映像を生成して出力する(ステップS21)。これらの表示用の映像は、合成され表示用映像出力手段311から出力される。
 以下、ステップS16における判定手段304の動作を詳しく説明する。
 図8は、判定手段304におけるステップS16の処理の詳細を示すフローチャートである。
 判定手段304は、解析手段303から送られたarib_3d_offsetmode_infoの中のsubtitle_offset_modeの値が「0」あるか否かを判定し、「0」である場合(ステップS31:Yes)は、字幕処理手段309での3D字幕等表示モードが1plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS32)。次に、判定手段304は、判定結果を字幕処理手段309に通知する(ステップS33)。ステップS33の処理が完了したら、ステップS37に進む。
 一方、ステップS31でNoの場合は、判定手段304は、arib_3d_offsetmode_infoの中のsubtitle_offset_modeの値が「1」であるか否かを判定し、「1」である場合(ステップS34:Yes)は、字幕処理手段309での3D字幕等表示モードが2plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS35)。次に、判定手段304は、判定結果を字幕処理手段309に通知する(ステップS36)。ステップS36の処理が完了したら、ステップS37に進む。
 一方、ステップS34でNoの場合には、ステップS37に進む。
 ステップS33、ステップS36の処理が完了及びステップS34でNoの場合には、判定手段304は、arib_3d_offsetmode_infoの中のbml_offset_modeの値が「0」か否かを判定し、「0」である場合(ステップS37:Yes)は、データ放送処理手段310での3D字幕等表示モードが1plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS38)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知する(ステップS39)。
 一方、ステップS37でNoの場合には、判定手段304は、arib_3d_offsetmode_infoの中のbml_offset_modeの値が「1」であるか否かを判定し、「1」である場合(ステップS40:Yes)は、データ放送処理手段310での3D字幕等表示モードが2plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS41)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知する(ステップS42)。
 <1.5 実施の形態1の変形例>
(1)新規に定義する記述子の名称は、arib_3d_offsetmode_infoでなくてもよい。既に規格化されて定義されている記述子の名称と異なり、且つモード識別情報が記載されている記述子であることが認識できる名称であれば、任意の名称を用いてよい。
また同様に、subtitle_offset_mode及びbml_offset_modeの名称も任意の名称を用いてよい。
 (2)上記実施の形態においては、字幕及びデータ放送用の3D字幕等表示モードの判別のための情報を、arib_3d_offsetmode_info記述子の中のsubtitle_offset_mode及びbml_offset_modeとして、それぞれ1bitを割り当てたフィールドを用いて表したが、1bitのフィールドで記述することに限らない。字幕等の3D字幕等表示モードを識別することができれば、1bitでなくてもよい。
 例えば、図9に示すように、arib_3d_offsetmode_info記述子の中で、subtitle_offset_mode及びbml_offset_modeそれぞれに2bitを割り当て、図10に示す値で表現する構成であっても良い。subtitle_offset_mode及びbml_offset_modeそれぞれが取り得る値として、「00」は、3D用の字幕や3D用のデータ放送用データがないことを意味し、「01」は、1plane+offsetモード、「10」は、2plane+offsetモードであることを意味する、なお、「11」は、使用禁止の値であるので、subtitle_offset_mode及びbml_offset_modeは、この値を使用しないことを意味する。
 なお、複数の字幕(例えば、1plane+offset用と2plane+offset用の両方)が用意されている場合には、subtitle_offset_modeの値として「11」を使用して、1plane+offset用と2plane+offset用とのデータがあるということを表すこととしてもよい。この場合、2plane+offsetモードでの字幕等の処理に必要なリソースが確保できない時には、1plane+offsetモードでの処理を行ったり、ユーザにどちらの3D字幕等表示モードで処理するか提示して、ユーザの指定したモードで処理するようにしてよい。また、データ放送用の表示データに対しても、bml_offset_modeについて、subtitle_offset_modeついて上記に示したのと同様の方法で処理を行ってもよい。
 (3)arib_3d_offsetmode_info記述子のデータ構造を図2で示すデータ構造としたが、3D字幕等表示モードを識別することができるフィールドを含むデータ構造であればどのようなデータ構造であってもよい。
 例えば、図11に示すデータ構造としてもよい。
 図11では、subtitle_1plan_offset_flagは1bitのフィールドであり、その値が「0」の場合は3D字幕等表示モードが1plane+offsetモードではなく、「1」の場合には3D字幕等表示モードが1plane+offsetモードであるとする。
 同様に、subtitle_2plan_offset_flagは1bitのフィールドであり、その値が「0」の場合は3D字幕等表示モードが2plane+offsetモードではなく、「1」の場合には3D字幕等表示モードが2plane+offsetモードであるとする。
 なお、subtitle_1plane_offset_flagとsubtitle_2plane_offset_flagが共に「0」の場合は3D字幕の表示データが付随していないとしてもよい。
 (4)さらに、図11に示すデータ構造において、番組に3D字幕が必ずひとつだけ付随する場合には、subtitle_1plane_offset_flagとsubtitle_2plane_offset_flagとは、共に「0」若しくは「1」となることを禁止するという制約を課してもよい。
 (5)一方、図11に示すデータ構造において、番組に複数の3D字幕(例えば、英語用と日本語用)が付随する場合には、そのうちのどれか一つでも3D字幕の3D字幕等表示モードが1plane+offsetモードである場合にsubtitle_1plane_offset_flagの値を「1」とし、すべての3D字幕の3D字幕等表示モードが1plane+offsetモードでない場合は、subtitle_1plane_offset_flagの値が「0」としてもよい。また、どれかひとつでも3D字幕の3D字幕等表示モードが2plane+offsetモードである場合にはsubtitle_2plane_offset_flagの値を「1」とし、すべての3D字幕の3D字幕等表示モードが2plane+offsetモードでない場合には、subtitle_2plane_offset_flagの値を「0」として、これらの値を用いて3D字幕等表示モードを判定してもよい。
 (6)図11において、bml_1plan_offset_flagとbml_2plane_offset_flagとは、3Dデータ放送用の表示データを3D表示する場合の3D字幕等表示モードを識別するためのものである。bml_1plan_offset_flagは、3D字幕におけるsubtitle_1plane_offset_flagに相当し、bml_2plane_offset_flagは、同じくsubtitle_2plane_offset_flagに相当するので上述したsubtitle_1plane_offset_flag及びsubtitle_2plane_offset_flagと同様の方法を用いて、放送用データの表示データの3D字幕等表示モードの判定を行ってもよい。
 (7)本実施の形態においては、PMTのファーストループ400にarib_3d_offsetmode_info記述子を記述するとしたが、PMTのES情報記載箇所401のセカンドループ402にarib_3d_offsetmode_info記述子を記載してもよい。
 すなわち、3D字幕等表示モードを識別するための情報が記載されたarib_3d_offsetmode_info記述子の記載箇所は、PMTにおいて記述子が記載できる箇所であればどこに記載されていてもよい。
 (8)arib_3d_offsetmode_info記述子を記載する代わりに、PMT内の未使用領域(reserved領域)を利用してもよい。すなわち、PMT内にモード識別情報が記述されていればよい。例えば、PMTのreserved領域のうち2bitを、図3に示すsubtitle_offset_modeとbml_offset_modeとして、モード識別情報の記載に利用してもよい。
 また、reserved領域のうちのいずれか4bitを利用してもよい。4bitを利用する場合には、図10に示すsubtitle_offset_modeとbml_offset_modeとして、モード識別情報を記載できる。また、4bitのreserved領域を用いる場合には、1bitずつ図11に示すsubtitle_1plane_offset_flag, subtitle_2plane_offset_flag, bml_1plane_offset_flag, bml_2plane_offset_flagとして、モード識別情報を記載してもよい。reserved領域は、例えば、図1で示すreserved403、reserved404及び、reserved405のいずれかを使用する。
 (9)また、PMTのreserved領域を利用して、モード識別情報を記述するとしたが、未使用領域の利用は、PMTのreserved領域に限らない。PMT内に記述される記述子のreserved領域を用いてもよい。
例えば、PMTに記述される既存の記述子中のreserved領域を利用し、上述のPMTのreserved領域を利用した方法と同様な方法でモード識別情報を記載してもよい。
 (10)また、上記の記述方法を組み合わせてもよい。
 <1.6 補足>
(3D字幕等表示モード)
 本実施の形態で判別する3D字幕等表示モードの1plane+offsetモードと2plane+offsetモードとについて、図を参照しながら説明する。
 図12は1plane+offsetモードの仕組みを概念的に示す図である。
 字幕プレーン画像100は符号化された後、字幕表示用ESとして3D映像のES等の他のデータのES(例えば、音声用ES)と共に多重化されて配信される。
 映像処理装置300は、受信した字幕表示用ESから抽出した符号化された字幕データを復号して、字幕プレーン画像100を作成する。
 映像処理装置300は、字幕プレーン画像100と、3D映像のESに含まれるoffsetの値とを用いて、3D字幕を表示するための左目用字幕画像と右目用字幕画像を生成する。
 offsetの値は、3D映像対して適切に字幕を重畳するためのもので、画素数で表される。映像と同期させる必要があるので、3D映像のESに含めて送信される。offsetの値は、3D映像データがMPEG形式で符号化されている場合はGOP(Group of Pictures)や各画像フレームのuser dataとして埋め込まれる。
 映像処理装置300は、3D映像の左目映像と重畳する左目用字幕画像を出力する際には、作成した字幕プレーン画像100をoffsetの値分の画素数だけ右にシフトした左目字幕画像101を出力し、3D映像の右目映像と重畳する右目用字幕画像を出力する際には、作成した字幕プレーン画像100をoffsetの値分の画素数だけ左にシフトした画像を右目字幕画像102として出力する。左目字幕画像101と右目字幕画像102とにより、字幕プレーン103は3D映像の画面よりも手前に位置しているように見える。
 なお、offsetの値がマイナスの値である場合は、字幕プレーン画像100の画像を左にシフトしたものを左目字幕画像101とし、右にシフトしたものを右目字幕画像102として出力する。この場合、字幕プレーン103は3D映像の画面よりも奥に位置しているように見える。
 このように、シフトするoffsetの値によって字幕プレーン103の奥行きを設定することができる。1plane+offsetでは、ひとつの字幕プレーン用メモリで処理可能なため、本3D字幕等表示モードによる処理は2plane+offsetモードに比べて少ないデコーダとメモリで済むというメリットがある。しかし、平面的な画像を画面より手前に配置、もしくは、画面より奥に配置するというもののため、字幕のテキストなどのオブジェクト自体を立体的に見せることはできないというデメリットがある。
 図13は、2plane+offsetモードの仕組みを概念的に示す図である。
2plane+offsetモードでは、字幕は、左目用の字幕データと右目用の字幕データの2つによって構成される。これら2つの字幕データは、それぞれ符号化されたあと、別々のESとして3D映像のES等の他のデータのES(例えば、音声のES)と共に多重化されて配信される。
 映像処理装置300は、受信した2つの字幕用ESをそれぞれ復号する。まず、左目用の字幕データは、左目用の字幕データ用に確保されたデコーダで復号して、左字幕プレーン画像200を作成する。一方、右目用の字幕データは、右目用の字幕データ用に確保されたデコーダで復号して右字幕プレーン画像201を作成する。
 映像処理装置300は、作成した左字幕プレーン画像200を、3D映像のESに含まれるoffsetの値分の画素数だけ右にシフトした画像を左目字幕画像202として生成し、作成した右字幕プレーン画像201を3D映像のESに含まれるoffsetの値分の画素数だけ左にシフトした画像を右目字幕画像203として生成する。左目字幕画像202は、左目映像と、右目字幕画像203は右目映像と重畳して出力することにより、字幕プレーン204は3D映像の画面より手前に位置しているように見える。なお、offsetの値がマイナスの値である場合は、左目字幕画像202は、左字幕プレーン画像200を左にシフトして生成し、右目字幕画像203は、右字幕プレーン画像201を右にシフトして生成する。この場合、字幕プレーン204は、3D映像の画面よりも奥に位置しているように見える。このように、シフトするoffsetの値によって字幕プレーン204の奥行きを設定することができる。
 2plane+offsetモードでは、左目用字幕画像と右目用字幕画像で別々の字幕プレーン画像を用いるので、字幕自体を立体的に見せることが可能である。しかし、字幕用に使用するデコーダや字幕プレーンメモリが2つずつ必要となるので、1plane+offsetモードに比べて映像処理装置300の処理の負荷が大きいというデメリットがある。
 なお、ARIB規格では、字幕プレーンに字幕及び文字スーパーをそれぞれ別途表示することができ、文字スーパーについても、字幕と同様の処理で立体視を実現できる。したがって、本実施の形態における字幕の概念には、ARIB規格における文字スーパーも含むものとする。
(多重化装置3000)
 次に、本実施の形態の映像処理装置300が受信する多重化したデータストリームを生成する多重化装置について説明する。
 図14は、放送や配信に用いられるMPEG2-TSを生成する多重化装置3000の概略構成図である。
 多重化装置3000は、多重化手段3001、ビデオデータ蓄積手段3002、ビデオ入力手段3003、オーディオデータ蓄積手段3004、オーディオ入力手段3005、字幕データ蓄積手段3006、字幕入力手段3007、データ放送用データ蓄積手段3008、データ放送用データ入力手段3009、番組情報入力手段3010、及びSI/PSI生成手段3011を含む構成である。
 多重化装置3000は、図示しないプロセッサ及びメモリを含んで構成されており、多重化手段3001、ビデオ入力手段3003、オーディオ入力手段3005、字幕入力手段3007、データ放送用データ入力手段3009、番組情報入力手段3010、及びSI/PSI生成手段3011の機能は、このメモリに記憶されているプログラムをこのプロセッサが実行することにより実現される。
 多重化手段3001は、ビデオ入力手段3003、オーディオ入力手段3005、字幕入力手段3007、データ放送用データ入力手段3009、及びSI/PSI生成手段3011からそれぞれ出力されたビデオデータ、オーディオデータ、字幕データ、データ放送データ及びSI/PSIからTSストリームを生成する。
 ビデオデータ蓄積手段3002は、ハードディスクなどの記憶媒体で構成され、ビデオデータを蓄積する。
 ビデオ入力手段3003は、ビデオデータ蓄積手段3002からビデオデータを読み出し、符号化を行い、多重化手段3001に出力する機能と、SI/PSI生成手段3011にSI/PSI構築に必要なビデオデータに関する情報を出力する機能を備える。
 オーディオデータ蓄積手段3004は、ハードディスクなどの記憶媒体で構成され、オーディオデータを蓄積する。
 オーディオ入力手段3005は、オーディオデータ蓄積手段3004からオーディオデータを読み出し、符号化を行い、多重化手段3001に出力する機能と、SI/PSI生成手段3011にSI/PSI構築に必要なオーディオデータに関する情報を出力する機能を備える。
 字幕データ蓄積手段3006は、ハードディスクなどの記憶媒体で構成され、字幕データを蓄積する。
 字幕入力手段3007は、字幕データ蓄積手段3006から字幕データを読み出し、符号化を行い、多重化手段3001に出力する機能と、SI/PSI生成手段3011にSI/PSI構築に必要な字幕データに関する情報を出力する機能を備える。このとき、字幕データがどの3D字幕等表示モードで処理するデータであるのかの情報も字幕データと共に字幕データ蓄積手段3006に記憶されており、字幕入力手段3007は、この3D字幕等表示モードに関する情報をSI/PSI生成手段3011に出力する。
 データ放送用データ蓄積手段3008は、ハードディスクなどの記憶媒体で構成され、データ放送用データを蓄積する。
 データ放送用データ入力手段3009は、データ放送用データ蓄積手段3008から字幕データを読み出し、符号化を行い、多重化手段3001に出力する機能と、SI/PSI生成手段3011にSI/PSI構築に必要なデータ放送用データに関する情報を出力する機能を備える。このとき、データ放送用データがどの3D字幕等表示モードで処理するータであるのかの情報もデータ放送用データと共にデータ放送用データ蓄積手段3008に記憶されており、データ放送用データ入力手段3009は、この3D字幕等表示モードに関する情報をSI/PSI生成手段3011に出力する。
 番組情報入力手段3010は、EITの生成に必要な番組構成情報をSI/PSI生成手段3011に出力する。
 SI/PSI生成手段3011は、ビデオ入力手段3003、オーディオ入力手段3005、字幕入力手段3007、データ放送用データ入力手段3009、番組情報入力手段3010から入力された情報に基づいて、SI/PSIの情報を生成し、多重化手段3001に生成したSI/PSIの情報を出力する。
 SI/PSI生成手段3011は、字幕入力手段3007から得られる3D字幕等表示モードの情報に従って、subtitle_offset_modeに3D字幕等表示モードの値を設定したarib_3d_offsetmode_info記述子をPMTのファーストループ400に記載する。
 また、SI/PSI生成手段3011は、データ放送用データ入力手段3009から得られる3D字幕等表示モードの情報に従って、bml_offset_modeに3D字幕等表示モードの値を設定したarib_3d_offsetmode_info記述子をPMTのファーストループ400に記載する。
 <1.7 まとめ>
 本実施の形態の映像処理装置は、受信したPMTに記載されたモード識別情報から、3D字幕等表示モードを判別する。PMTは、3D映像や字幕等表示データを含むESを処理する前に処理されるべきデータブロックなので、字幕等表示データを処理する前に3D字幕等表示モードを判別してリソースを確保することができる。このため、表示データを3D映像と共に表示するまでの時間を短縮することができる。
<実施の形態2>
 <2.1 概要>
  実施の形態1では、新たに定義したarib_3d_offsetmode_info記述子を用いるとしたが、本実施の形態では、既に規格化されている記述子であるデータ符号化方式記述子(data_component_descriptor)のフィールドを利用する点が異なる。本実施の形態の映像処理装置は、PMTのファーストループ400ではなく、セカンドループ402に記載されたデータ符号化方式記述子のdata_component_idからモード識別情報を抽出して、3D字幕等表示モードを判別する。
 図1で示すように、セカンドループ402は、ES情報記載箇所401に含まれる。ES情報記載箇所は、この番組に係るES毎の情報を記載する箇所である。このため、ES情報記載箇所401のforループは、この番組に係るESの数だけ繰り返される。
 同図のelementary_PIDはTSのそれぞれのパケットであるトランスポートパケットを識別するための情報である。同一の映像ES、同一の字幕ES、同一のSI/PSIのテーブルのトランスポートパケットは、それぞれ同じelementary_PIDが付与されて送信される。なお、elementary_PIDは単にPIDとも呼ばれる。
 本実施の形態では、字幕に対するモード識別情報は、字幕データを含むESのPIDに対応したdescriptorの記述箇所のデータ符号化方式記述子に記述し、データ放送用の表示データに対するモード識別情報は、データ放送用の表示データを含むESのPIDに対応したdescriptorの記述箇所のデータ符号化方式記述子に記述する。
 <2.2 データ>
 図15は、データ符号化方式記述子のデータ構造を示す図である。
 データ符号化方式記述子の各フィールドについては、ARIBが策定した規格に規定されているため説明を省略し、本実施の形態に関連する部分のみ説明を行なう。
 本実施の形態においては、データ符号化方式記述子の中のdata_component_idのフィールドにモード識別情報を記載する。data_component_id1501は、16bitのデータ長を持つ。
 ARIBの規格では、従来の字幕を表すdata_component_idの値は0x0008であるが本実施の形態では、data_component_idに図16で示す値を用いる。図16で示すように1plane+offsetモードで処理する3D字幕の場合は、0x0100、2plane+offsetモードで処理する3D字幕の場合は、0x0200、1plane+offsetモードで処理するデータ放送用の表示データの場合は、0x0400、2plane+offsetモードで処理するデータ放送用の表示データの場合は、0x0800の値を用いる。
 <2.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態1の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態1と同じ符号を用いる。
 実施の形態1と異なる点は、解析手段303がPMTのファーストループに記載されたarib_3d_offsetmode_infoからモード識別情報を抽出するのではなく、セカンドループ402に記載されるデータ符号化方式記述子内のdata_component_idからモード識別情報を抽出し判定手段304に出力する点と、判定手段304がarib_3d_offsetmode_info記述子に記載したモード識別情報ではなく、データ符号化方式記述子のdata_component_idの値に基づいて3D字幕等表示モードを判別する点である。
 <2.4 動作>
 本実施の形態における映像処理装置300の動作は、図7のステップS15で、解析手段303がPMTのファーストループ400にあるarib_3d_offsetmode_info記述子の代わりにPMTのセカンドループ402にあるデータ符号化方式記述子を抽出してその内容を判定手段304に出力する点と、ステップS16で判定手段304が、データ符号化方式記述子からdata_component_idの値を抽出し、3D字幕等表示モードを判別する点が実施の形態1と異なる。それ以外のステップは、実施の形態1と同じであるので説明を省略する。
 図17は、実施の形態2の映像処理装置300の判定手段304でのステップS16の処理の詳細を示すフローチャートである。
 判定手段304は、解析手段303から入力されたデータ符号化方式記述子からdata_component_idを抽出し、data_component_idの値が0x0100に一致するか否かを判定する(ステップS51)。判定手段304は、data_component_idの値が0x0100に一致する場合(ステップS51:Yes)、字幕処理手段309での3D字幕等表示モードが1plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS52)。次に、判定手段304は、判定結果を字幕処理手段309に通知し(ステップS53)、ステップS16の処理を完了する。
 一方、ステップS51でNoの場合には、判定手段304は、data_component_idの値が0x0200に一致するか否かを判定する(ステップS54)。判定手段304は、data_component_idの値が0x0200に一致する場合(ステップS54:Yes)、字幕処理手段309での3D字幕等表示モードが2plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS55)。次に、判定手段304は、判定結果を字幕処理手段309に通知し(ステップS56)、ステップS16の処理を完了する。
 ステップS54でNoの場合には、判定手段304は、data_component_idの値が0x0400に一致するか否かを判定する(ステップS57)。判定手段304は、data_component_idの値が0x0400に一致する場合(ステップS57:Yes)、データ放送処理手段310での3D字幕等表示モードが1plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS58)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知し(ステップS59)、ステップS16の処理を完了する。
 更に、判定手段304は、ステップS57でNoの場合には、data_component_idの値が0x0800に一致するか否かを判定する(ステップS60)。判定手段304は、data_component_idの値が0x0800に一致する場合(ステップS60:Yes)、データ放送処理手段310での3D字幕等表示モードが2plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS61)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知し(ステップS62)、ステップS16の処理を完了する。
 なお、本実施の形態では、PMTのセカンドループに記述されるデータ符号化方式記述子に記述されるモード識別情報によって3D字幕等表示モードを判定している。データ符号化方式記述子は、PMT内の番組を構成する各ESに関する情報に含まれるため、判定手段304は、ステップS51の処理を行う前に、字幕データを含むESに関する情報の記載部分のデータ符号化方式記述子であるか、データ放送用の表示データを含むESに関する情報の記載部分のデータ符号化方式記述子であるかを識別し、字幕データを含むESに関する情報である場合には、ステップS51に進み、データ放送の表示データを含むESの場合はステップS57の処理に進むようにしてもよい。
 <2.5 実施の形態2の変形例>
 (1)data_component_idで用いるモード識別情報の値として図16で示す値を用いたが、モード識別情報で用いる値は、これに限らない。data_component_idに割り当てられたbit長で表現でき、それぞれの処理モードが識別できる値であればどのような値を用いてもよい。
 <2.6 補足>
 多重化装置3000のSI/PSI生成手段3011は、字幕入力手段3007から出力されたモード識別情報を、PMTのセカンドループ402のうち、字幕を含むESに関する情報を記載した箇所のデータ符号化方式記述子に設定する。また、データ放送用データ入力手段3009から出力されたモード識別情報をPMTのセカンドループ402のうち、データ放送用の表示データを含むESに関する情報を記載した箇所のデータ符号化方式記述子に設定する。
<2.7 まとめ>
 本実施の形態の映像処理装置は、既存の記述子のフィールドを利用して、モード識別情報を記述できるので、実施の形態1のように新たに記述子を定義することなく、また既存の記述子のフィールドを拡張することもなく、3D字幕等表示モードを識別することができる。
<実施の形態3>
<3.1 概要>
 実施の形態2では、PMTのセカンドループ402に記載される既に規格化されている記述子であるデータ符号化方式記述子(data_component_descriptor)内のdata_component_idにモード識別情報を記述するとしたが、本実施の形態では、データ符号化方式記述子の未使用領域(reserved領域)にモード識別情報を記述する点で異なる。
 本実施の形態の映像処理装置は、PMTのファーストループ400ではなく、セカンドループ402に記載されたデータ符号化方式記述子のreserved領域からモード識別情報を抽出して、3D字幕等表示モードを判別する。
<3.2 データ>
 本実施の形態で用いるデータのデータ構造について説明する。
 本実施の形態では、図15に示すデータ符号化方式記述子にadditional_data_component_infoのひとつとして記載するadditional_arib_bxml_info記述子を用いる。
 図18に、additional_arib_bxml_infoのデータ構成を示す。
 本実施の形態では、reserved_future_use1801の4bitのうち下位2bitを、図3で示したsubtitle_offset_modeとbml_offset_modeの情報を記述するために用いる。subtitle_offset_modeとbml_offset_modeとが取り得る値については、実施の形態1と同じなので説明を省略する。
<3.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態1の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態1と同じ符号を用いる。
 実施の形態1と異なる点は、解析手段303がPMTのファーストループに記載された
arib_3d_offsetmode_infoからモード識別情報を抽出するのではなく、データ符号化方式記述子内の未使用領域に記載されたモード識別情報を抽出し判定手段304に出力する点と、判定手段304が、このモード識別情報に基づいて3D字幕等表示モードを判別する点である。
 <3.4 動作>
 本実施の形態における映像処理装置300の動作は、図7のステップS15で、解析手段303がPMTのファーストループ400にarib_3d_offsetmode_info記述子の代わりにPMTのセカンドループ402にあるデータ符号化方式記述子を抽出してその内容を判定手段304に出力する点と、ステップS16で判定手段304が、reserved_future_use1801の下位2bitの値を抽出し、この値に基づいて3D字幕等表示モードを判別する点で実施の形態2と異なる。それ以外のステップは、実施の形態2と同じであるので説明を省略する。
 判定手段304は、ステップS16でreserved_future_use1801の下位2bitの値が、「00」の場合は、字幕とデータ放送用の表示データが共に1plane+offsetモードであると判定し、「01」の場合は、字幕が1plane+offsetモードであり、データ放送用の表示データは2plane+offsetモードであると判別する。「10」の場合は、字幕は2plane+offsetモードであり、データ放送用の表示データは1plane+offsetモードであると判定し、「11」の場合は、字幕とデータ放送用の表示データが共に2plane+offsetモードであると判定する。
 <3.5 実施の形態3の変形例>
 (1)本実施の形態においては、reserved_future_use1801の下位2bitにモード識別情報を記述するとしたが、モード識別情報の記載は、reserved_future_use1801の下位2bitを用いることに限らない。モード識別情報用に2bitが確保できればよい。例えば、reserved_future_use1801の上位2bitに記述してもよい。
 (2)また、reserved_future_use1801を用いるとしたが、用いる未使用領域は、reserved_future_use1801に限らない。データ符号化方式記述子内の未使用領域であればどこを用いてもよい。例えば、図18で示すデータ符号化方式記述子内のadditional_arib_bxml_info記述子には、additional_arib_carousel_info記述子が記載されているので、この記述子の未使用領域に記載してもよい。また、図19で示すadditional_arib_carousel_infoのデータ構造のReservedのうちの2bitに記述してもよい。
 (3)本実施の形態においては、モード識別情報として図3に示すsubtitle_offset_modeとbml_offset_modeの値を記述するとしたが、モード識別情報は、この値を用いることに限らない。3D字幕等表示モードを識別できる情報であればよい。例えば、reserved_future_use1801の4bitを用いて、図10で示したsubtitle_offset_modeとbml_offset_modeとの値を記述してもよい。
 また、reserved_future_use1801の4bitを用いて、図11で示したsubtitle_1plane_offset_flag、 subtitle_2plane_offset_flag、 bml_1plane_offset_flag、bml_2plane_offset_flagの値を記述してもよい。
<3.6 まとめ>
 本実施の形態の映像処理装置は、既存の記述子の未使用領域を利用して、モード識別情報を記述できるので、実施の形態1のように新たに記述子を定義することなく、また、記述子のフィールドを拡張することもなく、3D字幕等表示モードを識別することができる。
<実施の形態4>
 <4.1 概要>
 実施の形態1においては、PSI情報の1つであるPMTにarib_3d_offsetmode_info記述子を記載するとしたが、本実施の形態では、PMTではなく、SI情報のひとつであるEITにarib_3d_offsetmode_info記述子を記載する点が異なる。本実施の形態の映像処理装置は、EITに記載された記述子に含まれるモード識別情報を抽出して判定を行う。
 <4.2 データ>
 以下、本実施の形態で用いるEITのデータ構造について説明する。
 図20は、EITのデータ構造を示す図である。
 EITは、番組の名称や放送日時、放送内容など番組に関連する情報を格納する。個々のフィールドについては、ARIBが策定した規格に規定されているため説明を省略し、本実施の形態に関連する部分のみ説明を行なう。
 EITにおいては、arib_3d_offsetmode_info記述子は、forループで囲まれたdescriptor1401の箇所に記載する。なお、このdescriptor1401は、このEITに記載されている番組毎に異なる情報が記述された記述子である。
 arib_3d_offsetmode_info記述子は、実施の形態1と同じなので説明を省略する。
 PMTは各番組を構成するデータとセットで送られるのに対して、EITは、番組の放送に先立って送られ、EPG(Electronic Program Guide)を構築するのに利用される。また、録画や視聴の予約にも利用される。
 <4.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態1の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態1と同じ符号を用いる。
 解析手段303が、PMTではなく、EITに含まれるモード識別情報に基づいて3D字幕等表示モードを判別する点が実施の形態1と異なる。
 <4.4 動作>
 ユーザが、EITに含まれる複数の番組のうちの1つの番組を視聴予約した場合を例に映像処理装置300の動作を説明する。
 視聴予約した番組の開始時間になると映像処理装置300は、予約した番組のストリームデータを受信部301で受信する。解析手段303は、図7のステップS15で、前もって受信していたEITに含まれる視聴予約番組に関する情報のうちのarib_3d_offsetmode_info記述子を抽出して、判定手段304に出力する。
 以降の処理は、実施の形態1と同じなので説明を省略する。
 <4.5 実施の形態4の変形例>
 (1)本実施の形態では、番組開始時にEITからモード識別情報を抽出するとしたが、EITからモード識別情報を抽出する処理は、番組開始時に限らない。EITは番組開始より前に受信しているので、番組開始以前に、EITに情報が記載されている各番組の3D字幕等の表示モードを判定し、記憶しておいてもよい。例えば、EITを受信した際に、EITに含まれるarib_3d_offsetmode_info記述子の内容を抽出し、保存しておき、番組開始時に、判定手段304が保存した内容に基づいて3D字幕等表示モードの判定を行うようにしてもよい。また、前もって判定までを行い、その判定結果を保存しておき、番組の開始時にその判定結果を読み出して、以降の処理を行うようにしてもよい。
 (2)本実施の形態においては、EITに新たに定義したarib_3d_offsetmode_info記述子を記載するとしたが、新たに記述子を定義しなくてもよい。EITにモード識別情報が記述されていればよい。例えば、arib_3d_offsetmode_info記述子を記載する代わりに、EITの未使用領域(reserved領域)を使用してもよい。
 具体的には、EITのreserved領域のうちのいずれか2bitを、図3に示すsubtitle_offset_modeとbml_offset_modeの値を記述することによって、3D字幕等表示モードを判別するようにしてもよい。
 (3)なお、未使用領域を利用するのは、2bitに限られない。モード識別情報の記述に必要なbitを割り当ててよい。例えば、未使用領域のうちのいずれか4bitに、図12に示すsubtitle_offset_modeとbml_offset_modeの値を記述することによって、3D字幕等表示モードを判別するようにしてもよい。
 (4)また、未使用領域のうちのいずれか4bitを利用する場合には、図11に示すsubtitle_1plane_offset_flag、 subtitle_2plane_offset_flag、 bml_1plane_offset_flag、 bml_2plane_offset_flagの値を記述して、3D字幕等表示モードを判別するようにしてもよい。
 (5)また、上記のモード識別情報の記述方法を組み合わせてもよい。
 (6)EITは番組の放送や配信前に映像処理装置に配信されるものであるため、緊急放送などにより、実際に放送される内容が、EITで配信された情報と異なるものとなる場合もある。このため、実施の形態1に示したPMTを用いた識別方法と組み合わせて処理してもよい。
 <4.6 補足>
 多重化装置3000のSI/PSI生成手段3011は、番組情報入力手段3010から入力された番組構成情報に基づいてEITを生成するが、このとき、番組情報入力手段3010は、番組毎の字幕の3D字幕等表示モード、データ放送用の表示データの3D字幕等表示モードをSI/PSI生成手段3011に出力する。SI/PSI生成手段3011は、番組情報入力手段3010から出力された情報に基づき、EITの各番組に関する情報を記述する箇所に、モード識別情報を設定する。
 <4.7 まとめ>
 本実施の形態の映像処理装置は、受信したEITに記載された番組毎のモード識別情報から、3D字幕等表示モードを判別する。
 EITは、番組の放送に先だって送信されるため、番組に係る字幕等表示データを処理する前に3D字幕等表示モードを判別し、リソースを確保することができる。このため、表示データを3D映像と共に表示するまでの時間を短縮することができる。
<実施の形態5>
 <5.1 概要>
 実施の形態4では、EITの番組に係る情報の記載箇所に、新たに定義した記述子であるarib_3d_offsetmode_info記述子にモード識別情報を記載し、映像処理装置がこのモード識別情報を抽出して3D字幕等表示モードを判別したが、本実施の形態では、規格化されている既存の記述子であるデータコンテンツ記述子(data_content_descriptor)にモード識別情報を記載し、このモード識別情報を抽出することによって3D字幕等表示モードを判別する。
 <5.2 データ>
 図21は、データコンテンツ記述子のデータ構造を示す図である。
 データコンテンツ記述子の各フィールドについては、ARIBが策定した規格に規定されているため説明を省略し、本実施の形態に関連する部分のみ説明を行なう。
 本実施の形態では、データコンテンツ記述子中のdata_component_id1701にモード識別情報を記述する。
 字幕やデータ放送用の表示データの3D字幕等表示モードを識別するための値として、図16に示すものを使用する。
 EITは、番組に係る個々のESの情報ではなく、番組に係るESに共通の情報を記述するものであるため、data_component_id1701で、字幕及びデータ放送用の表示データのそれぞれについて3D字幕等表示モードを識別できるようにする必要がある。data_component_idの各値については、既に説明したので説明を省略する。
 字幕とデータ放送用の表示データの両方の3D字幕等表示モードを識別できるようにするために、それぞれの値の和を利用する。具体的には、例えば、字幕が2plane+offsetモードで処理され、データ放送用の表示データが1plane+offsetモードで処理されるべきデータである場合には、0x0200と0x0400の和をとり、0x0600を設定する。また、字幕とデータ放送用の表示データが共に2plane+offsetモードで処理されるべきデータである場合には、0x0200と0x0800の和をとり、0x0A00を設定する。他の組み合わせでも同様に和をとった値を用いる。
 <5.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態4の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態4と同じ符号を用いる。
 実施の形態4と異なる点は、解析手段303がEITのarib_3d_offsetmode_infoからモード識別情報を抽出するのではなく、データコンテンツ記述子内のdata_component_idをモード識別情報として抽出し、判定手段304に出力する点と、判定手段304がdata_component_idの値に基づいて3D字幕等表示モードを判別する点である。
 <5.4 動作>
 本実施の形態における映像処理装置300の動作は、図7のステップS15で、解析手段303が、データコンテンツ記述子を抽出し、判定手段304に出力する点と、ステップS16で判定手段304が、データコンテンツ記述子からdata_component_idの値を抽出し、その値に基づいて3D字幕等表示モードを判別する点で、実施の形態4と異なる。それ以外のステップは、実施の形態4と同じであるので説明を省略する。
 以下、本実施の形態でのステップS16の処理の詳細を説明する。
 図22は、本実施の形態の映像処理装置300の判定手段304でのステップS16の処理の詳細を示すフローチャートである。
 判定手段304は、解析手段303から入力されたデータコンテンツ記述子からdata_component_idを抽出し、data_component_idの値と0x0100の論理積を求め、その結果が「0」であるか否かを判定する(ステップS71)。判定手段304は、論理積の結果が「0」でない場合(ステップS71:Yes)、字幕処理手段309での3D字幕等表示モードが1plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS72)。次に、判定手段304は、判定結果を字幕処理手段309に通知し(ステップS73)、ステップS77に進む。
 一方、ステップS71でNoの場合には、判定手段304は、data_component_idの値と0x0200の論理積を求め、その結果が「0」であるか否かを判定する(ステップS74)。判定手段304は、論理積の結果が「0」でない場合(ステップS74:Yes)、字幕処理手段309での3D字幕等表示モードが2plane+offsetモードであると判定し、字幕処理手段309での処理に必要なデコーダとメモリを確保する(ステップS75)。次に、判定手段304は、判定結果を字幕処理手段309に通知し(ステップS76)、ステップS77に進む。
 ステップS74でNoの場合には、判定手段304は、data_component_idの値と0x0400の論理積を求め、その結果が「0」であるか否かを判定する(ステップS77)。判定手段304は、論理積の結果が「0」でない場合(ステップS77:Yes)、データ放送処理手段310での3D字幕等表示モードが1plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS78)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知し(ステップS79)、ステップS16の処理を完了する。
 更に、判定手段304は、ステップS77でNoの場合には、data_component_idの値と0x0800の論理積を求め、その結果が「0」であるか否かを判定する(ステップS80)。判定手段304は、論理積の結果が「0」でない場合(ステップS80:Yes)、データ放送処理手段310での3D字幕等表示モードが2plane+offsetモードであると判定し、データ放送処理手段310での処理に必要なデコーダとメモリを確保する(ステップS81)。次に、判定手段304は、判定結果をデータ放送処理手段310に通知し(ステップS82)、ステップS16の処理を完了する。
 <5.5 実施の形態5の変形例>
 (1)data_component_idで用いるモード識別情報の値として図16で示す値を用いたが、モード識別情報で用いる値は、これに限らない。data_component_idに割り当てられたbit長で表現でき、字幕及びデータ放送用の表示データの3D字幕等表示モードがそれぞれ判別できる値であればどのような値を用いてもよい。
 <5.6 まとめ>
 本実施の形態の映像処理装置は、既存の記述子のフィールドを利用して、モード識別情報を記述できるので、実施の形態4のように新たに記述子を定義することなく、また、記述子のフィールドを拡張することなく、3D字幕等表示モードを識別することができる。<実施の形態6>
 <6.1 概要>
 実施の形態5では、規格化されている既存の記述子であるデータコンテンツ記述子の
data_component_idにモード識別情報を記載し、このモード識別情報を抽出することによって3D字幕等表示モードを判別するとしたが、本実施の形態では、データコンテンツ記述子の未使用領域(reserved領域)として定義されているフィールドにモード識別情報を記載し、このモード識別情報を抽出することによって3D字幕等表示モードを判別する。
 <6.2 データ>
 本実施の形態で用いるデータのデータ構造について説明する。
 本実施の形態では、図21に示すデータコンテンツ記述子に一連のselector_byteのひとつとして記載されるarib_bxml_info記述子を用いる。
 図23は、arib_bxml_info記述子のデータ構造を示す図である。
 本実施の形態では、arib_bxml_info記述子のreserved_future_use2001の6bitのうち下位2bitを、図3で示したsubtitle_offset_modeとbml_offset_modeの情報を記述するために用いる。subtitle_offset_modeとbml_offset_modeとが取り得る値については、実施の形態1と同じなので説明を省略する。
 <6.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態5の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態5と同じ符号を用いる。
 実施の形態5と異なる点は、データコンテンツ記述子内のdata_component_idからモード識別情報を抽出するのではなく、データコンテンツ記述子内の未使用領域に記載されたモード識別情報を抽出し判定手段304に出力する点と、判定手段304が、このモード識別情報に基づいて3D字幕等表示モードを判別する点である。
 <6.4 動作>
 本実施の形態における映像処理装置300の動作は、図7のステップS16で判定手段304が、データコンテンツ記述子のからreserved_future_use2001の下位2bitの値を抽出し、その値に基づいて3D字幕等表示モードを判別する点で、実施の形態5と異なる。それ以外のステップは、実施の形態5と同じであるので説明を省略する。
 判定手段304は、ステップS16でreserved_future_use2001の下位2bitの値が、「00」の場合は、字幕とデータ放送用の表示データが共に1plane+offsetモードであると判定し、「01」の場合は、字幕が1plane+offsetモードであり、データ放送用の表示データは2plane+offsetモードであると判別する。「10」の場合は、字幕は2plane+offsetモードであり、データ放送用の表示データは2plane+offsetモードであると判定し、「11」の場合は、字幕とデータ放送用の表示データが共に2plane+offsetモードであると判定する。
 <6.5 実施の形態6の変形例>
 (1)本実施の形態においては、reserved_future_use2001の下位2bitにモード識別情報を記述するとしたが、モード識別情報の記載は、reserved_future_use2001の下位2bitへの記載に限らない。モード識別情報用に2bitが確保できればよい。例えば、reserved_future_use2001の上位2bitに記述してもよい。
 (2)また、モード識別情報は、reserved_future_use2001に記載することに限らない。データコンテンツ記述子の未使用領域であれば、どこを用いてもよい。例えば、図23のarib_bxml_info記述子には、arib_carousel_info記述子が含まれており、この記述子の未使用領域に記載してもよい。具体的には、図24で示すarib_carousel_infoのReservedの2bitに記述してもよい。
 (3)本実施の形態においては、モード識別情報として図3に示すsubtitle_offset_modeとbml_offset_modeの値を記述するとしたが、モード識別情報は、この値を用いることに限らない。3D字幕等表示モードを識別できる情報であればよい。例えば、reserved_future_use2001の4bitに、図10で示したsubtitle_offset_modeとbml_offset_modeとの値を記述してもよい。
 (4)また、reserved_future_use2001の4bitに、図11で示したsubtitle_1plane_offset_flag、 subtitle_2plane_offset_flag、 bml_1plane_offset_flag、bml_2plane_offset_flagの値を記述してもよい。
 (5)上記のモード識別情報の記述方法を組み合わせてもよい。
 <6.6 まとめ>
 本実施の形態の映像処理装置は、既存の記述子の未使用領域を用いてモード識別情報を記述できるので、記述子のフィールドを拡張することなく3D字幕等表示モードを識別することができる。
<実施の形態7>
 <7.1 概要>
 実施の形態7は、放送ではなく、IP(Internet Protocol)ネットワークを用いた電子映像配信システムでのVOD(Video On Demand)において、配信されるコンテンツの付加情報(メタデータ)にモード識別情報を記述し、映像処理装置はその付加情報を解析して、3D字幕等表示モードを判定する。
 <7.2 データ>
 本実施の形態に係る電子映像配信システムは、デジタルテレビ情報化研究会の「デジタルテレビ ネットワーク機能仕様 ストリーミング機能仕様書 コーデック編」に定義されている再生制御情報にモード識別情報を記載する。本実施の形態では、一例として、ERI(Entry  Resource Information)にモード識別情報を記述する。
 以下、本実施の形態で用いるデータを説明する。
 図25は、ERIのデータ構造を示す図である。ただし、本実施の形態に必要のない記述に関しては省略している。ERIは、XML(Extensible Markup Language)文書形式で記述される。
 ERIには、字幕に関する情報を記述するタグ要素として、ひとつのERIの中に0~2回記述が可能なcaption_info要素が定義されている。
 本実施の形態では、caption_info要素にoffset_mode2501という属性を新たに追加する。offset_mode2501が存在しない、若しくは、offset_mode2501の値が「0」の場合は3D字幕ではなく従来の2D字幕であることを表し、offset_mode2501の値が「1」の場合は1plane+offsetモードを表し、「2」の場合は2plane+offsetモードであると定義する。
 <7.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態1の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態1と同じ符号を用いる。
 実施の形態1と異なる点は、受信部301が放送ではなく、IPネットワークから情報を受信する点、前記受信する情報は、MPEG2-TS形式で伝送される映像、音声といった番組を構成するコンテンツデータと、コンテンツ一覧や再生制御情報など付加情報(メタデータ)といったMPEG2-TS以外の形式で伝送されるデータで構成されること、判定手段304は解析手段303からPMTを受け取るのではなく、受信部301から前記受信した再生制御情報としてERIを受け取ること、判定手段304がarib_3d_offsetmode_info記述子ではなく、ERIに定義したタグ要素に記載されたモード識別情報に基づいて3D字幕等表示モードを判別することである。
 <7.4 動作>
 本実施の形態における映像処理装置300の動作は、まず、図7のステップS18の処理はなく、ステップS16、ステップS17の処理は図7のステップS16,S17,S18以外の処理、すなわちコンテンツデータを受信し、前記コンテンツデータを再生する処理に先立ち、ERIを受信した際に行われるものである。また、ステップS16で判定手段304が、ERIから抽出したcaption_info要素の値に基づいて3D字幕等表示モードの判定を行う点が、実施の形態1と異なる。それ以外のステップは、実施の形態1と同じであるので説明を省略する。
 判定手段304は、ステップS16で、offset_mode2501の値が「1」であれば、字幕処理手段309での3D字幕等表示モードが1plane+offsetモードであると判定し、「2」の場合は2plane+offsetモードであると判定する。
 <7.5 実施の形態7の変形例>
 (1)本実施の形態では、モード識別情報の値として「0」や「1」の値を用いたが、識別のための値はこれに限らない。3D字幕等表示モードが判別できる値であれば何でもよい。例えば、1plane+offsetモードであれば「1plane+offset」、2plane+offsetモードであれば「2plane+offset」の値を用いてもよい。
 (2)本実施の形態においては、ERIのcaption_info要素の属性を追加して3D字幕等表示モードを表現したが、caption_info要素にさらに子要素を追加し、この子要素にモード識別情報を記述してもよい。
 具体的には、図28(a)に示すようにcaption_info要素に子要素としてoffset_mode要素を追加する。このoffset_mode要素の値が「0」の場合には、従来の2D字幕の表示であることと定義し、「1」の場合には、1plane+offsetモード、「2」の場合には2plane+offsetモードであると定義して、この値により3D字幕等表示モードを判別してもよい。なお、従来の2D字幕の表示である場合には、offset_mode要素の値を「0」とするのではなく、caption_info要素にoffset_mode要素を記述せず、offset_mode要素の記述がない場合に従来の2D字幕の表示であると判断してもよい。
 (3)また、図28(b)で示すようにoffset_mode要素は内容を持たない空要素とし、offset_modeの属性としてmodeを定義し、offset_mode要素が存在しないか、mode属性の値が「0」の場合は、3D字幕ではなく従来の2D字幕であることを表し、offset_mode要素のmode属性の値が「1」の場合は1plane+offsetモードを表し、offset_mode要素のmode属性の値が「2」の場合は2plane+offsetモードであると定義してもよい。
 (4)本実施の形態においては、ERIのcaption_info要素に追加した属性や、子要素にモード識別情報を記述するとしたが、ERIのcaption_info要素以外の要素を用いてもよい。ERI内の要素であれば、どの要素を用いてもよい。caption_info要素以外の要素を用いる場合でも、caption_info要素で用いた方法を用いてよい。例えば、stereoscopic_info要素を用いてcaption_info要素と同様の方法で定義し、3D字幕等表示モードの判定に用いてもよい。
 <7.6 補足>
 以下、本実施の形態に係る電子映像配信システム2200について説明する。
 <7.6.1 構成>
 図26は、本実施の形態に係る電子映像配信システム2200の概略構成図である。
 電子映像配信システム2200は、映像処理装置300、ポータルサーバ2201、再生制御情報サーバ2202、ライセンスサーバ2203、及びコンテンツサーバ2204
を含む構成である。これらのサーバや映像処理装置300は、IPネットワーク2205で接続される。
 ポータルサーバ2201は、映像処理装置300に配信されるコンテンツの一覧と、コンテンツを再生するために必要なメタデータのURL(Uniform Resource Locator)を提供するサーバである。
 再生制御情報サーバ2202は、コンテンツの付加情報を提供するサーバである。ERIはこのサーバから提供される。
 ライセンスサーバ2203は、映像処理装置300が受信し再生するコンテンツに関して、映像処理装置300に使用の許可のライセンスを与えるサーバである。
 コンテンツサーバ2204は、映像などのコンテンツデータを映像処理装置300に提供するサーバである。
 <7.6.2 動作>
 図27は、電子映像配信システム2200の処理のシーケンスを示す図である。
 まず、映像処理装置300は、ポータルサーバ2201に対して、配信されるコンテンツの一覧とコンテンツを再生するために必要なメタデータのURI(Uniform Resource Identifier)とから構成されるナビゲーション情報の送信を要求する(ステップS101)。
 ポータルサーバ2201は、映像処理装置300から要求を受信すると、ナビゲーション情報を映像処理装置300に送信する(ステップS102)。なお、本実施の形態におけるナビゲーション情報は、HTML(HyperText Markup Language)文書形式のデータとして送信され、前記再生制御情報のURIは、HTMLブラウザでボタンがクリックされた場合に選択される参照先として記述されているものとする。
 映像処理装置300は、受信したナビゲーション情報を、HTMLブラウザを用いて表示することにより、ユーザにコンテンツ一覧を提示する。ユーザが再生するコンテンツを選択すると、映像処理装置300は、選択されたコンテンツの再生制御情報のURIに基づいて、再生制御情報サーバ2202に、再生制御情報の送信を要求する(ステップS103)。
 再生制御情報の送信要求を受信した再生制御情報サーバ2202は、モード識別情報が記載されたERIを含む再生制御情報を映像処理装置300に送信する(ステップS104)。
 次に、映像処理装置300は、再生制御情報を参照し、コンテンツの再生のためのライセンスが必要な場合には、ライセンスサーバ2203にライセンス発行の要求を送信する(ステップS105)。
 ライセンス発行の要求を受信したライセンスサーバ2203は、ライセンス発行処理を行い、映像処理装置300へライセンス情報を送信する(ステップS106)。
 ライセンス情報を受信した映像処理装置300は、再生制御情報に基づいて、コンテンツサーバ2204に、再生要求をしたコンテンツのコンテンツデータの送信要求を行う(ステップS107)。
 コンテンツデータの送信要求を受信したコンテンツサーバ2204は、再生要求のコンテンツに係るコンテンツデータを映像処理装置300に送信する(ステップS108)。
 映像処理装置300では、コンテンツサーバ2204から逐次受信したコンテンツデータを復号し、再生制御情報に含まれるERIから抽出したモード識別情報に基づいて字幕等の処理を行い、表示用の映像を表示装置312に出力する。なお、コンテンツデータの送信要求の送信や、コンテンツデータの受信は、HTTPやRTP(Real-time Transport Protocol)/RTSP(Real Time Streaming Protocol)といったプロトコルを使用する。
 <7.7 まとめ>
 本実施の形態の映像処理装置は、IPネットワークを用いた電子映像配信システムで用いられる、コンテンツの付加情報(メタデータ)としての再生制御情報、より具体的な例としてERIに記述したモード識別情報を用いて3D字幕等表示モードを判別する。3D字幕等の表示データを含むストリーミングデータを受信する前に処理されるべき再生制御情報を用いるので、3D字幕等の表示データを含むストリーミングデータを処理する前に、3D字幕等表示モードを識別し、リソースを確保することが可能となる。このため、表示データを3D映像と共に表示するまでの時間を短縮することができる。
<実施の形態8>
 <8.1 概要>
 本発明に係る実施の形態8では、IPTVでのVOD(Video On Demand)におけるECG(Electronic Content Guide)メタデータにモード識別情報を記述し、映像処理装置はそのECGメタデータから抽出したモード識別情報を解析して、3D字幕等表示モードを判定する。
 <8.2 データ>
 本実施の形態に係る電子映像配信システムは、IPTV(Internet Protocol Television)フォーラムジャパンの「STD-0006 CDNスコープ サービスアプローチ仕様 1.3版」に定義されているECGメタデータ内にモード識別情報を記述する。
 以下、本実施の形態で用いるデータを説明する。
 図29は、ECGメタデータのデータ構造を示す図である。ただし、本実施の形態に必要のない記述に関しては省略している。ECGメタデータは、XML文書形式で記述される。
 本実施の形態においては、ProgramInformation要素の中の、BasicDescription要素にあるCaptionLanguage要素を使用し、CaptionLanguage要素のdescription属性2901にモード識別情報を記述する。
 すなわち、description属性2901の値が ″1plane+offset″であれば、3D字幕等表示モードが1plane+offsetモード、″2plane+offset″であれば、3D字幕等表示モードが2plane+offsetモードであると定義する。
 <8.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態7の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態7と同じ符号を用いる。
 実施の形態7と異なる点は、受信部301が受信する付加情報としてECGメタデータが含まれること、判定手段304は受信部301からERIを受け取るのではなくECGメタデータを受け取ること、判定手段304が、ERIに定義したタグ要素に記載されたモード識別情報ではなく、ECGメタデータに定義したタグ要素に記載されたモード識別情報に基づいて3D字幕等表示モードを判別することである。
 <8.4 動作>
 本実施の形態における映像処理装置300の動作は、まず、図7のステップS18の処理はなく、ステップS16、ステップS17の処理は図7のステップS16,S17,S18以外の処理、すなわちコンテンツデータを受信し、前記コンテンツデータを再生する処理に先立ち、ユーザが再生するコンテンツを選択した際に行われるものである。また、ステップS16で判定手段304が、ECGメタデータから抽出したdescription属性2901の値に基づいて3D字幕等表示モードの判定を行う点が、実施の形態7と異なる。それ以外のステップは、実施の形態7と同じであるので説明を省略する。
 判定手段304は、ステップS16で、ECGメタデータのうち、ユーザが選択した再生するコンテンツに対応する部分のdescription属性2901の値が″1plane+offset″であれば、字幕処理手段309での3D字幕等表示モードが1plane+offsetモードであると判定し、″2plane+offset″の場合は2plane+offsetモードであると判定する。
 <8.5 実施の形態8の変形例>
 (1)本実施の形態では、description属性に記述するモード識別情報の値として″1plane+offset″や″2plane+offset″を用いたが、識別のための値はこれに限らない。3D字幕等表示モードが判別できる値であれば何でもよい。例えば、1plane+offsetモードであれば「1」、2plane+offsetモードであれば「2」としてもよい。
 (2)本実施の形態においては、CaptionLanguage要素のdescription属性の値にモード識別情報を記述するとしたが、新たにモード識別情報を記述する属性を定義してもよい。
 図30に示すようにCaptionLanguage要素にoffset_mode属性3101を定義し、このoffset_mode属性3101にモード識別情報を記述してもよい。
 例えば、offset_mode属性の値が「0」の場合は3D字幕表示ではなく、従来の2D字幕表示であることを表し、offset_mode属性の値が「1」の場合は1plane+offsetモードを表し、offset_mode属性の値が「2」の場合は2plane+offsetモードであると定義してもよい。
 (3)また、CaptionLanguage要素に新たに子要素を追加し、この子要素にモード識別情報を記述してもよい。
 (4)また、実施の形態7の変形例の(3)で示したのと同様にoffset_mode要素は内容を持たない空要素とし、offset_modeの属性としてmodeを定義して、同様の方法で判別してもよい。
 <8.6 補足>
 本実施の形態に係る電子映像配信システムの動作は、実施の形態7に係る電子映像配信システム2200とほぼ同じであるが、図27のステップS102の処理で、ポータルサーバ2201が映像処理装置300に送信するナビゲーション情報にとして、モード識別情報を記述したECGメタデータを送信する点で、実施の形態7の電子映像配信システムと異なる。なお、説明の都合上、実施の形態7と同じ符号を用いる。
 本実施の形態の映像処理装置300は、ECG処理する機能を備えており、受信したECGメタデータを処理し、コンテンツ選択画面をユーザに提示する。なお、ECG処理を処理する機能は、映像処理装置300が備えるプロセッサが、ECG処理するためのプログラムを実行することにより実現される。
 ユーザが再生するコンテンツを選択すると、図27のステップS103の処理において、映像処理装置300は、受信したECGメタデータに記述されているURIに基づいて、再生制御情報サーバ2202に再生制御情報の送信を要求する。
 この処理以降の処理は、実施の形態7と同じなので説明を省略する。
 <8.7 まとめ>
 本実施の形態の映像処理装置は、IPネットワークを用いた電子映像配信システムで用いられるコンテンツの付加情報(メタデータ)であるECGメタデータに記述したモード識別情報を用いて3D字幕等表示モードを判別する。3D字幕等の表示データを含むストリーミングデータを受信する前に、ECGメタデータを処理するので、3D字幕等の表示データを含むストリーミングデータを処理する前に、3D字幕等表示モードを識別し、リソースを確保することができる。このため、表示データを3D映像と共に表示するまでの時間を短縮することができる。
<実施の形態9>
 <9.1 概要>
 本発明に係る実施の形態9の映像処理装置は、データ放送用の表示データを、放送からではなく、IP放送で行われている擬似データ放送のようなIPネットワークの通信によって受信する。このとき、映像処理装置300は、BITにあるハイパーリンク記述子から、データ放送用データを要求するURIを取得する。BITやハイパーリンク記述子については、IPTVフォーラムジャパンの「STD-0004 IP放送仕様 1.2版」に定義されているので、説明を省略する。
 本実施の形態に係る電子映像配信システムは、HTTP又はHTTPS(Hypertext Transfer Protocol over Secure Socket Layer)のレスポンスヘッダにモード識別情報を記述し、映像処理装置は、レスポンスヘッダを解析して3D字幕等表示モードを判定する。
 <9.2 データ>
 図31は、HTTPのヘッダのデータ構造を示す。ただし、本実施の形態に必要のない記述に関しては省略している。
 図31(a)は、映像処理装置300から送信するHTTP-GETリクエストを示す。
 図31(b)は、図31(a)のHTTP-GETリクエストを受信したデータ放送用データを提供するサーバから送信する、3D字幕等表示モードが1plane+offsetモードである場合のHTTPレスポンスヘッダを含むHTTPレスポンスである。
 図31(c)は、図31(a)のHTTP-GETリクエストを受信したデータ放送用データを提供するサーバから送信する、3D字幕等表示モードが2plane+offsetモードである場合のHTTPレスポンスヘッダを含むHTTPレスポンスである。
 本実施の形態においては、HTTPレスポンスヘッダの拡張ヘッダとして、X-Offset-Modeを定義し、この拡張ヘッダにモード識別情報を記述する。すなわち、X-Offset-Modeの値が″1plane+offset″であれば、3D字幕等表示モードが1plane+offsetモード、″2plane+offset″であれば、3D字幕等表示モードが2plane+offsetモードであると定義する。
 <9.3 構成>
 本実施の形態の映像処理装置の構成で、実施の形態7の映像処理装置300と同じ構成のものは説明を省略し、異なる点を重点的に説明する。なお、本実施の形態で用いる映像処理装置の符号は、説明の都合上、実施の形態7同じ符号を用いる。
 実施の形態7と異なる点は、映像処理装置300のプロセッサが受信したHTTPレスポンスヘッダからモード識別情報を抽出し判定手段304に出力する点と、判定手段304が、ERIに定義したタグ要素に記載されたモード識別情報ではなく、HTTPレスポンスヘッダの拡張ヘッダに記載されたモード識別情報に基づいて3D字幕等表示モードを判別する点である。
 <9.4 動作>
 本実施の形態における映像処理装置300の動作は、まず、図7のステップS18の処理はなく、ステップS16、ステップS17の処理は映像受信装置300がデータ放送用データをHTTPにより受信したときに行われるものである。また、図7のステップS16,S17,S18以外の処理、すなわちコンテンツデータを受信し、前記コンテンツデータを再生する処理は、IP放送受信中は行われているものである。また、ステップS15で、映像処理装置300が備えるプロセッサは、HTTP処理を行うプログラムを実行してデータ放送用データをHTTPで受信し、続いて、HTTPレスポンスヘッダの拡張ヘッダであるX-Offset-Modeからモード識別情報を抽出し判定手段304に出力こと、ステップS16で判定手段304が、X-Offset-Modeの値に基づいて3D字幕等表示モードの判定を行うことが、実施の形態7と異なる。それ以外のステップは、実施の形態7と同じであるので説明を省略する。
 以下に、データ放送用データ取得のシーケンスを説明する。
 本実施の形態では、データ放送用データの要求先のURLがhttp://www.broadcaster.com/data_broadcast/3Ddataであるとして説明する。
 まず、映像処理装置300は、データ放送用データを提供するサーバに対して、図31(a)に示すHTTP-GETリクエストを送信する。このHTTP-GETリクエストは、データ放送用データの要求先のURLとして、http://www.broadcaster.com/data_broadcast/3Ddataを指定したHTTP-GETリクエストである。
 図31(a)のリクエストを受信したデータ放送用の表示データを提供するサーバは、要求されたデータ放送用データの要求先にあるデータ放送用表示データの3D字幕等表示モードが1plane+offsetモードの場合は図31(b)のHTTPレスポンスヘッダを返信する。このHTTPレスポンスには、拡張ヘッダとして、X-Offset-Modeが記述されており、この値は″1plane-offset″であるので、判定手段304は、データ放送処理手段310でのデータ放送用の表示データの処理が、1plane+offsetモードによる処理であると判断する。一方、3D字幕等表示モードが2plane+offsetモードの場合は、図31(c)のHTTPレスポンスヘッダを返信する。この場合のX-Offset-Modeの値は″2plane+offset″であるので、判定手段304は、データ放送処理手段310でのデータ放送用の表示データの処理が、2plane-offsetモードによる処理であると判断する。
 <9.5 実施の形態9の変形例>
 (1)本実施の形態においては、HTTPレスポンスヘッダに、X-Offset-Modeという拡張ヘッダを定義して、このX-Offset-Modeに″1plane-offset″と″2plane-offset″とのいずれかの値を記述し、この値に基づいてデータ放送用の表示データの3D字幕等表示モードを判定するとしたが、X-Offset-Modeに記述する値は、これらの値に限らない。1plane+offsetモードと2plane+offsetモードとが識別できる値であればよい。例えば、X-Offset-Modeの値が「1」であれば、1plane+offsetモードであるとし、「2」であれば2plane+offsetモードであるとしてもよい。 (2)また、拡張ヘッダの名称も、X-Offset-Modeではなくてもよい。モード識別情報が記載されている拡張ヘッダであることがわかれば、どのような名称であってもよい。
 <9.6 補足>
 以下、本実施の形態に係るデータ放送用データ提供サーバについて説明する。
 <9.6.1 構成>
 (データ放送用データ提供サーバ3200)
 図32は、実施の形態9におけるデータ放送用データを映像処理装置300に提供するデータ放送用データ提供サーバ3200の概略構成図である。
 データ放送用データ提供サーバ3200は、送受信部3201、解析部3202、データ取得部3203、レスポンス生成部3204、及び蓄積部3205を含む構成である。
 送受信部3201は、映像処理装置300とデータの送受信を行う機能を備える。
 解析部3202は、送受信部3201で受信したHTTP-GETリクエストを解析する機能と、映像処理装置300に送信するデータを特定する機能を備える。
 データ取得部3203は、解析部3202で特定したデータ放送用のデータと属性情報とを蓄積部3205から読み出す機能を備える。
 レスポンス生成部3204は、解析部3202から通知されたHTTP-GETリクエストの情報と、データ取得部3203が蓄積部3205から読み出した、データ放送用データ、及び属性情報に含まれるモード識別情報を受信し、映像処理装置300に返すHTTPレスポンスを生成する機能を備える。
 レスポンス生成部3204で生成したレスポンスは送受信部3201へ出力され、送受信部3201から映像処理装置300へ送信される。
 データ放送用データ提供サーバ3200は、図示しないプロセッサ及びメモリを含んで構成されており、送受信部3201、解析部3202、データ取得部3203、レスポンス生成部3204の機能は、このメモリに記憶されているプログラムをこのプロセッサが実行することにより実現される。
 蓄積部3205は、ハードディスクなどの記録媒体で構成され、データ放送用データや蓄積されているデータ放送用の表示データ、及びその表示データのモード識別情報を含む属性情報を蓄積する。
 <9.6.2 動作>
 まず、送受信部3201は、コンテンツに係るデータ放送用データの取得要求であるHTTP-GETリクエストを受信し、解析部3202へ出力する。
 解析部3202は、HTTP-GETリクエストを解析し、要求のあったコンテンツに係るデータ放送用の表示データを特定する情報を、データ取得部3203に出力する。
 データ取得部3203は、解析部3202から通知された情報に基づいて、データ放送用の表示データとその属性情報を蓄積部3205から読み出す。
 次に、データ取得部3203は、読み出した属性情報から、データ放送用の表示データの3D字幕等表示モードが1plane+offsetモードであるか2plane+offsetモードであるかの情報を抽出し、レスポンス生成部3204へ出力する。
 レスポンス生成部3204は、データ放送用の表示データの3D字幕等表示モードにしたがって、X-Offset-Mode拡張ヘッダを設定する。具体的には、データ取得部3203から受け取ったモード識別情報が1plane+offsetモードの場合には、X-Offset-Modeの値を″1plane+offset″とし、2plane+offsetモードの場合には、X-Offset-Modeの値を″2plane+offset″をHTTPレスポンスヘッダに含むHTTPレスポンスを生成する。
 生成したHTTPレスポンスを送受信部3201へ出力し、送受信部3201は、HTTPレスポンスを映像処理装置300へ送信する。
 <9.7 まとめ>
 本実施の形態の映像処理装置は、IPネットワークを用いた電子映像配信システムで用いられる通信プロトコルであるHTTPのレスポンスヘッダに記述したモード識別情報を用いて3D字幕等表示モードを判別する。これにより、データ放送用の表示データを処理する前に、3D字幕等表示モードを識別し、リソースを確保することができるので表示データを3D映像と共に表示するまでの時間を短縮することができる。
<10.その他の変形例>
 以上、本発明に係る映像処理装置を、実施の形態に基づいて説明したが、以下のように変形することも可能であり、本発明は上述した実施の形態で示した通りの映像処理装置に限られないことは勿論である。
(1)実施の形態における映像処理装置は、処理した映像を外部の表示装置(例えば、3D映像対応テレビ)に出力するとしたが、この映像処理装置と表示装置とを一体にした構成(例えば、本発明に係る映像処理装置を備える3D映像対応テレビ)としてもよい。
(2)実施の形態において、判定手段304は、判定結果に基づいて、字幕処理手段309及びデータ放送処理手段310で処理に必要なデコーダやメモリのリソースを確保するとしたが、映像処理装置のデコーダやメモリは映像処理装置の他の処理と共用で用いられるので、他の処理を実行(例えば、裏番組の録画や、録画済みの番組のダビング)している場合、デコーダやメモリのリソースを確保できない可能性がある。このような場合には、字幕等の処理に先だって、他の処理を中断して字幕等の表示のための処理のリソースを確保したり、字幕やデータ放送の表示が不可能であることをユーザに告知するようにしてもよい。告知されたユーザは、実行中の他の処理を中断させるかどうかの判断ができる。映像処理装置は、ユーザが実行中の他の処理の中断等を行うことでリソースが確保できる状態になれば、その時点からリソースを確保し、字幕等の表示データの処理を行うことができる。
 このように、リソースが確保できない場合には、字幕等を3D映像と共に表示することはできないが、字幕やデータ放送用のデータの処理に先だって、3D字幕等表示モードを判別することによって、ユーザの利便性に配慮した処理が可能となる。
(3)実施の形態において説明した各構成要素の内、全部又は一部を1チップ又は複数チップの集積回路で実現してもよいし、コンピュータのプログラムで実現してもよい。
 また、実施の形態において説明した各構成要素は、映像処理装置が有するプロセッサと協働することにより、その機能を実現する。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
 また、本発明に係るコンピュータプログラム又はデジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ適宜組み合わせるとしてもよい。
(6)以下、更に本発明の一実施形態としての映像処理装置の構成及びその変形例と効果について説明する。
 (a)本発明の一実施形態に係る映像処理装置は、3D映像と共に補助表示物を表示するための映像処理装置であって、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理手段と、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理手段と、少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信手段と、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理手段及び第2の処理手段のいずれかを選択する選択手段と、前記選択手段による前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理手段及び第2の処理手段のうち当該選択手段により選択された処理手段に対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御手段とを備える。
 従って、この映像処理装置によれば、3D映像と共に表示する表示データを含むストリームの内容を解析することなく、3D字幕等表示モードを判別することができるので、表示データを3D映像と共に表示するまでの時間を短縮することができる。
 (b)また、前記制御手段は、前記第1及び第2の処理手段の処理に先行して、前記選択手段の選択結果に基づいて、第1の処理手段及び第2の処理手段のうち選択された処理手段に必要なプレーン数に応じたメモリ領域を確保する、としてもよい。
 従って、この映像処理装置によれば、3D映像と共に表示する表示データを含むストリームの内容を解析する前に、表示データを含むストリームを処理するための画像プレーンメモリを確保することができる。
 (c)また、前記受信手段は、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むMPEG2-TS形式のデータストリームを受信し、前記データブロックは、前記データストリームに含まれる前記コンテンツに関するPMTであり、前記選択手段は、前記PMTから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、3D映像と共に表示する表示データを含むストリームの内容を解析する前に、解析するPMTに含まれるモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (d)また、前記PMTには、前記コンテンツに係るストリームを構成する各ESそれぞれに関する情報の記載部分と前記コンテンツに係るストリームに共通する情報の記載部分とがあり、前記識別情報は、前記コンテンツに係るストリームに共通する情報の記載部分に含まれており、前記選択手段は、前記コンテンツに係るストリームに共通する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、コンテンツに係るストリームに共通する情報の記載部分に記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (e)また、前記PMTには、前記コンテンツに係るストリームを構成する各ESそれぞれに関する情報の記載部分と前記コンテンツに係るストリームに共通する情報の記載部分とがあり、前記識別情報は、前記各ESそれぞれに関する情報の記載部分に含まれており、前記選択手段は、前記各ESそれぞれに関する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、コンテンツを構成する各ES毎の情報の記載部分に記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (f)また、前記各ESそれぞれに関する情報の記載部分には、データ符号化方式識別子が含まれており、前記識別情報は、前記データ符号化方式識別子に含まれており、前記選択手段は、前記データ符号化方式識別子から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、コンテンツを構成する各ES毎の情報の内、データ符号化方式識別子に記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (g)また、前記受信手段は、放送局からのMPEG2-TS形式のデータストリームを受信し、前記データブロックは、前記データストリームに含まれるEITであり、前記EITは、前記補助表示物が共に表示される3D映像に関する情報の記載部分が含まれており、前記識別情報は、前記補助表示物が共に表示される3D映像に関する情報の記載部分に含まれており、前記選択手段は、前記補助表示物が共に表示される3D映像に関する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、3D映像と共に表示する表示データを含むストリームが送信される前に、送信されるEITに含まれるモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (h)また、前記補助表示物が共に表示される3D映像に関する情報には、データコンテンツ記述子が含まれており、前記識別情報は、前記データコンテンツ記述子に含まれており、前記選択手段は、前記データコンテンツ記述子から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、EITに含まれるデータコンテンツ記述子に記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (i)また、前記受信手段は、少なくともIPネットワークを用いて配信されるストリーミングデータと、前記ストリーミングデータを再生するための情報を含む再生制御情報とを受信し、前記データブロックは、前記再生制御情報に含まれているものであり、前記選択手段は、前記データブロックから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、IPTV用のストリーミングデータを再生するための再生制御情報に記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (j)また、前記受信手段は、少なくともIPネットワークを用いて配信されるVOD用ナビゲーションデータ、および、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むVOD用のストリーミングデータを受信し、前記データブロックは、前記ナビゲーションデータに含まれたものであり、前記選択手段は、前記データブロックから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、VOD用のストリーミングデータを受信する前に処理を行うナビゲーションデータに記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (k)また、前記受信手段は、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むMPEG2-TS形式のデータストリームを受信し、前記データストリームに含まれる前記コンテンツに係るBITに記載されたハイパーリンク記述子の情報に基づいて、前記補助表示物再生用ストリームを、HTTPを用いてIPネットワークから取得する取得手段を更に備え、前記データブロックは、前記取得の要求に対する応答であるHTTPのレスポンスヘッダであり、前記選択手段は、前記レスポンスヘッダから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する、としてもよい。
 従って、この映像処理装置によれば、HTTPのレスポンスヘッダに記述したモード識別情報に基づいて、3D字幕等表示モードを識別することができる。
 (l)本発明の一実施形態に係る映像処理方法は、3D映像と共に補助表示物を表示するための映像処理装置の映像処理方法であって、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、少なくとも前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信ステップと、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを備える。
 従って、この映像処方法によれば、3D映像と共に表示する表示データを含むストリームの内容を解析することなく、3D字幕等表示モードを判別することができるので、表示データを3D映像と共に表示するまでの時間を短縮することができる。
 (m)本発明の一実施形態に係る映像処理プログラムは、3D映像と共に補助表示物を表示するための映像処理装置の映像処理プログラムであって、前記映像処理装置に、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、少なくとも前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信ステップと、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを備える。
 従って、この映像処理プログラムによれば、3D映像と共に表示する表示データを含むストリームの内容を解析することなく、3D字幕等表示モードを判別することができるので、表示データを3D映像と共に表示するまでの時間を短縮することができる。
 (n)本発明の一実施形態に係る映像処理プログラムの記録媒体は、3D映像と共に補助表示物を表示するための映像処理装置に実行させる映像処理プログラムを記録した記録媒体であって、前記映像処理装置に、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、少なくとも前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信ステップと、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを映像処理装置に実行させる映像処理プログラムを記録している。
 従って、この映像処理プログラムの記録媒体によれば、3D映像と共に表示する表示データを含むストリームの内容を解析することなく、3D字幕等表示モードを判別することができるので、表示データを3D映像と共に表示するまでの時間を短縮することができる。
 (o)本発明の一実施形態に係る映像処理装置を構成する集積回路は、3D映像と共に補助表示物を表示するための映像処理装置を構成する集積回路であって、前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理手段と、前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理手段と、少なくとも前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信手段と、前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理手段及び第2の処理手段のいずれかを選択する選択手段と、前記選択手段による前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理手段及び第2の処理手段のうち当該選択手段により選択された処理手段に対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御手段とを備える。
 従って、この映像処理装置を構成する集積回路によれば、3D映像と共に表示する表示データを含むストリームの内容を解析することなく、3D字幕等表示モードを判別することができるので、表示データを3D映像と共に表示するまでの時間を短縮することができる。
 本発明に係る映像処理装置は、字幕やデータ放送用データを3D映像と共に表示する映像処理装置等に有効である。
300 映像処理装置
301 受信部
302 デマルチプレクサ
303 解析手段
304 判定手段
305 ビデオデコード手段
306 オフセット取得手段
307 左目映像出力手段
308 右目映像出力手段
309 字幕処理手段
310 データ放送処理手段
311 表示用映像出力手段
701 字幕デコード手段
702 字幕プレーンメモリ
703 左字幕シフト出力手段
704 右字幕シフト出力手段
801 左字幕デコード手段
802 左字幕プレーンメモリ
803 左字幕シフト出力手段
804 右字幕デコード手段
805 右字幕プレーンメモリ
806 右字幕シフト出力手段

Claims (15)

  1.  3D映像と共に補助表示物を表示するための映像処理装置であって、
     前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理手段と、
     前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理手段と、
     少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信手段と、
     前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理手段及び第2の処理手段のいずれかを選択する選択手段と、
     前記選択手段による前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理手段及び第2の処理手段のうち当該選択手段により選択された処理手段に対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御手段とを備える
     ことを特徴とする映像処理装置。
  2.  前記制御手段は、前記第1及び第2の処理手段の処理に先行して、前記選択手段の選択結果に基づいて、第1の処理手段及び第2の処理手段のうち選択された処理手段に必要なプレーン数に応じたメモリ領域を確保する
     ことを特徴とする請求項1に記載の映像処理装置。
  3.  前記受信手段は、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むMPEG2-TS(Transport Stream)形式のデータストリームを受信し、
     前記データブロックは、前記データストリームに含まれる前記コンテンツに関するPMT(Program Map Table)であり、
     前記選択手段は、前記PMTから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項2に記載の映像処理装置。
  4.  前記PMTには、前記コンテンツに係るストリームを構成する各ES(Elementary Stream)それぞれに関する情報の記載部分と前記コンテンツに係るストリームに共通する情報の記載部分とがあり、
     前記識別情報は、前記コンテンツに係るストリームに共通する情報の記載部分に含まれており、
     前記選択手段は、前記コンテンツに係るストリームに共通する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項3に記載の映像処理装置。
  5.  前記PMTには、前記コンテンツに係るストリームを構成する各ESそれぞれに関する情報の記載部分と前記コンテンツに係るストリームに共通する情報の記載部分とがあり、
     前記識別情報は、前記各ESそれぞれに関する情報の記載部分に含まれており、
     前記選択手段は、前記各ESそれぞれに関する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項3に記載の映像処理装置。
  6.  前記各ESそれぞれに関する情報の記載部分には、データ符号化方式識別子が含まれており、
     前記識別情報は、前記データ符号化方式識別子に含まれており、
     前記選択手段は、前記データ符号化方式識別子から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項5に記載の映像処理装置。
  7.  前記受信手段は、放送局からのMPEG2-TS形式のデータストリームを受信し、
     前記データブロックは、前記データストリームに含まれるEIT(Event Information Table)であり、
     前記EITは、前記補助表示物が共に表示される3D映像に関する情報の記載部分が含まれており、
     前記識別情報は、前記補助表示物が共に表示される3D映像に関する情報の記載部分に含まれており、
     前記選択手段は、前記補助表示物が共に表示される3D映像に関する情報の記載部分から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項2に記載の映像処理装置。
  8.  前記補助表示物が共に表示される3D映像に関する情報には、データコンテンツ記述子が含まれており、
     前記識別情報は、前記データコンテンツ記述子に含まれており、
     前記選択手段は、前記データコンテンツ記述子から抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項7に記載の映像処理装置。
  9.  前記受信手段は、少なくともIP(Internet Protocol)ネットワークを用いて配信されるストリーミングデータと、前記ストリーミングデータを再生するための情報を含む再生制御情報とを受信し、
     前記データブロックは、前記再生制御情報に含まれているものであり、
     前記選択手段は、前記データブロックから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項2に記載の映像処理装置。
  10.  前記受信手段は、少なくとも、IP(Internet Protocol)ネットワークを用いて配信されるVOD(Video On Demand)用のナビゲーションデータ、および、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むVOD用のストリーミングデータを受信し、
     前記データブロックは、前記ナビゲーションデータに含まれたものであり、
     前記選択手段は、前記データブロックから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項2に記載の映像処理装置。
  11.  前記受信手段は、前記補助表示物が共に表示される3D映像を含むコンテンツに係るストリームを含むMPEG2-TS形式のデータストリームを受信し、
     前記データストリームに含まれる前記コンテンツに係るBIT(Broadcaster Information Table)に記載されたハイパーリンク記述子の情報に基づいて、前記補助表示物再生用ストリームをHTTP(HyperText Transfer Protocol)を用いてIPネットワークから取得を行う取得手段を更に備え、
     前記データブロックは、前記取得の要求に対する応答であるHTTPのレスポンスヘッダであり、
     前記選択手段は、前記レスポンスヘッダから抽出した前記識別情報に基づいて、前記第1の処理手段及び前記第2の処理手段のいずれかを選択する
     ことを特徴とする請求項2に記載の映像処理装置。
  12.  3D映像と共に補助表示物を表示するための映像処理装置の映像処理方法であって、
     前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、
     前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、
     少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信ステップと、
     前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、
     前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを備える
     ことを特徴とする映像処理方法。
  13.  3D映像と共に補助表示物を表示するための映像処理装置の映像処理プログラムであって、
     前記映像処理装置に、
     前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、
     前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、
     少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信ステップと、
     前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、
     前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを、
     実行させることを特徴とする映像処理プログラム。
  14.  3D映像と共に補助表示物を表示するための映像処理装置に実行させる映像処理プログラムを記録した記録媒体であって、
     前記映像処理装置に、
     前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理ステップと、
     前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理ステップと、
     少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信ステップと、
     前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理ステップ及び第2の処理ステップのいずれかを選択する選択ステップと、
     前記選択ステップによる前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理ステップ及び第2の処理ステップのうち当該選択ステップにより選択された処理ステップに対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御ステップとを、
     実行させる映像処理プログラムを記録した記録媒体。
  15.  3D映像と共に補助表示物を表示するための映像処理装置を構成する集積回路であって、
     前記補助表示物を1プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第1の処理手段と、
     前記補助表示物を2プレーンで表す情報に基づいて、前記補助表示物の3D表示のための右目用補助表示物及び左目用補助表示物を作成して出力する機能を有する第2の処理手段と、
     少なくとも、前記補助表示物を1プレーン及び2プレーンのいずれかを用いて表す情報を含む補助表示物再生用ストリームと、前記補助表示物が1プレーン及び2プレーンのいずれで表されているかを示す識別情報を含むデータブロックとを受信する受信手段と、
     前記補助表示物再生用ストリームの内容が参照されることに先行して、データブロック内の識別情報を抽出し、当該識別情報に応じて第1の処理手段及び第2の処理手段のいずれかを選択する選択手段と、
     前記選択手段による前記選択の後に、前記補助表示物再生用ストリームの内容である補助表示物を表す情報を、第1の処理手段及び第2の処理手段のうち当該選択手段により選択された処理手段に対して、逐次供給して右目用補助表示物及び左目用補助表示物の作成及び出力を行わせる制御手段とを備える
     ことを特徴とする集積回路。
PCT/JP2012/003312 2011-06-01 2012-05-21 映像処理装置、方法、プログラム、記録媒体及び集積回路 WO2012164864A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013517849A JP5957770B2 (ja) 2011-06-01 2012-05-21 映像処理装置、方法、プログラム、記録媒体及び集積回路

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161492050P 2011-06-01 2011-06-01
US61/492,050 2011-06-01

Publications (1)

Publication Number Publication Date
WO2012164864A1 true WO2012164864A1 (ja) 2012-12-06

Family

ID=47258741

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003312 WO2012164864A1 (ja) 2011-06-01 2012-05-21 映像処理装置、方法、プログラム、記録媒体及び集積回路

Country Status (4)

Country Link
US (1) US20120311645A1 (ja)
JP (1) JP5957770B2 (ja)
AR (1) AR086599A1 (ja)
WO (1) WO2012164864A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013210580A1 (en) * 2012-01-18 2013-11-28 Panasonic Corporation Transmission device, video display device, transmission method, video processing method, video processing program, and integrated circuit
WO2018155703A1 (ja) * 2017-02-27 2018-08-30 Kddi株式会社 映像配信システム、端末装置及び映像データ配信装置
CN113268813B (zh) * 2021-05-28 2022-11-01 成都威爱新经济技术研究院有限公司 一种基于像素流送技术的车辆展示方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075590A1 (ja) * 2005-01-14 2006-07-20 Matsushita Electric Industrial Co., Ltd. デジタル放送におけるコンテンツ検出装置
JP2008109606A (ja) * 2006-09-29 2008-05-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2010109487A (ja) * 2008-10-28 2010-05-13 Canon Inc デジタル放送受信装置及びデジタル放送受信方法
WO2011036888A1 (ja) * 2009-09-25 2011-03-31 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4995590B2 (ja) * 2007-02-14 2012-08-08 株式会社エヌ・ティ・ティ・ドコモ コンテンツ流通管理装置、通信端末、プログラム及びコンテンツ流通システム
JP4970205B2 (ja) * 2007-09-18 2012-07-04 株式会社東芝 放送コンテンツ配信システムとこのシステムに用いられる配信装置及び放送受信端末装置
CN102100076B (zh) * 2008-07-24 2013-06-12 松下电器产业株式会社 能够进行立体视觉再生的再生装置、再生方法
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075590A1 (ja) * 2005-01-14 2006-07-20 Matsushita Electric Industrial Co., Ltd. デジタル放送におけるコンテンツ検出装置
JP2008109606A (ja) * 2006-09-29 2008-05-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2010109487A (ja) * 2008-10-28 2010-05-13 Canon Inc デジタル放送受信装置及びデジタル放送受信方法
WO2011036888A1 (ja) * 2009-09-25 2011-03-31 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Also Published As

Publication number Publication date
AR086599A1 (es) 2014-01-08
US20120311645A1 (en) 2012-12-06
JPWO2012164864A1 (ja) 2015-02-23
JP5957770B2 (ja) 2016-07-27

Similar Documents

Publication Publication Date Title
TWI505691B (zh) 提供及處理一三維(3d)視訊信號之方法、3d源裝置、3d處理裝置及電腦程式產品
US9456194B2 (en) Reception/reproduction device, transmission device, reception/reproduction method and transmission method
US20090025051A1 (en) Method of transmitting and receiving broadcast signal and apparatus for receiving broadcast signal
CN103168473B (zh) 数字接收机以及用于处理数字接收机中的3d 内容的方法
US9185386B2 (en) Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit
JP5981915B2 (ja) 送信装置、受信再生装置、送信方法及び受信再生方法
KR20130127423A (ko) 멀티미디어 애플리케이션을 위한 pip 방법
KR20150035699A (ko) 송신/수신 장치, 방법, 부호화/복호화 장치
US20140204962A1 (en) Transmitting device, receiving device, and transceiving method thereof
WO2013021655A1 (ja) 受信再生装置、送信装置、受信再生方法、及び送信方法
CN109478412B (zh) 信息处理设备、信息处理方法和程序
US20130209063A1 (en) Digital receiver and content processing method in digital receiver
US20140147088A1 (en) Transmission device, receiving/playing device, transmission method, and receiving/playing method
JP5957770B2 (ja) 映像処理装置、方法、プログラム、記録媒体及び集積回路
US9596450B2 (en) Video transmission device, video transmission method, and video playback device
KR102252402B1 (ko) 멀티미디어 서비스 송수신 방법 및 장치
US20120127266A1 (en) Method and apparatus for providing stereoscopic 3d broadcasting service compatible with hd broadcasting service
KR101878218B1 (ko) Mpeg-2 ts 기반 방송 서비스 환경에서 전달 시간이 다른 콘텐츠를 연동하여 3d 서비스를 제공하는 방법
JP6590479B2 (ja) 受信装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792207

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013517849

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12792207

Country of ref document: EP

Kind code of ref document: A1