WO2012160812A1 - 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路 - Google Patents

映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路 Download PDF

Info

Publication number
WO2012160812A1
WO2012160812A1 PCT/JP2012/003344 JP2012003344W WO2012160812A1 WO 2012160812 A1 WO2012160812 A1 WO 2012160812A1 JP 2012003344 W JP2012003344 W JP 2012003344W WO 2012160812 A1 WO2012160812 A1 WO 2012160812A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
image
data
video
data broadcast
Prior art date
Application number
PCT/JP2012/003344
Other languages
English (en)
French (fr)
Inventor
琢士 平本
由佳 小澤
川口 透
洋 矢羽田
上坂 靖
智輝 小川
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2012160812A1 publication Critical patent/WO2012160812A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing

Definitions

  • the present invention relates to a technology for displaying data broadcasting in 3D (stereoscopic view).
  • a transmitting device sends characters and still images as data broadcasts separately from video data, and a receiving device performs processing to superimpose and display characters and still images received by data broadcasting on video data. (See Non-Patent Document 1).
  • the present invention has been made in view of the above-described problems, and can display an image that can be easily viewed by a user when a 3D program and a data broadcast are displayed together.
  • An object is to provide a video viewing system, a video processing method, a video processing program, and an integrated circuit.
  • a video processing apparatus that receives data broadcast and video data for 3D display, and superimposes and outputs a data broadcast image on the video of the received video data.
  • the depth at which the image when the data broadcasting image is displayed in 3D is set according to the depth of the object displayed in 3D based on the video data.
  • An acquisition unit that acquires the depth from the depth information included in the received video data, and a right eye for 3D display of the received image of the data broadcast at the acquired depth
  • a generating unit that generates a left-eye image and a left-eye image.
  • the video processing device can display the data broadcast image displayed in a superimposed manner on the video data in 3D at a depth corresponding to the depth of the 3D object of the video data.
  • the user can more appropriately view the data broadcast together with the 3D video.
  • summary of the stereoscopic image viewing system 1 The figure which shows the structure of the three-dimensional video viewing system 1.
  • Block diagram of broadcasting apparatus 10 The figure for demonstrating the production
  • the figure for demonstrating the superimposition of 3D video data and data broadcasting The figure which shows 3D object and data broadcasting which are displayed on the display 22
  • a stereoscopic video viewing system 1 as an embodiment of the present invention will be described with reference to the drawings. ⁇ 1. Overview> Here, a description will be given of how the present inventor has obtained the stereoscopic video viewing system 1 according to one aspect of the present invention.
  • the imaging position is different for each 3D object.
  • the imaging position of the 3D object may vary from frame to frame.
  • FIG. 2 is a diagram showing a system configuration of the stereoscopic video viewing system 1 which is an aspect of the present invention.
  • the stereoscopic video viewing system 1 includes a broadcasting device 10, a digital television 20, a remote controller 30, and 3D glasses 40.
  • the broadcast device 10 is a device installed in a digital broadcast station, and transmits a broadcast stream obtained by multiplexing a program content composed of audio data and 3D video data and a data broadcast on a digital broadcast wave.
  • the digital television 20 is a 3D television capable of displaying 3D video, receives a digital broadcast wave, and extracts a broadcast stream from the received digital broadcast wave. Then, the broadcast stream is separated into audio data, 3D video data, and data broadcast.
  • the digital television 20 uses the image for the left eye for displaying the image in 3D from the data broadcast image, and It is necessary to generate an image for the right eye.
  • the 3D video data received by the digital television 20 includes offset information for generating a left-eye image and a right-eye image from the data broadcast image.
  • an offset value indicating the shift amount by which the data broadcast image is shifted leftward or rightward is indicated by the number of pixels. This offset value is generated according to the image formation point of the 3D video data, and is set so that the image formation point of the data broadcasting object displayed in 3D is in front of the image formation point of the 3D video object. Has been.
  • FIG. 3 is a block diagram illustrating a functional configuration of the broadcasting device 10.
  • the broadcast apparatus 10 includes a program content storage unit 101, an offset information generation unit 102, an encoder 103, a data broadcast production unit 104, a multiplexer 105, and a broadcast stream transmission unit 106.
  • the broadcasting device 10 includes a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), and a hard disk not shown.
  • each functional block of the broadcasting device 10 is configured as hardware or realized by a processor executing a computer program stored in a ROM or a hard disk.
  • the program content storage unit 101 stores 3D video data and audio data constituting a program.
  • the offset information generation unit 102 reads 3D video data stored in the program content storage unit 101, and generates offset information for each frame of the read 3D video data. Generation of offset information will be described with reference to FIGS.
  • the offset information generation unit 102 defines in advance positions 1 to 14 when the plane on which 3D video data is drawn is divided into nine areas from block 1 to block 9. ing.
  • position 1 includes block 1.
  • Position 2 includes block 2.
  • Position 3 includes block 3.
  • Position 4 includes block 4.
  • Position 5 includes block 5.
  • Position 6 includes block 6.
  • Position 7 includes block 7.
  • Position 8 includes block 8.
  • Position 9 includes block 9.
  • the position 10 includes all the blocks from the block 1 to the block 9.
  • the position 11 includes a block 1, a block 4, a block 7, a block 8, and a block 9.
  • the position 12 includes a block 1, a block 2, and a block 3.
  • Position 13 includes block 4, block 5 and block 6.
  • Location 14 includes block 7, block 8 and block 9.
  • FIG. 5 is a diagram showing the relationship between the depth of the 3D object included in the frame and the offset value of each divided region for the frames constituting the 3D video data.
  • the frame includes an object 150 protruding forward and an object 160 retracting deeply.
  • the depth of the object 150 is expressed by an offset value, it is “4”
  • the depth of the object 160 is expressed by an offset value, it is “ ⁇ 3”.
  • FIGS. 5 (b) to 5 (e) The offset values from position 1 to position 14 at this time are shown in FIGS. 5 (b) to 5 (e).
  • the offset values of the position 1, the position 2 and the position 4, and the position 5 where the object 150 is displayed are “4”, and the positions 8 and 9 where the object 160 is displayed are displayed.
  • the offset value is “ ⁇ 3”.
  • the offset values of position 3, position 6, and position 7 where neither the object 150 nor the object 160 are displayed are “0”.
  • “4” having a large absolute value of the depth is used as the offset value at the position 10 and the position 11 where both the object 150 and the object 160 are displayed.
  • the offset value of the position 12 and the position 13 where the object 150 is displayed is “4”, and the offset value of the position 14 where the object 160 is displayed is “ ⁇ 3”.
  • the offset information generation unit 102 determines an offset value when the data broadcast image is displayed in 3D according to the offset value of the 3D video shown in FIG.
  • a value obtained by adding “1” to the offset value of the 3D video data is set as the offset value of the data broadcast image.
  • the offset value of the 3D video data is “0”, the offset value of the data broadcast image is also “0”.
  • the data broadcast image appears to pop out closer to the user than the 3D video object.
  • the offset information generation unit 102 generates offset information 170 that is a table describing offset_sequence_id that is information for specifying each position and offset_sequence that is an offset value of each position.
  • the generated offset information 170 is input to the encoder 103 and the data broadcast production unit 104.
  • the offset information 170 is an example of depth information according to the present invention.
  • Encoder 103 includes a video encoder and an audio encoder.
  • the video encoder reads 3D video data from the program content storage unit 101, It is encoded with H.264 MVC (Multi View Coding) to obtain a video stream in the MPEG (Moving Picture Experts Group) 2-TS (Transport Stream) format.
  • the audio encoder reads out audio data from the program content storage unit 101 and encodes it to obtain an MPEG2-TS format audio stream.
  • the video encoder encodes the 3D video data to generate GOP (Group Of Pictures)
  • GOP Group Of Pictures
  • the H.3D of the 3D video data is generated.
  • the offset information generated by the offset information generation unit 102 is stored in the GOP included in the H.264 MVC Dependent view (video compression data for one eye).
  • the encoded video stream and audio stream are input to the multiplexer.
  • the data broadcast production unit 104 generates data for data broadcast using BML (Broadcast Markup Language).
  • BML Broadcast Markup Language
  • the generated data is input to the multiplexer 105.
  • the BML 180 shown in FIG. 7 is an example of data described by the BML generated by the data broadcasting production unit 104, and displays the character string “3D Digital” at position 5 (see FIG. 3B).
  • the BML 180 includes a base_depth element 181 as information for determining the depth of a data broadcast image (here, a character string “3D Digital”).
  • the base_depth element 181 includes an offset_sequence_id attribute and a fixed_depth attribute.
  • the offset_sequence_id attribute is an attribute for defining the display position of the image.
  • the data broadcast production unit 104 displays the character string “3D Digital” at the position 5 (see FIG. 3B)
  • the data broadcast production unit 104 reads the character string “3D Digital” from the offset information 170 received from the offset information generation unit 102.
  • the value “5” of offset_sequence_id corresponding to the position 5 that is the display position is acquired. Then, the acquired value “5” is set as an offset_sequence_id attribute of the base_depth element.
  • the fixed_depth attribute is an offset value for displaying at a fixed depth without changing the depth of the image of the data broadcast according to the depth of the video of the 3D video data.
  • the data broadcast production unit 104 sets a depth at which the data broadcast image is formed on the near side from the maximum depth.
  • the indicated offset value is a fixed_depth attribute. If the maximum depth is not notified, a predetermined value may be used as the fixed_depth attribute. As an example, the fixed_depth attribute of the BML 180 is “10”.
  • the multiplexer 105 multiplexes the video stream, the audio stream, the data described in BML, and the like to generate MPEG2-TS.
  • the generated MPEG2-TS is input to the broadcast stream transmission unit 106.
  • FIG. 8 is a block diagram showing a functional configuration of the digital television 20. As shown in the figure, the digital television 20 includes a video processing device 21 and a display 22.
  • the video processing device 21 includes a demultiplexer 201, an audio decoder 202, a video decoder 203, a left-eye video data output unit 204, a right-eye video data output unit 205, a data broadcast processing unit 206, an offset acquisition unit 207, and right-eye data.
  • the video processing device 21 includes a processor, RAM, ROM, and hard disk not shown. Each functional block of the video processing device 21 is configured as hardware, or is realized by a processor executing a computer program stored in a ROM or a hard disk.
  • the demultiplexer 201 acquires the MPEG2-TS received via the digital broadcasting network, and extracts the audio stream, video stream, and data described in BML multiplexed in the MPEG2-TS.
  • the demultiplexer 201 passes the audio stream to the audio decoder 202, passes the video stream to the video decoder 203, and passes the data described in BML to the data broadcast processing unit 206.
  • the audio decoder 202 acquires and decodes the audio stream.
  • the decoded audio signal is input to the display control unit 212.
  • the video decoder 203 acquires and decodes the video stream.
  • 3D video data is H.264. It is compression-encoded with H.264 MVC.
  • the video decoder 203 decodes the video stream, it is decoded into two pieces of video data for the left eye and the right eye.
  • the video decoder 203 acquires the display mode of 3D video data from the display mode switching unit 215.
  • the display mode of the 3D video data is either an LR (Left view-Right view) display mode or an LL (Left view-Left view) display mode.
  • the video decoder 203 In the LR display mode, the video decoder 203 outputs the decoded left-eye video data to the left-eye video data output unit 204, and the decoded right-eye video data to the right-eye video data output unit 205. Output. In the LL display mode, the video decoder 203 outputs the decoded left-eye video data to both the left-eye video data output unit 204 and the right-eye video data output unit 205. Details of the LR display mode and the LL display mode will be described later.
  • the left-eye video data output unit 204 and the right-eye video data output unit 205 respectively control the output timing of the video data acquired from the video decoder 203, and generate the left-eye video data and the right-eye video data alternately. Output to the unit 210 and the image generation unit 211 for the right eye.
  • the drawing data generated here is drawing data for 2D display.
  • the data broadcast processing unit 206 acquires the display mode of the data broadcast from the display mode switching unit 215.
  • the data broadcast display mode is either the LR display mode or the LL display mode.
  • the data broadcast processing unit 206 In the LR display mode, the data broadcast processing unit 206 outputs drawing data for 2D display to the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 together with a 3D display instruction. In the LL display mode, the data broadcast processing unit 206 outputs 2D display drawing data to the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 together with a 2D display instruction.
  • the data broadcast processing unit 206 outputs the base_depth element included in the BML to the offset acquisition unit 207.
  • the offset acquisition unit 207 extracts offset information from the GOP acquired while the video decoder 203 is decoding the video stream. Further, the offset acquisition unit 207 acquires a base_depth element from the data broadcast processing unit 206. Further, the offset acquisition unit 207 reads the offset mode stored in the offset mode storage unit 216.
  • the offset acquisition unit 207 acquires offset values that are parallax information for 3D display of data broadcasting using the offset information, the base_depth element, and the offset mode.
  • the acquired offset value is notified to the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209.
  • the offset acquisition unit 207 acquires the offset information 170 illustrated in FIG. 6 and the base_depth element 181 illustrated in FIG. 7 will be described.
  • the offset acquisition unit 207 reads the value of offset_sequence_id included in the base_depth element 181. Here, it is “5”. The offset acquisition unit 207 acquires the offset_sequence value associated with the offset_sequence_id “5” from the offset information 170 as the offset value. In this example, the offset value is “5”.
  • the offset acquisition unit 207 acquires the value of fixed_depth from the base_depth element 181 as the offset value.
  • the offset value is “10”.
  • the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 receive drawing data for 2D display and an instruction for either 3D display or 2D display from the data broadcast processing unit 206. Further, the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 receive the offset value from the offset acquisition unit 207.
  • the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 Upon receiving the 2D display instruction, the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 convert the 2D display drawing data received from the data broadcast processing unit 206 into the left-eye image generation unit 210 and The image is output to the right eye image generation unit 211.
  • the right-eye data broadcast image generation unit 208 Upon receiving the 3D display instruction, the right-eye data broadcast image generation unit 208 generates a right-eye data broadcast image, and the left-eye data broadcast image generation unit 209 generates a left-eye data broadcast image.
  • the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 receive the drawing data 300.
  • the offset value is received from the offset acquisition unit 207.
  • the left-eye data broadcast image generation unit 209 shifts the drawing data 300 to the right by the number of pixels indicated by the notified offset value, generates a transparent area 311 on the left side, cuts out the right end area 312, and generates left-eye data.
  • a broadcast image 301 is generated.
  • the right-eye data broadcast image generation unit 208 shifts the drawing data 300 to the left by the number of pixels indicated by the notified offset value, generates a transparent area 321 on the right side, cuts the left end area 322, and right-eye data.
  • a broadcast image 302 is generated.
  • FIG. 9B is a diagram showing what kind of stereoscopic video is reproduced by the offset control shown in FIG. 9A.
  • a plane 303 on which a 3D display data broadcast image is drawn has a depth-X depth. That is, when viewed from the user, the characters “3D Digital” appear to jump out from the display 22 by only Depth-X.
  • the left-eye data broadcast image generation unit 209 outputs the generated left-eye data broadcast image to the left-eye image generation unit 210, and the right-eye data broadcast image generation unit 208 outputs the generated right-eye data broadcast image to the right-eye.
  • the image is output to the image generation unit 211.
  • the left eye image generation unit 210 receives the left eye data broadcast image from the left eye data broadcast image generation unit 209.
  • the left-eye image generation unit 210 sequentially receives the decoded left-eye video data from the left-eye video data output unit 204.
  • the left-eye image generation unit 210 superimposes the left-eye data broadcast image on the left-eye video data to generate a left-eye image.
  • the generated left eye image is input to the display control unit 212.
  • the left-eye image generation unit 210 draws a left-eye video plane 401 using a plane memory for drawing left-eye video data for one screen. Also, the left-eye image generation unit 210 draws the left-eye data broadcast plane 402 using a plane memory for drawing an image for one screen included in the data broadcast. Then, the left-eye data broadcast plane 402 is superimposed on the left-eye video plane 401 to generate a left-eye image 403 in which the object included in the 3D video data and the data broadcast character “3D Digital” are combined.
  • the right eye image generation unit 211 receives the right eye data broadcast image from the right eye data broadcast image generation unit 208.
  • the right-eye image generation unit 211 sequentially receives the decoded right-eye video data from the right-eye video data output unit 205.
  • the right-eye image generation unit 211 generates a right-eye image by superimposing the right-eye data broadcast image on the right-eye video data.
  • the generated right eye image is input to the display control unit 212.
  • the display control unit 212 alternately receives the left-eye image and the right-eye image from the left-eye image generation unit 210 and the right-eye image generation unit 211, and outputs the received left-eye image and right-eye image to the display 22. At this time, when the image to be output is the left-eye image, the display control unit 212 notifies the 3D glasses 40 worn by the user that the left-eye image is displayed, and the output image is the right-eye image. In this case, the display control unit 212 notifies the 3D glasses 40 worn by the user that the right-eye image is to be displayed.
  • the right eye of the 3D glasses 40 is hidden by the liquid crystal shutter, and the user views the left-eye image only with the left eye.
  • the right-eye image is displayed on the display 22
  • the left eye of the 3D glasses 40 is hidden by the liquid crystal shutter, and the user views the left-eye image only with the right eye.
  • the display control unit 212 outputs the audio signal received from the audio decoder in synchronization with the screen output to the display 22 to a speaker (not shown) built in the display 22.
  • the user input receiving unit 213 receives from the remote control 30 a 3D video display mode input by the user operating the remote control 30.
  • the user input receiving unit 213 records the received 3D video display mode in the display mode storage unit 214.
  • the display mode storage unit 214 is a non-volatile memory for storing the display mode of 3D video input by the user.
  • the display mode switching unit 215 sets a 3D video display mode and a data broadcast display mode.
  • the display mode switching unit 215 notifies the video decoder 203 of the set display mode of 3D video data.
  • the display mode switching unit 215 notifies the data broadcast processing unit 206 of the set display mode of the data broadcast. Details of the display mode setting process will be described later.
  • the display mode will be described with reference to FIGS.
  • the display mode of 3D video data will be described as an example, but the display mode of data broadcasting is the same.
  • the display modes include the LR display mode and the LL display mode.
  • the LR display mode is a mode for displaying 3D video data in 3D
  • the LL display mode is a mode for displaying 3D video data in 2D.
  • FIG. 12 is a diagram for explaining the LR display mode (3D display).
  • the video decoder 203 outputs the decoded left-eye video data 501 to the left-eye video data output unit 204, and outputs the decoded right-eye video data 502 to the right-eye video data output unit 205. Output.
  • the left-eye video data 501 and the right-eye video data 502 are parallax images.
  • the left-eye video data 501 and the right-eye video data 502 are alternately output to the display 22 via the display control unit 212.
  • 3D display is realized by alternately displaying the left-eye video data 501 and the right-eye video data 502 having parallax.
  • FIG. 13 is a diagram for explaining the LL display mode (2D display).
  • the video decoder 203 also uses the decoded left-eye video data 501 as right-eye video data. That is, the video decoder 203 outputs the left-eye video data 501 to both the left-eye video data output unit 204 and the right-eye video data output unit 205.
  • the same left-eye video data 501 and right-eye video data 501 having no parallax are alternately output to the display 22 via the display control unit 212.
  • the offset mode storage unit 216 is a non-volatile memory for storing an offset mode that is a method for determining an offset value that is parallax information when 3D displaying a data broadcast.
  • the offset mode is either “variation” or “fixed”.
  • the offset mode is input by the user via the user input receiving unit 213.
  • the offset_sequence value included in the offset information received together with the 3D video data is used as the offset value.
  • offset information received together with 3D video data is included in one GOP unit. That is, the offset information can be updated on a GOP basis. Therefore, even if the BML is not updated, if the offset_sequence included in the offset information varies, for example, if the depth of the 3D object 601 illustrated in FIG. 11 varies, the depth of the character 602 of “3D Digital” accordingly. Will fluctuate.
  • the value of fixed_depth included in BML is used as the offset value.
  • the fixed_depth attribute can be updated in units of BML, but is not associated with 3D video data. Therefore, even if the depth of the 3D video data changes, the effect of changing the depth of the data broadcast image is lost. However, some users may find it difficult to see the characters when the depth of the characters in the data broadcast varies. In such a case, the user may set the offset mode to “fixed”. ⁇ 3. Operation> Here, the operation of the video processing apparatus 21 will be described using the flowcharts of FIGS. 14 to 16. ⁇ 3-1. Operation of data broadcasting display processing> FIG.
  • LR display data for data broadcasting indicates the “left-eye data broadcast image” and “right-eye data broadcast image” described above.
  • 3D video LR video data in the figure refers to the “left-eye video data” and “right-eye video data” described above.
  • the display mode switching unit 215 sets a display mode for 3D video and data broadcasting (step S1). Details of step S1 will be described later.
  • the offset acquisition unit 207 acquires an offset value that is parallax information for displaying the data broadcast in 3D (step S2). Details of step S2 will be described later.
  • the data broadcast processing unit 206 determines whether the display mode of the data broadcast set by the display mode switching unit 215 in step S1 is the LL display mode or the LR display mode.
  • the data broadcast processing unit 206 When the display mode of the data broadcast is the LL display mode (YES in step S3), the data broadcast processing unit 206 notifies the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 that it is in the LL display mode. To be notified.
  • the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 receive the rendering data received from the data broadcast processing unit 206 before being converted to 3D as it is, and the right-eye image generation unit 211 and the left-eye image generation unit 210. Output to.
  • the 3D video data display mode is also the LL display mode. Therefore, the video decoder 203 outputs the left-eye video data as video data for 2D display to the left-eye video data output unit 204 and the right-eye video data output unit 205.
  • both the left-eye image generation unit 210 and the right-eye image generation unit 211 superimpose data broadcast drawing data on the video data for 2D display (step S4).
  • the 3D video and data broadcast displayed on the display 22 via the display control unit 212 are displayed in 2D.
  • the right-eye data broadcast image generation unit 208 and the left-eye data broadcast image generation unit 209 each have the offset acquired by the offset acquisition unit 207 in step S2.
  • the left-eye data broadcast image and the right-eye data broadcast image are generated from the data broadcast drawing data (step S5).
  • the right-eye data broadcast image generation unit 208 outputs the right-eye data broadcast image to the right-eye image generation unit 211, and the left-eye data broadcast image generation unit 209 generates the left-eye data broadcast image.
  • the unit 210 To the unit 210.
  • the data broadcast processing unit 206 acquires the 3D video display mode from the display method switching unit 215 and determines whether the 3D video display mode is the LL display mode or the LR display mode (step S6).
  • the video decoder 203 sends the left-eye video data output unit 204 and the right-eye video data output unit 205 to the left-eye video data output unit 205 as 2D display video data.
  • Video data is output.
  • the left-eye video data output unit 204 and the right-eye video data output unit 205 send the left-eye video data, which is video data for 2D display, to the right-eye image generation unit 211 and the left-eye image generation unit 210 at a predetermined timing. ,Output.
  • the left-eye image generation unit 210 superimposes the left-eye data broadcast image on the video data for 2D display.
  • the right-eye image generation unit 211 superimposes the right-eye data broadcast image on the video data for 2D display (step S7).
  • the 3D video displayed on the display 22 via the display control unit 212 is a 2D display, and the data broadcast is a 3D display.
  • the video decoder 203 When the 3D video data display mode is the LR display mode (NO in step S6), the video decoder 203 outputs the left-eye video data to the left-eye video data output unit 204, and the right-eye video data is output to the right-eye video data.
  • the data is output to the unit 205.
  • the left-eye video data output unit 204 and the right-eye video data output unit 205 each output the left-eye video data to the left-eye image generation unit 210 at a predetermined timing, and the right-eye video data is output to the right-eye image generation unit. To 211.
  • FIG. 15 is a flowchart showing the operation of the display mode setting process by the display mode switching unit 215. The operation shown here is the details of step S1 in FIG.
  • the display mode switching unit 215 acquires the base_depth element from the BML acquired by the data broadcast processing unit 206.
  • the display mode switching unit 215 sets the data broadcast display mode to the LL display mode (step S102).
  • the display mode switching unit 215 sets the 3D video data display mode to the LL display mode (step S103).
  • the display mode switching unit 215 sets the data broadcast display mode to the LR display mode (step S104).
  • the display mode switching unit 215 determines whether or not the display mode designated in advance by the user is recorded in the display mode storage unit 214 (step S105).
  • the display mode switching unit 215 sets the display mode of the 3D video data to the LR display mode (step S108).
  • the display mode switching unit 215 determines whether the recorded display mode is the LL display mode or the LR display mode (step S106).
  • the display mode switching unit 215 sets the 3D video data display mode to the LL display mode (step S107).
  • FIG. 16 is a flowchart showing the operation of the offset value acquisition process by the offset acquisition unit 207. The operation shown here is the details of step S2 in FIG.
  • the offset acquisition unit 207 determines whether the offset mode stored in the offset mode storage unit 216 is “fixed” or “variation” (step S201).
  • the offset acquisition unit 207 acquires offset_sequence_id included in the base_depth element from the BML analyzed by the data broadcast processing unit 206 (step S202).
  • the offset acquisition unit 207 acquires data in the user data area of the GOP decoded by the video decoder 203 from the video decoder 203, and determines whether offset information is described in the GOP (step S203). ).
  • the offset acquisition unit 207 acquires the value of fixed_depth from the base_depth element. Then, the offset acquisition unit 207 sets the value of fixed_depth as an offset value (step S208).
  • the offset acquisition unit 207 acquires the value of offset_sequence associated with the offset_sequence_id acquired in step S202 from the offset information. Then, the offset acquisition unit 207 sets the offset_sequence value as an offset value (step S204).
  • the offset acquisition unit 207 acquires data in the user data area of the GOP decoded by the video decoder 203 from the video decoder 203, and stores the data in the GOP. It is determined whether offset information is described (step S205).
  • the offset acquisition unit 207 acquires the value of fixed_depth from the base_depth element. Then, the offset acquisition unit 207 sets the value of fixed_depth as an offset value (step S208).
  • the offset acquisition unit 207 reads all the offset_sequence values from the offset information. Further, the offset acquisition unit 207 acquires a fixed_depth value from the BML base_depth element analyzed by the data broadcast processing unit 206.
  • the offset acquisition unit 207 determines whether or not the maximum value of offset_sequence exceeds the fixed_depth value (step S206).
  • the offset acquisition unit 207 sets the value of fixed_depth as an offset value (step S208).
  • the offset acquisition unit 207 sets the maximum value of offset_sequence as the offset value (step S207). ⁇ 4. Modification> As mentioned above, although the embodiment of the stereoscopic video viewing system according to the present invention has been described, the exemplified stereoscopic video viewing system can be modified as follows, and the stereoscopic video viewing system according to the above-described embodiment can be modified. Of course, it is not limited to the video viewing system.
  • the base_depth element is added to the BML, and the 3D display of the data broadcast is controlled using the base_depth element. This makes it possible to control 3D display in units of BML.
  • a base_depth element may be added to SI / PSI.
  • 3D display can be controlled in units of programs.
  • a base_depth element may be added to the private area of DII.
  • 3D display can be controlled in module units.
  • the video processing device 21 has a configuration for receiving 3D video transmitted from the broadcasting device 10.
  • the video processing device 21 may be capable of receiving both 2D video / 3D video.
  • the video processing device 21 may perform the above-described data broadcasting 3D processing after detecting that the received program is a 3D video.
  • the video processing device 21 may be configured to ignore the base_depth element stored in the BML and receive the data broadcast in 2D while receiving the 2D video.
  • the offset information has a configuration stored in the GOP of MPEG2-TS.
  • the offset information is not limited to the configuration stored in the GOP, and may be stored in SI (Service Information).
  • the offset information generation unit 102 of the broadcasting device 10 inputs the generated offset information to the multiplexer 105 without inputting it to the encoder 103.
  • the offset information is stored in the MPEG2-TS GOP and transmitted from the broadcasting device 10.
  • the video processing device 21 can perform 3D data broadcasting processing even when offset information is not stored in the GOP of the received 3D video data.
  • the offset acquisition unit 207 acquires the left-eye video data and the right-eye video data from the video decoder 203. Then, the offset acquisition unit 207 extracts the parallax of the 3D object included in the left-eye video data and the right-eye video data. Furthermore, the offset acquisition unit 207 generates an offset value used for the 3D processing of the data broadcast so that the data broadcast image pops out before the 3D object according to the parallax of the 3D object.
  • a video processing apparatus is a video processing apparatus that receives data broadcast and video data for 3D display, and superimposes and outputs a data broadcast image on the video of the received video data.
  • An acquisition unit configured to acquire a depth at which the image to be displayed when the image of the data broadcast is displayed in 3D, which is set according to the depth of the object displayed in 3D based on the video data;
  • the image processing apparatus includes a generation unit that generates a right-eye image and a left-eye image for 3D display of the data broadcast image at the acquired depth.
  • the base_depth element is added to the BML.
  • the present invention is not limited to this, and information corresponding to the base_depth element may be added to the style sheet.
  • the determination whether to display the 3D video data in the LR display mode or the LL display mode is performed by the display mode switching unit 215 of the video processing device 21.
  • a control attribute for specifying whether to display 3D video data in the LR display mode or in the LL display mode may be added to the BML.
  • a control attribute called a mode_3d attribute may be added to the BML base_depth element.
  • the value of the mode_3d attribute is “00”
  • the control by the video processing device 21 is designated as shown in the above embodiment, and when the value of the mode_3d attribute is “01”, video processing is performed.
  • Control may be performed such that the 3D video data is forcibly displayed in the LL display mode without performing control by the device 21.
  • the offset information 170 includes 14 offset_sequences corresponding to the positions 1 to 14 indicating the depth of the data broadcasting object.
  • the data structure of the offset information of the present invention is not limited to this.
  • a configuration including nine offset_sequences corresponding to position 1 to position 9 may be used.
  • positions 10 to 14 are defined in advance as an area in which a plurality of blocks are integrated, and as shown in FIG. If the corresponding offset_sequence value is stored in advance, the offset acquisition unit 207 can easily set the offset value without referring to the offset_sequence of a plurality of regions.
  • the drawing plane is divided into nine and the positions 1 to 14 are defined.
  • the dividing method is not limited to this, and the screen may be divided in a form suitable for video data.
  • a new position other than the position 14 may be defined.
  • the display mode storage unit 214 has a configuration for storing the display mode of 3D video data specified by the user.
  • the display mode storage unit 214 is not limited to the configuration that stores the display mode specified by the user.
  • the information may be stored, and the category of 3D video data (program content category) corresponds to the specified display mode.
  • the attached information may be stored.
  • the offset mode storage unit 216 stores the offset mode received in advance by the user input reception unit 213, and the offset acquisition unit 207 stores the offset stored in the offset mode storage unit 216. According to the mode, the offset value is determined and acquired.
  • the offset acquisition unit 207 is stored in the offset mode storage unit 216.
  • the offset mode may be configured to be forcibly switched to “fixed”.
  • the offset mode may be forcibly switched to “fixed” and a fixed_depth value may be used as an offset value for data broadcasting.
  • the offset acquisition unit 207 forcibly sets the offset value to “ You may comprise so that it may set to "0".
  • the offset value may be forcibly set to “0” to display data broadcasting in 2D.
  • step S203 When a GOP storing offset information and a GOP not storing offset information are alternately received, YES / NO is repeated in step S203. As a result, since the offset value is frequently switched, it is expected that the data broadcast becomes very difficult to see. Therefore, if NO in step S203, the process may not immediately proceed to step S208, but may continue to use the offset_sequence value stored in the previous GOP as an offset value for a certain period.
  • step S204 when the offset_sequence value corresponding to a certain offset_sequence_id fluctuates greatly for each GOP, it is expected that the data broadcasting becomes very difficult to see. Therefore, when it is detected that the offset_sequence value corresponding to a certain offset_sequence_id largely fluctuates for each GOP, the process of step S204 in which the offset_sequence value is set as the offset value is stopped, and the fixed_depth value stored in the BML is offset. The control may be switched to obtain a value.
  • the processing from S205 to S207 is processing for confirming that the 3D object of the 3D video data and the object of the data broadcast do not interfere with each other when the fixed_depth value is set as the offset value. Since it is assumed that a large value is stored in advance as the fixed_depth value, no interference occurs or even if interference occurs, a mild case is expected. For this reason, the processing from S205 to S207 is not essential and may be omitted. If it is determined in step S201 that the fixed offset mode is set (YES in step S201), the process skips steps S205 to S207, immediately proceeds to step S208, and uses the fixed_depth value stored in the BML as the offset value. It is good.
  • the video processing device 21 is configured to perform 3D display of data broadcasting.
  • the video processing device 21 may be configured to perform 3D display of caption data instead of data broadcasting.
  • the communication network between the broadcasting device 10 and the video processing device 21 is not limited to a digital broadcasting network.
  • the Internet may be used.
  • the broadcast device 10 may be a server device on the Internet
  • the video processing device 21 may be a personal computer.
  • the video processing device 21 may have a function of receiving a plurality of data streams and displaying a plurality of programs on the display 22 simultaneously.
  • the offset acquisition unit 207 may acquire offset information from each of the plurality of data streams, and may perform an offset value acquisition process using the plurality of offset information.
  • the offset acquisition unit 207 reads the value of offset_sequence_id from the base_depth element stored in the BML. Furthermore, the offset acquisition unit 207 acquires the value of offset_sequence associated with offset_sequence_id from a plurality of offset information. And the offset acquisition part 207 is good also considering the maximum value of the value of several acquired offset_sequence as an offset value.
  • the BML 180 described in FIG. 7 in the above embodiment is an example.
  • the configuration of the BML used in the stereoscopic video viewing system 1 is not limited to the description of FIG.
  • a base_depth element for each object may be stored in the body element.
  • a machine language for causing the processor of the video processing device 21 and various circuits connected to the processor to execute the data broadcast display process, the display mode setting process, and the offset value acquisition process described in the above embodiment.
  • a control program composed of high-level language program codes can be recorded on a recording medium, or can be distributed and distributed via various communication paths.
  • a recording medium includes an IC card, a hard disk, an optical disk, a flexible disk, a ROM, a flash memory, and the like.
  • the distributed and distributed control program is used by being stored in a memory or the like that can be read by the processor, and each function as shown in the above embodiment is executed by the processor executing the control program. It will be realized.
  • the processor may be compiled and executed or executed by an interpreter.
  • Each functional component shown in the above embodiment (program content storage unit 101, offset information generation unit 102, encoder 103, data broadcast production unit 104, multiplexer 105, broadcast stream transmission unit 106, demultiplexer 201, audio Decoder 202, video decoder 203, left-eye video data output unit 204, right-eye video data output unit 205, data broadcast processing unit 206, offset acquisition unit 207, right-eye data broadcast image generation unit 208, left-eye data broadcast image generation unit 209, left-eye image generation unit 210, right-eye image generation unit 211, display control unit 212, user input reception unit 213, display mode storage unit 214, display mode switching unit 215, and offset mode storage unit 216) It may be realized as a circuit that executes It may be realized by executing a program by one or more processors.
  • the terminal devices described in Embodiments 1 and 2 may be configured as IC, LSI, or other integrated circuit packages. This package is incorporated into various devices for use, whereby the various devices realize the functions as
  • a video processing apparatus that receives data broadcast and video data for 3D display, and superimposes and outputs a data broadcast image on the video of the received video data, and the video data includes the video data
  • the depth information indicating the depth at which the image to be displayed when the image of the data broadcasting is displayed in 3D is set according to the depth of the object displayed in 3D based on the received image.
  • An acquisition unit that acquires the depth from the depth information included in data, and a generation unit that generates a right-eye image and a left-eye image for 3D display of the received image of the data broadcast at the acquired depth. It is characterized by providing.
  • the video processing apparatus can display a 3D image of the data broadcast image superimposed on the video data at a depth corresponding to the depth of the 3D object of the video data.
  • the user can more appropriately view the data broadcast together with the 3D video.
  • the depth information describes the depth for each display position of the image when the image of the data broadcast is displayed in 3D, which is set according to the display position and depth of the object displayed in 3D.
  • the data broadcast includes position information indicating a display position of an image of the data broadcast, and the acquisition unit acquires the position information from the data broadcast and corresponds to the display position indicated by the acquired position information. The depth is acquired from the depth information.
  • a plurality of 3D objects having different depths may be included in one frame of video data. Therefore, according to the above configuration, it is possible to always display 3D images of data broadcasts at an appropriate depth according to the depth of the 3D object displayed at the same display position.
  • the depth for each display position of the image described in the depth information is set to a value higher than the depth of the object displayed in 3D at the display position, and when the image of the data broadcast is displayed in 3D The image is displayed in front of the depth position of the object displayed in 3D.
  • the video data is distributed in an MPEG2-TS format data stream, and the data stream includes the depth information for each predetermined unit, and the acquisition unit is configured for each predetermined unit of the data stream.
  • the depth is sequentially acquired from the depth information included in the image, and the generation unit generates the left-eye image and the right-eye image each time the acquisition unit acquires the depth.
  • the depth of the 3D object of the program content fluctuates from time to time even if the depth at which the data broadcast image is displayed in 3D is stored in BML in advance when authoring the data broadcast. To do. Therefore, even if the data broadcast is displayed in 3D using the depth stored in the BML in advance, the data broadcast image cannot always be displayed in 3D at an appropriate depth in relation to the program content displayed at the same time. .
  • the data broadcast image is displayed in 3D at an appropriate depth according to the depth of the 3D object that varies from moment to moment. Is possible.
  • the data broadcast includes fixed depth information indicating a depth at which the image is to be displayed when the image of the data broadcast is displayed in 3D at a fixed depth
  • the video processing device includes the image of the data broadcast.
  • Data broadcasting for selecting either a fixed mode for displaying a 3D image at a fixed depth or a change mode for displaying a 3D image at a depth that varies according to a change in the depth of the object of the video data on which the image of the data broadcast is superimposed A display selection unit, wherein the acquisition unit acquires the depth from the depth information when the variation mode is selected, and acquires the depth from the depth information when the fixed mode is selected. Instead, the depth is acquired from the fixed depth information included in the data broadcast.
  • the depth information included in the video data when used, it is possible to display the data broadcast image in 3D at a depth corresponding to the depth of the 3D object of the video data.
  • the depth of the image of data broadcasting frequently fluctuates, it may be difficult to see characters and the like.
  • the video processing apparatus when the fixed mode is selected, the video processing apparatus can display the data broadcast image in 3D at a fixed depth.
  • the data broadcast display selection unit receives selection of either the fixed mode or the variation mode from a user.
  • the data broadcast display selection unit corresponds to the user input reception unit 213 and the offset mode storage unit 216 of the above embodiment.
  • the video processing device is capable of 2D displaying the received video data for 3D display, displaying the received video data for 3D display in 3D, and displaying the video data in 2D.
  • a display mode selection unit for selecting a 2D mode is provided, and when the display mode selection unit selects the 2D mode, the data broadcast display selection unit selects a fixed mode.
  • the video processing apparatus may have a function of displaying a 3D program received from the broadcasting apparatus as a pseudo 2D program. In such a case, even if the received 3D program includes depth information, if the data broadcast image is changed in accordance with the depth of the object of the 3D program, it is difficult for the user to see the data broadcast. .
  • the display mode selection unit selects a 2D mode.
  • the acquisition unit cannot acquire the depth, and the generation unit generates the left-eye image and the right-eye image. I can't. Therefore, the data broadcast is highly likely to be displayed in 2D.
  • the display mode selection unit receives selection of the 3D mode or the 2D mode from a user.
  • the video processing apparatus may have a function of displaying a 3D program received from the broadcasting apparatus as a pseudo 2D program. In such a case, an image desired by the user can be displayed by providing the above configuration.
  • the display mode selection unit corresponds to the user input unit 213, the display mode storage unit 214, and the display mode switching unit 215 of the above embodiment.
  • a transmission device that transmits data broadcasting and video data for 3D display, according to a storage unit that stores the video data, and a depth of an object that is 3D displayed based on the video data
  • a depth information generating unit that generates depth information indicating a depth at which the image of the data broadcast is to be displayed in 3D display, the data broadcast, and the video data including the generated depth information
  • a transmission unit for transmitting
  • the transmission apparatus 3D displays a data broadcast image displayed superimposed on video data on a video processing apparatus as a transmission destination at a depth corresponding to the depth of the 3D object of the video data. It can be displayed. As a result, the user can more appropriately view the data broadcast together with the 3D video.
  • a stereoscopic video viewing system that includes a transmission device and a video processing device and displays an image of a data broadcast superimposed on video of video data for 3D display, and the transmission device stores the video data And depth information indicating the depth at which the data broadcast image is to be displayed in 3D display according to the depth of the object to be displayed in 3D based on the video data.
  • a receiving unit that receives data; an acquisition unit that acquires the depth from the depth information included in the received video data; and the acquired image of the data broadcast Characterized in that it comprises a generator for generating a right eye image and the left eye image for 3D display in degrees.
  • the video processing apparatus can display a 3D image of the data broadcast image superimposed on the video data at a depth corresponding to the depth of the 3D object of the video data.
  • the user can more appropriately view the data broadcast together with the 3D video.
  • the video processing apparatus which is one aspect of the present invention, in the industry that manufactures and sells the video processing apparatus that reproduces 3D video data and data broadcast, when displaying the data broadcast in 3D, an image that can be easily viewed by the user It can be used as a technique that can be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 映像処理装置21は、データ放送と3D表示用の映像データとを受信し、前記映像データには、映像データに基づいて3D表示されるオブジェクトの表示位置及び深度に応じて設定された、データ放送の画像を3D表示するときの当該画像の表示位置毎の深度が記載されたオフセット情報が含まれており、データ放送処理部206は、BMLから画像の表示位置を示す位置情報を取得し、オフセット取得部207は、オフセット情報から、前記画像の表示位置に対応するオフセット値を取得し、右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、それぞれ、取得されたオフセット値を用いて、右目用データ放送画像及び左目用データ放送画像を生成する。

Description

映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路
 本発明は、データ放送を3D(立体視)表示する技術に関する。
 デジタル放送では、送信装置が、映像データとは別に文字や静止画などをデータ放送として送出し、受信装置が、データ放送で受信した文字や静止画を映像データに重畳して表示する処理を行っている(非特許文献1参照)。
 近年、映画、デジタル放送の番組、ゲーム等を3D化した3Dコンテンツや3D表示が可能な機器が開発されている。今後、デジタル放送の3D化が進めば、3D化された番組にデータ放送の文字や静止画などを重畳して表示することが予想される。
ARIB TR-B15(BS/広帯域CSデジタル放送運用規定)
 しかしながら、現在放送されているデータ放送は、3D番組ではなく、通常の2D番組に重畳するために作成されており、3D番組に重畳することを想定していない。そのため、3D番組に従来のデータ放送の画像を単純に重畳した場合、3D番組に含まれる立体的なオブジェクトの背後にデータ放送の文字や静止画が表示され、ユーザにとって不自然で視聴しにくい画像となる。
 本発明は、上記の問題点に鑑みなされたものであって、3D番組とデータ放送とを共に表示する際に、ユーザにとって視聴しやすい画像を表示することができる映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路を提供することを目的とする。
 上記の目的を達成するために、本発明の一態様は、データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置であって、前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部とを備えることを特徴とする。
 上記の構成により、本発明の一態様である映像処理装置は、映像データに重畳して表示されるデータ放送の画像を、前記映像データの3Dオブジェクトの深度に応じた深度で3D表示することが可能であり、ユーザは、より適切にデータ放送を3D映像と共に視聴することが可能となる。
立体映像視聴システム1の概要について説明するための図 立体映像視聴システム1の構成を示す図 放送装置10のブロック図 オフセット情報の生成方法について説明するための図 オフセット情報の生成方法について説明するための図 オフセット情報170のデータ構造を示す図 BML180のデータ構造を示す図 デジタルテレビ20のブロック図 左目用データ放送画像及び右目用データ放送画像の生成方法について説明するための図 3D映像データ及びデータ放送の重畳について説明するための図 ディスプレイ22に表示される3Dオブジェクトとデータ放送とを示す図 3D映像データのLR表示モードについて説明するための図 3D映像データのLL表示モードについて説明するための図 映像処理装置21によるデータ放送表示処理の動作を示すフローチャート 表示モード設定処理の動作を示すフローチャート オフセット値取得処理の動作を示すフローチャート
 以下では、本発明の実施形態として立体映像視聴システム1について、図面を参照しながら説明する。
<1.概要>
 ここでは、本願発明者が本発明の一態様である立体映像視聴システム1を得るに至った経緯について説明する。
 上述したように、3D番組に含まれる3Dオブジェクトの背後にデータ放送の文字等が表示されると、ユーザにとって不自然で視聴しにくい画像となる。このような事態を避けるために、データ放送を3D番組に重畳して表示する場合には、受信機側で、データ放送を3D化する必要がある。
 ところが、データ放送を3D化する際に、単純に、予め定めた固定のオフセット値を用いて視差画像を生成すると、図1(a)に示すように、3D番組に含まれる3Dオブジェクトの結像位置とデータ放送の結像位置とが重なり合う場合がある。このように、3Dオブジェクトの結像位置とデータ放送の結像位置とが重なり合うと、3Dオブジェクトとデータ放送の文字等が干渉し、ユーザにとって視聴しにくい画像となる。
 また、図1(b)に示すように、3D番組に複数の3Dオブジェクトが含まれる場合、3Dオブジェクト毎にその結像位置は異なる。また、フレーム毎に3Dオブジェクトの結像位置が変動することもある。
 そこで、本願発明者は、3Dオブジェクトの背後にデータ放送の文字等が表示されたり、3Dオブジェクトとデータ放送の文字等が干渉したりするのを抑制するための研究を重ね、図1(c)に示すように、データ放送の結像位置が、3Dオブジェクトの結像位置の手前に位置するようにデータ放送を3D化する立体映像視聴システム1を得た。
<2.構成>
 ここでは、立体映像視聴システム1の構成について説明する。
<2-1.立体映像視聴システム1の構成>
 図2は、本発明の一態様である立体映像視聴システム1のシステム構成を示す図である。
 同図に示すように、立体映像視聴システム1は、放送装置10、デジタルテレビ20、リモコン30、及び3D眼鏡40から構成される。
 放送装置10は、デジタル放送の放送局に設置された装置であり、音声データ及び3D映像データからなる番組コンテンツとデータ放送とを多重化した放送ストリームをデジタル放送波に載せて送出する。
 デジタルテレビ20は、3D映像を表示することが可能な3Dテレビであり、デジタル放送波を受信し、受信したデジタル放送波から放送ストリームを抽出する。そして、放送ストリームを、音声データと3D映像データとデータ放送とに分離する。
 先に述べたように、3Dの映像に2Dのデータ放送を重畳するとユーザにとって見難い画像となるので、デジタルテレビ20は、データ放送の画像から、当該画像を3D表示するための左目用画像及び右目用画像を生成する必要がある。
 ここで、デジタルテレビ20が受信した3D映像データには、データ放送の画像から左目用画像及び右目用画像を生成するためのオフセット情報が含まれている。オフセット情報には、データ放送の画像を左方向又は右方向にシフトするシフト量を画素数で示したオフセット値が記載されている。このオフセット値は、3D映像データの結像点に応じて生成されており、3D表示されるデータ放送のオブジェクトの結像点が3D映像のオブジェクトの結像点よりも手前側になるように設定されている。
 デジタルテレビ20は、映像データからオフセット情報を抽出し、抽出したオフセット情報を用いて、データ放送に含まれる画像から左目用画像と右目用画像とを生成する。そして、デジタルテレビ20は、3D映像の左目用映像データの映像にデータ放送の左目用画像を重畳し、左目用画像を生成する。また、3D映像の右目用映像データの映像にデータ放送の右目用画像を重畳して、右目用画像を生成する。デジタルテレビ20は、右目用画像と左目用画像とを交互にディスプレイに出力する。ユーザは、3D眼鏡40を装着することにより、立体的な映像及びデータ放送を視聴することができる。
<2-2.放送装置10の構成>
 図3は、放送装置10の機能的な構成を示すブロック図である。
 同図に示すように、放送装置10は、番組コンテンツ蓄積部101、オフセット情報生成部102、エンコーダ103、データ放送制作部104、マルチプレクサ105、及び放送ストリーム送出部106から構成される。
 放送装置10は、図示されていないプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクを含む。また、放送装置10の各機能ブロックは、ハードウェアとして構成されているか、もしくはプロセッサがROMやハードディスクに記憶されているコンピュータプログラムを実行することで実現される。
 番組コンテンツ蓄積部101は、番組を構成する3D映像データと音声データとを格納している。
 オフセット情報生成部102は、番組コンテンツ蓄積部101に格納されている3D映像データを読み出し、読み出した3D映像データのフレーム毎に、オフセット情報を生成する。図4~6を用いて、オフセット情報の生成について説明する。
 オフセット情報生成部102は、図4(a)に示すように、3D映像データが描画されるプレーンをブロック1からブロック9までの9つの領域に分割した場合における位置1から位置14を予め定義している。
 図4(b)に示すように、位置1は、ブロック1を含む。位置2は、ブロック2を含む。位置3は、ブロック3を含む。位置4は、ブロック4を含む。位置5は、ブロック5を含む。位置6は、ブロック6を含む。位置7は、ブロック7を含む。位置8は、ブロック8を含む。位置9は、ブロック9を含む。図4(c)に示すように、位置10は、ブロック1からブロック9までのすべてのブロックを含む。図4(d)に示すように、位置11は、ブロック1、ブロック4、ブロック7、ブロック8及びブロック9を含む。図4(e)に示すように、位置12は、ブロック1、ブロック2及びブロック3を含む。位置13は、ブロック4、ブロック5及びブロック6を含む。位置14は、ブロック7、ブロック8及びブロック9を含む。
 図5は、3D映像データを構成するフレームについて、フレームに含まれる3Dオブジェクトの奥行きと、各分割領域のオフセット値との関係を示す図である。
 図5(a)に示すように、この例では、フレームには、前に飛び出しているオブジェクト150と、奥に引っ込んでいるオブジェクト160とが含まれる。オブジェクト150の深度をオフセット値で表すと「4」であり、オブジェクト160の深度をオフセット値で表すと「-3」である。
 このときの位置1から位置14までのオフセット値を図5(b)から図5(e)に示す。
図5(b)に示すように、オブジェクト150が表示される位置1、位置2及び位置4、位置5のオフセット値は、「4」であり、オブジェクト160が表示される位置8及び位置9のオフセット値は、「-3」である。オブジェクト150及びオブジェクト160が何れも表示されない位置3、位置6及び位置7のオフセット値は「0」である。また、図5(c)及び(d)に示すように、オブジェクト150及びオブジェクト160の両方が表示される位置10及び位置11では、深度の絶対値が大きい「4」がオフセット値として用いられる。図5(e)に示すように、オブジェクト150が表示される位置12及び位置13のオフセット値は「4」であり、オブジェクト160が表示される位置14のオフセット値は「-3」である。
 オフセット情報生成部102は、図5に示した3D映像のオフセット値に応じて、データ放送の画像を3D表示する際のオフセット値を決定する。本実施形態では一例として、3D映像データのオフセット値に「1」を加算した値をデータ放送の画像のオフセット値とする。なお、3D映像データのオフセット値が「0」の場合には、データ放送の画像のオフセット値も「0」とする。
 このようにデータ放送の画像のオフセット値を決定することで、ユーザにとっては、3D映像のオブジェクトよりも、データ放送の画像がより手前側に飛び出して見える。
 オフセット情報生成部102は、図6に示すように、各位置を指定するための情報であるoffset_sequence_idと、各位置のオフセット値であるoffset_sequenceとを記載したテーブルであるオフセット情報170を生成する。生成されたオフセット情報170は、エンコーダ103及びデータ放送制作部104へ入力される。なお、オフセット情報170は、本発明に係る深度情報の一例である。
 エンコーダ103は、ビデオエンコーダ及びオーディオエンコーダを含む。ビデオエンコーダは、番組コンテンツ蓄積部101から3D映像データを読み出して、H.264 MVC(Multi View Coding)でエンコードし、MPEG(Moving Picure Experts Group)2-TS(Transport Stream)形式のビデオストリームを得る。オーディオエンコーダは、番組コンテンツ蓄積部101から音声データを読み出して、エンコードし、MPEG2-TS形式のオーディオストリームを得る。
 ここで、ビデオエンコーダが3D映像データをエンコードしてGOP(Group Of Pictures)を生成する際、3D映像データのH.264 MVCのDependent view(片目用の映像圧縮データ)に含まれるGOPに、オフセット情報生成部102により生成されたオフセット情報を格納する。
 エンコードされたビデオストリーム及びオーディオストリームは、マルチプレクサへ入力される。
 データ放送制作部104は、BML(Broadcast Markup Language)を用いて、データ放送用のデータを生成する。生成されたデータは、マルチプレクサ105へ入力される。
 図7に示すBML180は、データ放送制作部104により生成された、BMLで記述されたデータの一例であり、文字列「3D Digital」を、位置5(図3(b)参照)に表示するためのBMLである。同図に示すように、BML180は、データ放送の画像(ここでは、文字列「3D Digital」である。)の深度を決定するための情報として、base_depth要素181を含む。base_depth要素181は、offset_sequence_id属性とfixed_depth属性とを含む。
 offset_sequence_id属性は、画像の表示位置を規定するための属性である。データ放送制作部104は、文字列「3D Digital」を、位置5(図3(b)参照)に表示する場合、オフセット情報生成部102から受け取ったオフセット情報170から、文字列「3D Digital」の表示位置である位置5に対応するoffset_sequence_idの値「5」を取得する。そして、取得した値「5」を、base_depth要素のoffset_sequence_id属性とする。
 fixed_depth属性は、データ放送の画像の深度を3D映像データの映像の深度に応じて変動させず、固定の深度で表示するためのオフセット値である。データ放送制作部104は、3D映像データを構成する全フレームに含まれるオブジェクトの最大深度が通知されている場合には、最大深度より手前側にデータ放送の画像が結像されるような深度を示すオフセット値をfixed_depth属性とする。また、最大深度が通知されていない場合には、予め定められた所定の値をfixed_depth属性としてもよい。BML180のfixed_depth属性は、一例として「10」である。
 マルチプレクサ105は、ビデオストリーム、オーディオストリーム及びBMLで記述されたデータ等を多重化して、MPEG2-TSを生成する。生成されたMPEG2-TSは、放送ストリーム送出部106へ入力される。
 放送ストリーム送出部106は、マルチプレクサ105により生成されたMPEG2-TSを、デジタル放送波に載せて送出する。
<2-3.デジタルテレビ20の構成>
 図8は、デジタルテレビ20の機能的な構成を示すブロック図である。同図に示すように、デジタルテレビ20は、映像処理装置21とディスプレイ22とから構成される。
 さらに、映像処理装置21は、デマルチプレクサ201、オーディオデコーダ202、ビデオデコーダ203、左目用映像データ出力部204、右目用映像データ出力部205、データ放送処理部206、オフセット取得部207、右目用データ放送画像生成部208、左目用データ放送画像生成部209、左目用画像生成部210、右目用画像生成部211、表示制御部212、ユーザ入力受付部213、表示モード記憶部214、表示モード切替部215、及びオフセットモード記憶部216から構成される。
 映像処理装置21は、図示されていないプロセッサ、RAM、ROM、ハードディスクを含む。また、映像処理装置21の各機能ブロックは、ハードウェアとして構成されているか、もしくはプロセッサがROMやハードディスクに記憶されているコンピュータプログラムを実行することで実現される。
 デマルチプレクサ201は、デジタル放送網を経由して受信したMPEG2-TSを取得し、MPEG2-TS中に多重化されているオーディオストリーム、ビデオストリーム、BMLで記述されたデータをそれぞれ抽出する。デマルチプレクサ201は、オーディオストリームをオーディオデコーダ202へ渡し、ビデオストリームをビデオデコーダ203へ渡し、BMLで記述されたデータをデータ放送処理部206へ渡す。
 オーディオデコーダ202は、オーディオストリームを取得してデコードする。デコードされた音声信号は、表示制御部212へ入力される。
 ビデオデコーダ203は、ビデオストリームを取得してデコードする。ビデオストリームは、3D映像データがH.264 MVCで圧縮符号化されたものである。ビデオデコーダ203がビデオストリームを復号すると、左目用と右目用の2本の映像データに復号される。
 ビデオデコーダ203は、表示モード切替部215から、3D映像データの表示モードを取得する。3D映像データの表示モードは、LR(Left view-Right view)表示モード及びLL(Left view-Left view)表示モードの何れかである。
 LR表示モードのとき、ビデオデコーダ203は、復号された左目用の映像データを、左目用映像データ出力部204へ出力し、復号された右目用の映像データを、右目用映像データ出力部205へ出力する。LL表示モードのとき、ビデオデコーダ203は、復号された左目用の映像データを、左目用映像データ出力部204及び右目用映像データ出力部205の両方へ出力する。LR表示モード及びLL表示モードの詳細は後述する。
 左目用映像データ出力部204及び右目用映像データ出力部205は、それぞれ、ビデオデコーダ203から取得した映像データの出力タイミングを制御し、左目用映像データ及び右目用映像データを交互に左目用画像生成部210及び右目用画像生成部211へ出力する。
 データ放送処理部206は、デマルチプレクサ201により抽出されたデータを取得すると、取得したデータを解析し(parse)、描画処理を行う。ここで生成される描画データは、2D表示用の描画データである。
 例えば、図7のBML170を取得した場合、データ放送処理部206は、プレーンメモリを用いて、top=xxx、left=yyyの位置に「3D Digital」のテキストデータを描画する。ここでの座標位置は、画面上端をtop=0、左端をleft=0とした場合の位置となる。
 データ放送処理部206は、表示モード切替部215から、データ放送の表示モードを取得する。データ放送の表示モードは、LR表示モード及びLL表示モードの何れかである。
 LR表示モードのとき、データ放送処理部206は、3D表示の指示と共に、2D表示用の描画データを、右目用データ放送画像生成部208及び左目用データ放送画像生成部209へ出力する。LL表示モードのとき、データ放送処理部206は、2D表示の指示と共に、2D表示の描画データを、右目用データ放送画像生成部208及び左目用データ放送画像生成部209へ出力する。
 また、データ放送処理部206は、BMLに含まれるbase_depth要素を、オフセット取得部207へ出力する。
 オフセット取得部207は、ビデオデコーダ203がビデオストリームを復号する途中で取得するGOPからオフセット情報を抽出する。また、オフセット取得部207は、データ放送処理部206からbase_depth要素を取得する。また、オフセット取得部207は、オフセットモード記憶部216に格納されているオフセットモードを読み出す。
 オフセット取得部207は、オフセット情報、base_depth要素及びオフセットモードを用いて、データ放送を3D表示するための視差情報であるオフセット値を取得する。取得したオフセット値を、右目用データ放送画像生成部208及び左目用データ放送画像生成部209へ通知する。
 ここでは、具体例として、オフセット取得部207が、図6に示すオフセット情報170と、図7に示すbase_depth要素181とを取得した場合について説明する。
 オフセットモード記憶部216から読み出したオフセットモードが「変動」の場合、オフセット取得部207は、base_depth要素181に含まれるoffset_sequence_idの値を読む。ここでは、「5」である。オフセット取得部207は、オフセット値として、オフセット情報170から、offset_sequence_id「5」に対応付けられているoffset_sequenceの値を取得する。この例では、オフセット値は、「5」である。
 オフセットモード記憶部216から読み出したオフセットモードが「固定」の場合、オフセット取得部207は、オフセット値として、base_depth要素181からfixed_depthの値を取得する。この例では、オフセット値は、「10」である。
 右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、データ放送処理部206から2D表示用の描画データと、3D表示又は2D表示の何れかの指示とを受け取る。また、右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、オフセット取得部207からオフセット値を受け取る。
 2D表示の指示を受け取ると、右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、データ放送処理部206から受け取った2D表示用の描画データを、左目用画像生成部210及び右目用画像生成部211へ出力する。
 3D表示の指示を受け取ると、右目用データ放送画像生成部208は、右目用データ放送画像を生成し、左目用データ放送画像生成部209は、左目用データ放送画像を生成する。
 ここでは、図9(a)を用いて、右目用データ放送画像及び左目用データ放送画像の生成処理について説明する。
 右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、描画データ300を受け取る。また、オフセット取得部207から、オフセット値を受け取る。
 左目用データ放送画像生成部209は、描画データ300を、通知されたオフセット値が示す画素数だけ右方向にシフトさせ、左側に透明領域311を生成し、右端の領域312を切り取り、左目用データ放送画像301を生成する。
 右目用データ放送画像生成部208は、描画データ300を、通知されたオフセット値が示す画素数だけ左方向にシフトさせ、右側に透明領域321が生成し、左端の領域322を切り取り、右目用データ放送画像302を生成する。
 図9(b)は、図9(a)によるオフセット制御によって、どのような立体視映像が再生されるかを示す図である。3D表示用のデータ放送の画像が描画されるプレーン303は、Depth-Xの深度を有する。すなわち、ユーザから見ると、「3D Digital」の文字が、Depth―Xだけディスプレイ22よりも手前に飛び出して見える。
 左目用データ放送画像生成部209は、生成した左目用データ放送画像を、左目用画像生成部210へ出力し、右目用データ放送画像生成部208は、生成した右目用データ放送画像を、右目用画像生成部211へ出力する。
 左目用画像生成部210は、左目用データ放送画像生成部209から、左目用データ放送画像を受け取る。また、左目用画像生成部210は、左目用映像データ出力部204から、デコードされた左目用映像データを順次受け取る。左目用画像生成部210は、左目用映像データに左目用データ放送画像を重畳し、左目用画像を生成する。生成された左目用画像は、表示制御部212へ入力される。
 例えば、図10に示すように、左目用画像生成部210は、1画面分の左目用映像データを描画するためのプレーンメモリを用いて、左目用映像プレーン401を描画する。また、左目用画像生成部210は、データ放送に含まれる1画面分の画像を描画するためのプレーンメモリを用いて、左目用データ放送プレーン402を描画する。そして、左目用映像プレーン401に左目用データ放送プレーン402を重畳し、3D映像データに含まれるオブジェクトとデータ放送の文字「3D Digital」とが合成された左目用画像403を生成する。
 右目用画像生成部211は、右目用データ放送画像生成部208から、右目用データ放送画像を受け取る。また、右目用画像生成部211は、右目用映像データ出力部205から、デコードされた右目用映像データを順次受け取る。右目用画像生成部211は、右目用映像データに右目用データ放送画像を重畳し、右目用画像を生成する。生成された右目用画像は、表示制御部212へ入力される。
 表示制御部212は、左目用画像生成部210及び右目用画像生成部211から、交互に左目用画像及び右目用画像を受け取り、受け取った左目用画像及び右目用画像をディスプレイ22に出力する。このとき、出力する画像が左目用画像である場合、表示制御部212は、ユーザが装着している3D眼鏡40に対し、左目用画像を表示する旨を通知し、出力する画像が右目用画像である場合、表示制御部212は、ユーザが装着している3D眼鏡40に対し、右目用画像を表示する旨を通知する。
 ディスプレイ22に左目用画像が表示されているとき、3D眼鏡40の右目は、液晶シャッターで隠された状態となり、ユーザは左目だけで左目用画像を見る。また、ディスプレイ22に右目用画像が表示されているとき、3D眼鏡40の左目は液晶シャッターで隠された状態となり、ユーザは、右目だけで左目用画像を見る。このような表示制御を行うことにより、ユーザには、図11のような画像が見える。図11に示すように、3D映像データに含まれるオブジェクト601はディスプレイ22から手前に飛び出して見える。更に、その手前にデータ放送の文字602が飛び出して見える。
 また、表示制御部212は、ディスプレイ22に出力する画面に同期させてオーディオデコーダから受け取った音声信号を、ディスプレイ22に内蔵されたスピーカ(不図示)へ出力する。
 ユーザ入力受付部213は、ユーザがリモコン30を操作することにより入力した3D映像の表示モードを、リモコン30から受け付ける。ユーザ入力受付部213は、受け付けた3D映像の表示モードを、表示モード記憶部214に記録する。
 表示モード記憶部214は、ユーザが入力した3D映像の表示モードを記憶するための不揮発性メモリである。
 表示モード切替部215は、3D映像の表示モード及びデータ放送の表示モードを設定する。表示モード切替部215は、設定した3D映像データの表示モードを、ビデオデコーダ203へ通知する。また、表示モード切替部215は、設定したデータ放送の表示モードを、データ放送処理部206へ通知する。表示モードの設定処理の詳細については後述する。
 ここでは、図12及び図13を用いて、表示モードについて説明する。ここでは、3D映像データの表示モードを例に説明するが、データ放送の表示モードも同様である。
 先に述べたように、表示モードには、LR表示モードとLL表示モードとがある。LR表示モードは、3D映像データを3D表示するモードであり、LL表示モードは、3D映像データを2D表示するモードである。
 図12は、LR表示モード(3D表示)について説明するための図である。
 LR表示モードのとき、ビデオデコーダ203は、復号された左目用映像データ501を、左目用映像データ出力部204へ出力し、復号された右目用映像データ502を、右目用映像データ出力部205へ出力する。左目用映像データ501と右目用映像データ502とは視差画像である。
 そして、表示制御部212を経由して、左目用映像データ501及び右目用映像データ502がディスプレイ22に交互に出力される。
 (a)に示すように、ディスプレイ22に左目用映像データ501が表示されているときは、3D眼鏡40の右目は液晶シャッター41で隠された状態となり、ユーザは左目だけで左目用映像データ501を見る。
 (b)に示すように、ディスプレイ22に右目用映像データ502が表示されているときは、3D眼鏡40の左目は液晶シャッター41で隠された状態となり、ユーザは右目だけで右目用の映像データを見る。
 このように、LR表示モードでは、視差のある左目用映像データ501と右目用映像データ502とを交互に見せることにより3D表示を実現する。
 図13は、LL表示モード(2D表示)について説明するための図である。
 LL表示モードのとき、ビデオデコーダ203は、復号された左目用映像データ501を、右目用映像データとしても利用する。即ち、ビデオデコーダ203は、左目用映像データ501を、左目用映像データ出力部204及び右目用映像データ出力部205の両方へ出力する。
 そして、表示制御部212を経由して、視差の無い同一の左目用映像データ501及び右目用映像データ501がディスプレイ22に交互に出力される。
 (a)に示すように、ディスプレイ22に左目用映像データ501が表示されているときは、3D眼鏡40の右目は液晶シャッター41で隠された状態となり、ユーザは左目だけで左目用映像データ501を見る。
 (b)に示すように、ディスプレイ22に右目用映像データ501が表示されているときは、3D眼鏡40の左目は液晶シャッター41で隠された状態となり、ユーザは右目だけで右目用の映像データ501を見る。
 このように、LL表示モードでは、視差のない同一の映像データを交互に見せることにより、ユーザが3D眼鏡40を装着したままでも2D表示を実現する。
 オフセットモード記憶部216は、データ放送を3D表示する際の視差情報であるオフセット値を決定する方式であるオフセットモードを記憶するための不揮発性メモリである。オフセットモードは、「変動」及び「固定」の何れかである。なお、オフセットモードは、ユーザ入力受付部213を介して、ユーザにより入力されるものとする。
 変動オフセットモードの場合、3D映像データと共に受信したオフセット情報に含まれるoffset_sequenceの値をオフセット値として用いる。先に述べたように、3D映像データと共に受信するオフセット情報は、GOP単位に一つ含まれる。即ち、オフセット情報は、GOP単位で更新可能である。そのため、BMLが更新されなくとも、オフセット情報に含まれるoffset_sequenceが変動する場合、例えば、図11に記載の3Dオブジェクト601の深度が変動すれば、それに応じて、「3D Digital」の文字602の深度は変動する。
 一方、固定オフセットモードの場合、BMLに含まれるfixed_depthの値をオフセット値として用いる。fixed_depth属性は、BML単位で更新可能であるが、3D映像データに関連付けられていない。そのため、3D映像データの深度が変動しても、それに伴ってデータ放送の画像の深度が変動する効果は無くなる。しかし、ユーザに依っては、データ放送の文字の深度が変動すると、文字が見難いと感じる人も居るかもしれない。このような場合、ユーザは、オフセットモードを、「固定」に設定すればよい。
<3.動作>
 ここでは、図14から図16のフローチャートを用いて、映像処理装置21の動作について説明する。
<3-1.データ放送表示処理の動作>
 図14は、映像処理装置21によるデータ放送表示処理の動作を示すフローチャートである。なお、図中における「データ放送のLR表示データ」の記載は、上述した「左目用データ放送画像」及び「右目用データ放送画像」を指す。また、図中における「3D映像のLR映像データ」の記載は、上述した「左目用映像データ」及び「右目用映像データ」を指す。
 表示モード切替部215は、3D映像及びデータ放送の表示モードを設定する(ステップS1)。ステップS1の詳細は後述する。
 オフセット取得部207は、データ放送を3D表示するための視差情報であるオフセット値を取得する(ステップS2)。ステップS2の詳細は後述する。
 データ放送処理部206は、表示モード切替部215がステップS1で設定したデータ放送の表示モードが、LL表示モードであるかLR表示モードであるか判定する。
 データ放送の表示モードがLL表示モードの場合(ステップS3でYES)、データ放送処理部206は、右目用データ放送画像生成部208及び左目用データ放送画像生成部209へ、LL表示モードである旨を通知する。右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、データ放送処理部206から受け取った3D化する前の描画データを、そのまま右目用画像生成部211及び左目用画像生成部210へ出力する。
 データ放送の表示モードがLL表示モードの場合、3D映像データの表示モードもLL表示モードとなっている。そこで、ビデオデコーダ203は、左目用映像データ出力部204及び右目用映像データ出力部205へ、2D表示用の映像データとして、左目用映像データを出力する。
 そして、左目用画像生成部210及び右目用画像生成部211は、共に、2D表示用の映像データに、データ放送の描画データを重畳する(ステップS4)。その結果、表示制御部212を経由してディスプレイ22に表示される3D映像及びデータ放送は、2D表示となる。
 これは、データ放送がLL表示モード(2D表示)の場合に、仮に3D映像データに2D表示のデータ放送を重畳すると、データ放送の文字などが3Dオブジェクトの背景側に表示され、ユーザにとって見難い画面となってしまう。そこで、データ放送がLL表示モードである場合には、3D映像データも2D表示とすることで、ユーザにとって見易い画像を表示するのである。
 データ放送の表示モードがLR表示モードの場合(ステップS3でNO)、右目用データ放送画像生成部208及び左目用データ放送画像生成部209は、それぞれ、オフセット取得部207がステップS2で取得したオフセット値を用いて、図9に示したように、データ放送の描画データから左目用データ放送画像及び右目用データ放送画像を生成する(ステップS5)。そして、右目用データ放送画像生成部208は、右目用データ放送画像を、右目用画像生成部211へ出力し、左目用データ放送画像生成部209は、左目用データ放送画像を、左目用画像生成部210へ出力する。
 続いて、データ放送処理部206は、表示方法切替部215から3D映像の表示モードを取得し、3D映像の表示モードがLL表示モードであるかLR表示モードであるか判定する(ステップS6)。
 3D映像データの表示モードがLL表示モードの場合(ステップS6でYES)、ビデオデコーダ203は、2D表示用の映像データとして、左目用映像データ出力部204及び右目用映像データ出力部205へ、左目用映像データを出力する。左目用映像データ出力部204及び右目用映像データ出力部205は、所定のタイミングで、2D表示用の映像データである左目用映像データを、右目用画像生成部211及び左目用画像生成部210へ、出力する。
 左目用画像生成部210は、2D表示用の映像データに、左目用データ放送画像を重畳する。右目用画像生成部211は、2D表示用の映像データに、右目用データ放送画像を重畳する(ステップS7)。その結果、表示制御部212を経由してディスプレイ22に表示される3D映像は2D表示であり、データ放送は3D表示となる。
 3D映像データの表示モードがLR表示モードの場合(ステップS6でNO)、ビデオデコーダ203は、左目用映像データを左目用映像データ出力部204へ出力し、右目用映像データを右目用映像データ出力部205へ出力する。左目用映像データ出力部204及び右目用映像データ出力部205は、それぞれ、所定のタイミングで、左目用映像データを左目用画像生成部210へ出力し、右目用映像データを、右目用画像生成部211へ、出力する。
 左目用画像生成部210は、3D表示用の左目用映像データに、左目用データ放送画像を重畳する。右目用画像生成部211は、3D表示用の右目用映像データに、右目用データ放送画像を重畳する(ステップS8)。その結果、表示制御部212を経由してディスプレイ22に表示される3D映像及びデータ放送は、3D表示となる。
<3-2.表示モード設定処理の動作>
 図15は、表示モード切替部215による表示モード設定処理の動作を示すフローチャートである。なお、ここに示す動作は、図14のステップS1の詳細である。
 表示モード切替部215は、データ放送処理部206が取得したBMLからbase_depth要素を取得する。
 BMLにbase_depth要素が存在しない場合(ステップS101でNO)、表示モード切替部215は、データ放送の表示モードをLL表示モードに設定する(ステップS102)。
 また、上述したように、データ放送がLL表示モードに設定され、データ放送が2D表示される場合には、3D映像データも2D表示することが望ましい。そこで、表示モード切替部215は、3D映像データの表示モードをLL表示モードに設定する(ステップS103)。
 BMLにbase_depth要素が存在する場合(ステップS101でYES)、表示モード切替部215は、データ放送の表示モードをLR表示モードに設定する(ステップS104)。
 次に、表示モード切替部215は、予めユーザが指定した表示モードが表示モード記憶部214に記録されているか否か判断する(ステップS105)。
 ユーザが指定した表示モードが存在しない場合(ステップS105でNO)、表示モード切替部215は、3D映像データの表示モードをLR表示モードに設定する(ステップS108)。
 ユーザが指定した表示モードが存在する場合(ステップS105でYES)、表示モード切替部215は、記録されている表示モードがLL表示モードであるかLR表示モードであるか判断する(ステップS106)。
 ユーザが指定した表示モードがLL表示モードの場合(ステップS106でYES)、表示モード切替部215は、3D映像データの表示モードをLL表示モードに設定する(ステップS107)。
 ユーザが指定した表示モードがLR表示モードの場合(ステップS106でNO)、3D映像データの表示モードをLR表示モードに設定する(ステップS108)。
<3-3.オフセット値取得処理の動作>
 図16は、オフセット取得部207によるオフセット値取得処理の動作を示すフローチャートである。なお、ここに示す動作は、図1のステップS2の詳細である。
 オフセット取得部207は、オフセットモード記憶部216に記憶されているオフセットモードが「固定」であるか「変動」であるか判断する(ステップS201)。
 オフセットモードが「変動」の場合(ステップS201でNO)、オフセット取得部207は、データ放送処理部206が解析しているBMLから、base_depth要素に含まれるoffset_sequence_idを取得する(ステップS202)。
 次に、オフセット取得部207は、ビデオデコーダ203から、ビデオデコーダ203が復号しているGOPのユーザデータ領域内のデータを取得し、GOPにオフセット情報が記載されているか否か判断する(ステップS203)。
 GOPにオフセット情報が記載されていない場合(ステップS203でNO)、オフセット取得部207は、base_depth要素からfixed_depthの値を取得する。そして、オフセット取得部207は、fixed_depthの値をオフセット値とする(ステップS208)。
 GOPにオフセット情報が記載されている場合(ステップS203でYES)、オフセット取得部207は、オフセット情報から、ステップS202で取得したoffset_sequence_idに対応付けられているoffset_sequenceの値を取得する。そして、オフセット取得部207は、offset_sequenceの値をオフセット値とする(ステップS204)。
 一方、オフセットモードが「固定」の場合(ステップS201でYES)、オフセット取得部207は、ビデオデコーダ203から、ビデオデコーダ203が復号しているGOPのユーザデータ領域内のデータを取得し、GOPにオフセット情報が記載されているか否か判断する(ステップS205)。
 GOPにオフセット情報が記載されていない場合(ステップS205でNO)、オフセット取得部207は、base_depth要素からfixed_depthの値を取得する。そして、オフセット取得部207は、fixed_depthの値をオフセット値とする(ステップS208)。
 GOPにオフセット情報が記載されている場合(ステップS205でYES)、オフセット取得部207は、オフセット情報から、すべてのoffset_sequenceの値を読み出す。また、オフセット取得部207は、データ放送処理部206が解析しているBMLのbase_depth要素から、fixed_depth値を取得する。
 オフセット取得部207は、offset_sequenceの最大値が、fixed_depth値を超過しているか否か判断する(ステップS206)。
 offset_sequenceの最大値が、fixed_depthの値を超過していない場合(ステップS206でNO)、オフセット取得部207は、fixed_depthの値をオフセット値とする(ステップS208)。
 offset_sequenceの最大値が、fixed_depthの値を超過している場合(ステップS206でYES)、fixed_depth値をオフセット値として利用すると、3D映像データのオブジェクトとデータ放送のオブジェクトとが干渉することが予想される。そこで、offset_sequenceの最大値が、fixed_depth値を超過している場合、オフセット取得部207は、offset_sequenceの最大値をオフセット値とする(ステップS207)。
<4.変形例>
 以上、本発明に係る立体映像視聴システムの実施形態を説明したが、例示した立体映像視聴システムを以下のように変形することも可能であり、本発明が上述の実施形態で示した通りの立体映像視聴システムに限られないことは勿論である。
 (1)上記の実施形態では、BMLにbase_depth要素を追加して、base_depth要素を用いて、データ放送の3D表示を制御する構成を有していた。これにより、BML単位で3D表示の制御を行うことが可能となる。
 しかし、これ以外にも、SI/PSIにbase_depth要素を追加してもよい。この場合、番組単位で3D表示を制御することが可能となる。また、DIIのプライベート領域にbase_depth要素を追加してもよい。この場合、モジュール単位で3D表示を制御することが可能となる。
 (2)上記の実施形態では、映像処理装置21は、放送装置10から送信される3D映像を受信する構成を有していた。しかし、映像処理装置21は、2D映像/3D映像共に受信可能であるとしてもよい。この場合、映像処理装置21は、受信した番組が3D映像であることを検出した後に、上述したデータ放送の3D化処理を行ってもよい。映像処理装置21は、2D映像を受信している間は、BMLに格納されたbase_depth要素を無視し、データ放送を2D表示するように構成してもよい。
 (3)上記の実施形態では、オフセット情報は、MPEG2-TSのGOPに格納されている構成を有していた。しかし、オフセット情報は、GOPに格納される構成に限定されず、SI(Service Information)に格納される構成でもよい。
 この場合、放送装置10のオフセット情報生成部102は、生成したオフセット情報をエンコーダ103へ入力せずに、マルチプレクサ105へ入力する。
 (4)上記の実施形態では、オフセット情報は、MPEG2-TSのGOPに格納されて、放送装置10から送信される構成を有していた。
 しかし、映像処理装置21は、受信した3D映像データのGOPにオフセット情報が格納されていない場合でも、データ放送の3D化処理を行うことが可能である。
 この場合、オフセット取得部207は、ビデオデコーダ203から左目用映像データ及び右目用映像データを取得する。そして、オフセット取得部207は、左目用映像データ及び右目用映像データに含まれる3Dオブジェクトの視差を抽出する。さらに、オフセット取得部207は、3Dオブジェクトの視差に応じて、データ放送の画像が3Dオブジェクトよりも手前に飛び出るように、データ放送の3D化処理に用いるオフセット値を生成する。
 すなわち、本発明の一態様である映像処理装置は、データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置であって、前記映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を取得する取得部と、受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部とを備えることを特徴とする。
 (5)上記の実施形態では、BMLにbase_depth要素が追加されていたが、本発明はこれに限定されず、base_depth要素に対応する情報をスタイルシートに追加してもよい。
 (6)上記の実施形態では、3D映像データをLR表示モードで表示するか、LL表示モードで表示するかの判断は、映像処理装置21の表示モード切替部215が行う構成を有していたが、3D映像データをLR表示モードで表示するか、LL表示モードで表示するかを指定する制御属性をBMLの中に追加してもよい。
 例えば、BMLのbase_depth要素に、mode_3d属性という制御属性を追加してもよい。mode_3d属性の値が「00」である場合には、上記の実施形態で示したように、映像処理装置21による制御を指定し、mode_3d属性の値が「01」である場合には、映像処理装置21による制御を行わず、強制的に3D映像データをLL表示モードで表示するように制御してもよい。
 (7)上記の実施形態では、オフセット情報170は、図6に示したように、データ放送のオブジェクトの深度を示す、位置1~位置14に対応する14個のoffset_sequenceを含む構成であった。しかし、本発明のオフセット情報のデータ構造はこれに限定されない。例えば、位置1~位置9に対応する9個のoffset_sequenceを含む構成であってもよい。
 これは、データ放送のオブジェクトの表示位置が位置10~位置14のいずれかである場合には、位置1~位置9までのoffset_sequenceの値を用いて、位置10~位置14のoffset_sequenceの値を求めることができるからである。
 しかし、データ放送では、一般的に、画面中でよく利用される領域が決まっている。例えば、「全画面表示」の場合、位置10の領域が利用され、「L字型表示」の場合、位置11の領域が利用され、「バナー表示」の場合、位置12、位置13、位置14の領域が利用されることが多い。
 そこで、図4に示したように、複数のブロックを統合した領域として、位置10~位値14を予め定義しておき、図6に示したように、オフセット情報170に位置10~位置14に対応するoffset_sequenceの値を予め格納しておけば、オフセット取得部207は、複数領域のoffset_sequenceを参照する必要なく、簡単にオフセット値を設定することが可能となる。
 なお、上記の実施形態では、描画プレーンを9分割し、位置1~位置14を定義したが、分割方法はこれに限定されず、映像データに適した形で画面分割を行えばよく、位置1~位置14以外の新たな位置を定義してもよい。
 (8)上記の実施形態では、3D映像データをLL表示モードで表示する場合、左目用映像データを用いて2D表示を行う構成を有していたが、この構成は必須ではない。3D映像データをLL表示モードで表示する場合、左目用映像データを用いるのが一般的ではあるが、もちろん、右目用映像データを用いて2D表示を行う構成でもよい。
 (9)上記の実施形態では、表示モード記憶部214は、ユーザが指定した3D映像データの表示モードを記憶する構成を有していた。しかし、表示モード記憶部214は、ユーザが指定した表示モードを記憶する構成に限定されない。3D映像データの表示モードを指定する情報がBMLに含まれている場合には、その情報を記憶してもよいし、3D映像データのカテゴリ(番組コンテンツのカテゴリ)と指定の表示モードとを対応付けた情報を記憶してもよい。
 (10)上記の実施形態では、オフセットモード記憶部216は、ユーザ入力受付部213が予め受け付けたオフセットモードを記憶しておき、オフセット取得部207は、オフセットモード記憶部216に記憶されているオフセットモードに応じて、オフセット値を決定し、取得する構成を有していた。
 しかし、3D映像の表示モードがLL表示モード(2D表示)であり、且つ、データ放送の表示モードがLR表示モード(3D表示)の場合、オフセット取得部207は、オフセットモード記憶部216に記憶されているオフセットモードを、強制的に「固定」に切り替えるように構成してもよい。
 3D映像データが2D表示される場合に、データ放送のオフセット値を、オフセット情報を用いてフレーム毎に変動させる必要性は低い。そこで、3D映像データが2D表示される場合には、オフセットモードを、強制的に「固定」に切り替え、データ放送のオフセット値としてfixed_depth値を用いてもよい。
 さらには、3D映像の表示モードがLL表示モード(2D表示)であり、且つ、データ放送の表示モードがLR表示モード(3D表示)の場合、オフセット取得部207は、オフセット値を強制的に「0」に設定するように構成してもよい。
 ユーザが3D映像データを2D表示することを所望しているにも関わらず、データ放送を3D表示する必要性は低い。そこで、3D映像データが2D表示される場合には、オフセット値を強制的に「0」に設定し、データ放送を2D表示するように構成してもよい。
 (11)上記の実施形態で説明した図16のフローチャートを以下のように変更してもよい。
 オフセット情報を格納しているGOPとオフセット情報を格納していないGOPが交互に受信された場合には、ステップS203においてYES/NOを繰り返す。その結果、オフセット値が頻繁に切り替わるので、データ放送が非常に見難くなることも予想される。従って、ステップS203でNOの場合、直ちにステップS208へ移行せず、一定期間は前のGOPに格納されていたoffset_sequence値をオフセット値として利用し続けてもよい。
 また、あるoffset_sequence_idに対応するoffset_sequence値がGOP毎に大きく変動する場合にも、データ放送が非常に見難くなることが予想される。そこで、あるoffset_sequence_idに対応するoffset_sequence値がGOP毎に大きく変動することが検出された場合には、offset_sequenceの値をオフセット値とするステップS204の処理を中止し、BMLに格納されたfixed_depth値をオフセット値とするように制御を切り替えてもよい。
 また、S205~ステップS207の処理は、fixed_depth値をオフセット値とする場合に、3D映像データの3Dオブジェクトとデータ放送のオブジェクトとが干渉しないことをオフセット情報を用いて確認する処理である。fixed_depth値は、予め大きめの値が格納されていることが想定されるので、干渉は起こらないか、又は、干渉が起こったとしても軽度な場合が予想される。そのため、S205~ステップS207の処理は必須ではなく、省略してもよい。ステップS201において、固定オフセットモードが設定されていると判断された場合(ステップS201でYES)、ステップS205からステップS207を省略し、直ちにステップS208に移行し、BMLに格納されたfixed_depth値をオフセット値としてもよい。
 (12)上記の実施形態では、映像処理装置21は、データ放送の3D表示を行う構成であったが、映像処理装置21は、データ放送ではなく、字幕データの3D表示を行う構成でもよい。
 (13)放送装置10と映像処理装置21との間の通信網はデジタル放送網に限定されない。例えば、インターネットでもよい。この場合、放送装置10は、インターネット上のサーバ装置などでもよく、映像処理装置21は、パーソナルコンピュータなどでもよい。
 (14)映像処理装置21は、複数のデータストリームを受信し、複数の番組をディスプレイ22に同時に表示するような機能を備えていてもよい。この場合、オフセット取得部207は、複数のデータストリームのそれぞれからオフセット情報を取得し、複数のオフセット情報を用いてオフセット値取得処理を行ってもよい。
 例えば、オフセット取得部207は、BMLに格納されているbase_depth要素からoffset_sequence_idの値を読む。さらに、オフセット取得部207は、複数のオフセット情報から、offset_sequence_idに対応付けられているoffset_sequenceの値を取得する。そして、オフセット取得部207は、取得した複数のoffset_sequenceの値の最大値を、オフセット値としてもよい。
 (15)上記の実施形態の図7に記載したBML180は一例である。立体映像視聴システム1で用いるBMLの構成は、図7の記載に限定されないのは勿論である。例えば、複数のオブジェクトを一つのBMLで記述する場合には、body要素にオブジェクト毎のbase_depth要素を格納する構成でもよい。
 (16)上記の実施形態で示したデータ放送表示処理、表示モード設定処理、オフセット値取得処理を、映像処理装置21のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるための機械語或いは高級言語のプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路等を介して流通させ頒布することもできる。このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM、フラッシュメモリ等がある。流通、頒布された制御プログラムはプロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより上記の実施形態で示したような各機能が実現されるようになる。なお、プロセッサは、制御プログラムを直接実行する他、コンパイルして実行或いはインタプリタにより実行してもよい。
 (17)上記の実施形態に示した各機能構成要素(番組コンテンツ蓄積部101、オフセット情報生成部102、エンコーダ103、データ放送制作部104、マルチプレクサ105、放送ストリーム送出部106、デマルチプレクサ201、オーディオデコーダ202、ビデオデコーダ203、左目用映像データ出力部204、右目用映像データ出力部205、データ放送処理部206、オフセット取得部207、右目用データ放送画像生成部208、左目用データ放送画像生成部209、左目用画像生成部210、右目用画像生成部211、表示制御部212、ユーザ入力受付部213、表示モード記憶部214、表示モード切替部215、及びオフセットモード記憶部216)は、その機能を実行する回路として実現されてもよいし、1又は複数のプロセッサによりプログラムを実行することで実現されてもよい。また、実施の形態1及び2で示した端末装置は、IC、LSIその他の集積回路のパッケージとして構成されるものとしてもよい。このパッケージは各種装置に組み込まれて利用に供され、これにより各種装置は、各実施形態で示したような各機能を実現するようになる。
 (18)上記の実施形態及び上記の変形例を適宜組み合わせてもよい。
<5.補足>
 以下、更に本発明の一実施形態としての映像処理装置、送信装置及び立体映像視聴システムの構成及びその変形例と効果について説明する。
 (a)データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置であって、前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部とを備えることを特徴とする。
 この構成によると、前記映像処理装置は、映像データに重畳して表示されるデータ放送の画像を、前記映像データの3Dオブジェクトの深度に応じた深度で3D表示することが可能となる。これにより、ユーザは、より適切にデータ放送を3D映像と共に視聴することが可能となる。
 (b)前記深度情報には、3D表示されるオブジェクトの表示位置及び深度に応じて設定された、前記データ放送の画像を3D表示するときの、前記画像の表示位置毎の深度が記載されており、前記データ放送は、当該データ放送の画像の表示位置を示す位置情報を含み、前記取得部は、前記データ放送から前記位置情報を取得し、取得した前記位置情報が示す表示位置に対応する前記深度を前記深度情報から取得することを特徴とする。
 映像データの一つのフレームには、深度の異なる複数の3Dオブジェクトが含まれる場合がある。そこで、上記の構成によると、データ放送の画像を、その表示位置に同時に表示される3Dオブジェクトの深度に応じて、常に適切な深度で3D表示することが可能となる。
 (c)前記深度情報に記載されている前記画像の表示位置毎の深度は、前記表示位置に3D表示されるオブジェクトの深度より高い値に設定されており、前記データ放送の画像を3D表示すると、前記画像は、3D表示される前記オブジェクトの奥行き位置よりも手前に表示されることを特徴とする。
 映像データに含まれる3Dオブジェクトの背後にデータ放送の画像が表示されると、ユーザにとって不自然で視聴しにくい画像となる。また、映像データに含まれる3Dオブジェクトの結像位置とデータ放送の画像の結像位置とが重なり、3Dオブジェクトとデータ放送の画像とが干渉する場合にも、ユーザにとって視聴しにくい画像となる。
 そこで、上記の構成によると、3Dオブジェクトの手前にデータ放送の画像を表示することができるので、ユーザにとって見やすい画像を提供することが可能となる。
 (d)前記映像データは、MPEG2-TS形式のデータストリームで配信され、前記データストリームには、所定単位毎に前記深度情報が含まれており、前記取得部は、前記データストリームの所定単位毎に含まれる前記深度情報から、順次前記深度を取得し、前記生成部は、前記取得部が前記深度を取得する毎に、前記左目用画像及び前記右目用画像を生成することを特徴とする。
 データ放送のオーサリング時には、当該データ放送が重畳される予定の番組コンテンツの内容については知ることができるが、前記番組コンテンツにどのような深度の3Dオブジェクトが含まれるのかの詳細を知ることは難しいかもしれない。また、大凡の予測に基づいて、データ放送のオーサリング時に、データ放送の画像を3D表示する際の深度を予めBMLに格納しておいたとしても、番組コンテンツの3Dオブジェクトの深度は時々刻々と変動する。そのため、予めBMLに格納された深度を用いてデータ放送を3D表示したとしても、データ放送の画像を、同時に表示される番組コンテンツとの関係において、常に適切な深度で3D表示できるとは限らない。
 そこで、上記の構成によれば、データストリームの所定単位毎に前記深度情報が含まれるので、時々刻々と変動する3Dオブジェクトの深度に応じて、データ放送の画像を適切な深度で3D表示することが可能となる。
 (e)前記データ放送は、当該データ放送の画像を固定の深度で3D表示するときの当該画像が表示されるべき深度を示す固定深度情報を含み、前記映像処理装置は、前記データ放送の画像を固定の深度で3D表示する固定モード、及び、前記データ放送の画像を重畳する前記映像データのオブジェクトの深度の変動に応じて変動する深度で3D表示する変動モードの何れかを選択するデータ放送表示選択部を備え、前記取得部は、変動モードが選択された場合に、前記深度情報から前記深度を取得し、固定モードが選択された場合に、前記深度情報から前記深度を取得する処理に替えて、前記データ放送に含まれる前記固定深度情報から前記深度を取得することを特徴とする。
 上述したように、映像データに含まれる深度情報を用いると、前記映像データの3Dオブジェクトの深度に応じた深度で、データ放送の画像を3D表示することが可能である。しかし、データ放送の画像の深度が頻繁に変動すると、文字などが見難い場合もある。
 そこで、上記の構成によると、映像処理装置は、固定モードが選択された場合には、前記データ放送の画像を固定の深度で3D表示することが可能となる。
 (f)前記データ放送表示選択部は、前記固定モード及び前記変動モードの何れかの選択をユーザから受け付けることを特徴とする。
 画像の見易さ、見難さには、ユーザ毎に個人差があると思われる。そこで、上記の構成によると、各ユーザにとって見易い方式でデータ放送の画像を表示することが可能となる。
 なお、前記データ放送表示選択部は、上記の実施形態のユーザ入力受付部213及びオフセットモード記憶部216に対応する。
 (g)前記映像処理装置は、受信した前記3D表示用の映像データを2D表示することが可能であり、受信した3D表示用の映像データを3D表示する3Dモード及び前記映像データを2D表示する2Dモードを選択する表示モード選択部を備え、前記表示モード選択部が2Dモードを選択した場合、前記データ放送表示選択部は、固定モードを選択することを特徴とする。
 映像処理装置が、放送装置から受信した3D番組を擬似的に2D番組として表示する機能を有する場合がある。このような場合、たとえ、受信した3D番組に深度情報が含まれていたとしても、データ放送の画像を3D番組のオブジェクトの深度に応じて変動させると、かえってユーザにとってはデータ放送が見難くなる。
 そこで、上記の構成によると、映像データが2D表示されるときには、データ放送の画像を固定の深度で表示することにより、データ放送が見難くなるのを抑制することができる。
 (h)前記データ放送に前記位置情報及び前記固定深度情報が含まれていない場合、前記表示モード選択部は2Dモードを選択することを特徴とする。
 前記データ放送に位置情報及び固定深度情報が含まれていない場合には、前記取得部は前記深度を取得することができず、前記生成部は、前記左目用画像及び前記右目用画像を生成することができない。したがって、データ放送は2D表示される可能性が高い。
 上述したように、3D映像データに2D表示のデータ放送を重畳すると、ユーザにとって見難い画像となる。そこで、上記の構成によると、データ放送が2D表示される可能性が高い場合には、放送装置から受信した3D番組を擬似的に2D番組として表示することにより、見難い画像が表示されるのを抑制することができる。
 (i)前記表示モード選択部は、前記3Dモード又は前記2Dモードの選択をユーザから受け付けることを特徴とする。
 映像処理装置が、放送装置から受信した3D番組を擬似的に2D番組として表示する機能を有する場合がある。このような場合に、上記の構成を備えることにより、ユーザが所望する画像を表示することが可能となる。
 なお、前記表示モード選択部は、上記の実施形態のユーザ入力部213、表示モード記憶部214及び表示モード切替部215に対応する。
 (j)データ放送と3D表示用の映像データとを送信する送信装置であって、前記映像データを記憶している記憶部と、前記映像データに基づいて3D表示されるオブジェクトの深度に応じて、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報を生成する深度情報生成部と、前記データ放送と、生成された前記深度情報を含む前記映像データとを送信する送信部とを備えることを特徴とする。
 この構成によると、前記送信装置は、送信先である映像処理装置に対して、映像データに重畳して表示されるデータ放送の画像を、前記映像データの3Dオブジェクトの深度に応じた深度で3D表示させることが可能となる。これにより、ユーザは、より適切にデータ放送を3D映像と共に視聴することが可能となる。
 (k)送信装置と映像処理装置とから構成され、3D表示用の映像データの映像にデータ放送の画像を重畳して表示する立体映像視聴システムであって前記送信装置は、前記映像データを記憶している記憶部と、前記映像データに基づいて3D表示されるオブジェクトの深度に応じて、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報を生成する深度情報生成部と、前記データ放送と、生成された前記深度情報を含む前記映像データとを送信する送信部とを備え、前記映像処理装置は、前記データ放送と、前記深度情報を含む前記映像データを受信する受信部と、受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部とを備えることを特徴とする。
 この構成によると、前記映像処理装置は、映像データに重畳して表示されるデータ放送の画像を、前記映像データの3Dオブジェクトの深度に応じた深度で3D表示することが可能となる。これにより、ユーザは、より適切にデータ放送を3D映像と共に視聴することが可能となる。
 本発明の一態様である映像処理装置によると、3D映像データ及びデータ放送を再生する映像処理装置を製造及び販売する産業において、データ放送を3D表示する際に、ユーザにとって視聴しやすい画像を表示することができる技術として利用することが可能である。
1   立体映像視聴システム
10  放送装置
20  デジタルテレビ
21  映像処理装置
22  ディスプレイ
30  リモコン
40  3D眼鏡
101 番組コンテンツ蓄積部
102 オフセット情報生成部
103 エンコーダ
104 データ放送制作部
105 マルチプレクサ
106 放送ストリーム送出部
201 デマルチプレクサ
202 オーディオデコーダ
203 ビデオデコーダ
204 左目用映像データ出力部
205 右目用映像データ出力部
206 データ放送処理部
207 オフセット取得部
208 右目用データ放送画像生成部
209 左目用データ放送画像生成部
210 左目用画像生成部
211 右目用画像生成部
212 表示制御部
213 ユーザ入力受付部
214 表示モード記憶部
215 表示モード切替部
216 オフセットモード記憶部

Claims (14)

  1.  データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置であって、
     前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、
     受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、
     受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部と
     を備えることを特徴とする映像処理装置。
  2.  前記深度情報には、3D表示されるオブジェクトの表示位置及び深度に応じて設定された、前記データ放送の画像を3D表示するときの、前記画像の表示位置毎の深度が記載されており、
     前記データ放送は、当該データ放送の画像の表示位置を示す位置情報を含み、
     前記取得部は、前記データ放送から前記位置情報を取得し、取得した前記位置情報が示す表示位置に対応する前記深度を前記深度情報から取得する
     ことを特徴とする請求項1に記載の映像処理装置。
  3.  前記深度情報に記載されている前記画像の表示位置毎の深度は、前記表示位置に3D表示されるオブジェクトの深度より高い値に設定されており、
     前記データ放送の画像を3D表示すると、前記画像は、3D表示される前記オブジェクトの奥行き位置よりも手前に表示される
     ことを特徴とする請求項2に記載の映像処理装置。
  4.  前記映像データは、MPEG2-TS形式のデータストリームで配信され、前記データストリームには、所定単位毎に前記深度情報が含まれており、
     前記取得部は、前記データストリームの所定単位毎に含まれる前記深度情報から、順次前記深度を取得し、
     前記生成部は、前記取得部が前記深度を取得する毎に、前記左目用画像及び前記右目用画像を生成する
     ことを特徴とする請求項3に記載の映像処理装置。
  5.  前記データ放送は、当該データ放送の画像を固定の深度で3D表示するときの当該画像が表示されるべき深度を示す固定深度情報を含み、
     前記映像処理装置は、
     前記データ放送の画像を固定の深度で3D表示する固定モード、及び、前記データ放送の画像を重畳する前記映像データのオブジェクトの深度の変動に応じて変動する深度で3D表示する変動モードの何れかを選択するデータ放送表示選択部を備え、
     前記取得部は、変動モードが選択された場合に、前記深度情報から前記深度を取得し、固定モードが選択された場合に、前記深度情報から前記深度を取得する処理に替えて、前記データ放送に含まれる前記固定深度情報から前記深度を取得する
     ことを特徴とする請求項2に記載の映像処理装置。
  6.  前記データ放送表示選択部は、前記固定モード及び前記変動モードの何れかの選択をユーザから受け付ける
     ことを特徴とする請求項5に記載の映像処理装置。
  7.  前記映像処理装置は、受信した前記3D表示用の映像データを2D表示することが可能であり、
     受信した3D表示用の映像データを3D表示する3Dモード及び前記映像データを2D表示する2Dモードを選択する表示モード選択部を備え、
     前記表示モード選択部が2Dモードを選択した場合、前記データ放送表示選択部は、固定モードを選択する
     ことを特徴とする請求項5に記載の映像処理装置。
  8.  前記データ放送に前記位置情報及び前記固定深度情報が含まれていない場合、前記表示モード選択部は2Dモードを選択する
     ことを特徴とする請求項7に記載の映像処理装置。
  9.  前記表示モード選択部は、前記3Dモード又は前記2Dモードの選択をユーザから受け付ける
     ことを特徴とする請求項7に記載の映像処理装置。
  10.  データ放送と3D表示用の映像データとを送信する送信装置であって、
     前記映像データを記憶している記憶部と、
     前記映像データに基づいて3D表示されるオブジェクトの深度に応じて、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報を生成する深度情報生成部と、
     前記データ放送と、生成された前記深度情報を含む前記映像データとを送信する送信部と
     を備えることを特徴とする送信装置。
  11.  送信装置と映像処理装置とから構成され、3D表示用の映像データの映像にデータ放送の画像を重畳して表示する立体映像視聴システムであって
     前記送信装置は、
     前記映像データを記憶している記憶部と、
     前記映像データに基づいて3D表示されるオブジェクトの深度に応じて、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報を生成する深度情報生成部と、
     前記データ放送と、生成された前記深度情報を含む前記映像データとを送信する送信部とを備え、
     前記映像処理装置は、
     前記データ放送と、前記深度情報を含む前記映像データを受信する受信部と、
     受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、
     受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部とを備える
     ことを特徴とする立体映像視聴システム。
  12.  データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置で用いられる映像処理方法であって、
     前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、
     受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得ステップと、
     受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成ステップと
     を含むことを特徴とする映像処理方法。
  13.  データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する映像処理装置で用いられる映像処理プログラムであって、
     前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、
     前記映像処理プログラムは、前記映像処理装置に、
     受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得ステップと、
     受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成ステップと
     を実行させることを特徴とする映像処理プログラム。
  14.  データ放送と3D表示用の映像データとを受信し、受信した映像データの映像にデータ放送の画像を重畳して出力する集積回路であって、
     前記映像データには、当該映像データに基づいて3D表示されるオブジェクトの深度に応じて設定された、前記データ放送の画像を3D表示するときの当該画像が表示されるべき深度を示す深度情報が含まれており、
     受信した前記映像データに含まれる前記深度情報から前記深度を取得する取得部と、
     受信した前記データ放送の画像を、取得した前記深度で3D表示するための右目用画像及び左目用画像を生成する生成部と
     を備えることを特徴とする集積回路。
PCT/JP2012/003344 2011-05-25 2012-05-22 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路 WO2012160812A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161489825P 2011-05-25 2011-05-25
US61/489,825 2011-05-25

Publications (1)

Publication Number Publication Date
WO2012160812A1 true WO2012160812A1 (ja) 2012-11-29

Family

ID=47216903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003344 WO2012160812A1 (ja) 2011-05-25 2012-05-22 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路

Country Status (2)

Country Link
US (1) US20120300029A1 (ja)
WO (1) WO2012160812A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11533467B2 (en) * 2021-05-04 2022-12-20 Dapper Labs, Inc. System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213267A (ja) * 2008-09-30 2010-09-24 Panasonic Corp 3d映像に係る眼鏡、表示装置
WO2011007564A1 (ja) * 2009-07-14 2011-01-20 パナソニック株式会社 映像再生装置
JP2011097595A (ja) * 2009-02-19 2011-05-12 Panasonic Corp 半導体集積回路

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100040563A (ko) * 2008-10-10 2010-04-20 삼성전자주식회사 방송 표시장치 및 그의 2차원 영상 표시 방법
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213267A (ja) * 2008-09-30 2010-09-24 Panasonic Corp 3d映像に係る眼鏡、表示装置
JP2011097595A (ja) * 2009-02-19 2011-05-12 Panasonic Corp 半導体集積回路
WO2011007564A1 (ja) * 2009-07-14 2011-01-20 パナソニック株式会社 映像再生装置

Also Published As

Publication number Publication date
US20120300029A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5402715B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2004274125A (ja) 画像処理装置および方法
KR20110113186A (ko) 비디오 인터페이스를 통해 송신하고 3d 비디오 및 3d 오버레이들을 합성하기 위한 방법 및 시스템
TW201119349A (en) Data structure, recording medium, playback apparatus and method, and program
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
US9357200B2 (en) Video processing device and video processing method
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011249945A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR101314601B1 (ko) 콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및 콘텐츠 표출 방법
TW201320712A (zh) 送訊裝置、送訊方法及收訊裝置
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
WO2013011696A1 (ja) 送信装置、受信再生装置、送信方法及び受信再生方法
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2014109321A1 (ja) 送信装置、送信方法、受信装置および受信方法
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
WO2012160812A1 (ja) 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路
WO2013018489A1 (ja) 送信装置、送信方法および受信装置
JP6211929B2 (ja) 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路
WO2013172142A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP2013074434A (ja) 映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789919

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12789919

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP