WO2012160808A1 - データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム - Google Patents

データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム Download PDF

Info

Publication number
WO2012160808A1
WO2012160808A1 PCT/JP2012/003333 JP2012003333W WO2012160808A1 WO 2012160808 A1 WO2012160808 A1 WO 2012160808A1 JP 2012003333 W JP2012003333 W JP 2012003333W WO 2012160808 A1 WO2012160808 A1 WO 2012160808A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
data broadcast
unit
data
objects
Prior art date
Application number
PCT/JP2012/003333
Other languages
English (en)
French (fr)
Inventor
由佳 小澤
川口 透
洋 矢羽田
上坂 靖
智輝 小川
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to BR112013013035A priority Critical patent/BR112013013035A8/pt
Priority to CN201280003557.XA priority patent/CN103201770B/zh
Priority to JP2013516208A priority patent/JP6112417B2/ja
Publication of WO2012160808A1 publication Critical patent/WO2012160808A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to a technique for displaying a 3D data broadcast image, and more particularly, to a synchronous display of left-eye and right-eye data broadcast images.
  • data to be displayed on the data broadcasting display device on the receiving side is periodically and repeatedly transmitted on a module basis, unlike the case of video, and is not transmitted considering the display timing on the receiving side. Therefore, when the timing for displaying the data broadcast image has arrived in the data broadcast display device that displays the 3D data broadcast image, the object image for the left eye is to be arranged for both the left eye and the right eye data broadcast image. However, the generation of the right-eye object image may not be completed due to data acquisition delay or the like. If display is performed in such a state that there is a mismatch between the contents of the left-eye data broadcast image and the right-eye data broadcast image, the user cannot view the displayed image stereoscopically and feel uncomfortable. Also become.
  • the left-eye and right-eye data broadcast images are output to the display only when both the left-eye data broadcast image and the right-eye data broadcast image to be written on the graphics plane are completed. Is aimed at consistency.
  • both the left-eye data broadcast image and the corresponding right-eye data broadcast image are completed and displayed on the display, both images can be matched, but both The state where nothing is displayed continues until the image is completed, and the user may feel uncomfortable.
  • the present invention provides a data broadcast display device that can reduce a user's discomfort caused by a display delay while securing a state in which a user can stereoscopically view a 3D data broadcast image to be displayed. Objective.
  • the present invention provides a data broadcast display device for displaying a data broadcast image including a plurality of 3D objects represented by a set of left-eye viewpoint and right-eye viewpoint objects, the left-eye viewpoint and the right-eye viewpoint.
  • the display data generation means that notifies each time it is completed, and for each of the plurality of 3D objects, determines whether or not the notification is received for both the left-eye viewpoint and the right-eye viewpoint, and receives the notification. If it is determined that the data broadcast image to be displayed Wherein including a double object, if it is determined not to receive the notification, and display control means for controlling so as not to include any said both objects in the data broadcasting image to be displayed.
  • the data broadcast display device has the above-described configuration, so that the left-eye viewpoint can be generated even if there is an object for which at least one of the left-eye viewpoint and right-eye viewpoint objects has not been generated for each of the plurality of 3D objects.
  • the objects for which the generation of both the right eye viewpoint objects has been completed are arranged in the data broadcast image and displayed. Therefore, it is possible to reduce the discomfort felt by the user by maintaining the state in which the user can stereoscopically view the data broadcast image to be displayed and continuing the state in which the data broadcast image is not displayed at all.
  • FIG. 1 Schematic illustration Flow chart showing left and right data broadcast image output processing Flow chart showing synchronous output processing
  • the block diagram which shows the structure of the data broadcasting display apparatus which concerns on 3rd Embodiment. Diagram showing an example of resources required to create a data broadcast image (A) And (b) The figure which shows an example of a BML document (A) And (b) The figure which shows an example of the BML document which concerns on a modification
  • a data broadcast display device is a device that displays a data broadcast image in 3D, and includes a left-eye viewpoint data broadcast image (hereinafter referred to as “left-eye data broadcast image”) and a right-eye viewpoint data broadcast. Images (hereinafter referred to as “right-eye data broadcast images”) are alternately displayed.
  • the left-eye data broadcast image is provided with an object image (hereinafter referred to as “left-eye object image”) that is an image of the object viewed from the left-eye viewpoint in order to represent an object that the user recognizes as a three-dimensional object.
  • the right-eye data broadcast image is provided with an object image obtained by viewing the object from the right-eye viewpoint (hereinafter referred to as “right-eye object image”).
  • the left-eye object image and the right-eye object image related to one object are arranged so as to be shifted from each other in the horizontal direction so as to reflect the binocular parallax of the user in each of the left-eye data broadcast image and the right-eye data broadcast image.
  • the object indicates an object
  • the character string indicates a three-dimensional object by adding a depth and a shadow to the character string.
  • an object in which a character string is three-dimensionalized is referred to as a “character string object”.
  • the user views the right eye data broadcast image and the left eye data broadcast image displayed on the data broadcast display device while wearing dedicated glasses.
  • the dedicated glasses are used by the data broadcast display device so that the right eye lens shields the light when the data broadcast display device displays the left eye data broadcast image and the left eye lens shields the light when the right eye data broadcast image is displayed.
  • Be controlled By controlling in this way, in the user's brain, the left-eye data broadcast image and the right-eye data broadcast image reflecting the parallax are superimposed by an afterimage reaction of the eyes. As a result, the user recognizes that a three-dimensional object exists in front of the eyes.
  • data for generating a left-eye object image, a right-eye object image, and the like in data broadcasting is periodically and repeatedly transmitted in units of modules, unlike the case of video, display timing in a data broadcasting display device, etc. It is not intended to be transmitted. For this reason, the generation of the left-eye object image and the generation timing of the right-eye object image in the data broadcast display device are not necessarily synchronized, and the generation of the left-eye object image is completed at the timing of displaying the data broadcast image, but the right-eye object There may be a situation where image generation is not complete.
  • the left-eye data broadcast image has a left-eye object image arranged, but the right-eye object image corresponding to the left-eye object image is not arranged in the right-eye data broadcast image. Matching occurs. Even if the data broadcast display device displays the left-eye data broadcast image and the left-eye data broadcast image in a state where such inconsistency has occurred, the user cannot perform stereoscopic viewing.
  • the data broadcast display device distributes the left-eye and right-eye object images to the left-eye and right-eye data broadcast images only when generation of both the left-eye and right-eye object images corresponding to the objects is completed, When the generation of at least one of the right-eye object image is not completed, neither the left-eye object image nor the right-eye object image is arranged in the left-eye and right-eye data broadcast image, so that the image is displayed with the above inconsistency occurring. Avoid making it happen.
  • FIG. 1 is a diagram illustrating an example of a data broadcast image displayed by the data broadcast display device.
  • FIG. 1A is a diagram schematically showing the left-eye data broadcast image 10.
  • the left-eye data broadcast image 10 includes a left-eye object image 11 that displays a character string “JAPAN”, a left-eye object image 12 that displays a character string “3D data broadcast”, and a left-eye object image 13 that displays a shaded circle. Including.
  • FIG. 1B is a diagram schematically showing the right-eye data broadcast image 20.
  • the right-eye data broadcast image 20 includes a right-eye object image 21 that displays the character string “JAPAN”, a right-eye object image 22 that displays the character string “3D data broadcast”, and a right-eye object image 23 that displays a shaded circle. Including.
  • the left-eye object image 11 is in an XY coordinate plane (the horizontal direction is the X axis, the vertical direction is the Y axis, and the coordinate unit is pixels (px)) with the upper left corner of the left eye data broadcast image 10 as the origin.
  • the X coordinate is arranged at a position of 502 px.
  • a right eye object image 21 for expressing the same object as the left eye object image 11 is an XY coordinate plane (the horizontal direction is the X axis, the vertical direction is the Y axis, and the origin is the upper left corner of the right eye data broadcast image 20).
  • the coordinate unit is px), and the X coordinate is arranged at a position of 498 px.
  • the left-eye object image 11 and the right-eye object image 21 are arranged so as to be shifted by 4 px in the horizontal direction.
  • the left-eye object image 12 and the corresponding right-eye object image 22 are arranged so as to be shifted by 8 px in the horizontal direction.
  • the left-eye object image 13 and the corresponding right-eye object image 23 are arranged so as to be shifted by 4 px in the horizontal direction, and different shades from the circular figure so that the image can be recognized three-dimensionally by the user. It is the structure which attached.
  • FIG. 2 is a block diagram showing the configuration of the data broadcast display device 100 according to an embodiment of the present invention.
  • the data broadcast display device 100 includes a demultiplexer 101, a video decoder 102, a left eye video output unit 103, a right eye video output unit 104, a left eye video FB (frame buffer) 105, a right eye video FB 106, a data broadcast analysis unit 107, and a layout acquisition unit 108.
  • a display unit 117 and a display 118 are included.
  • the demultiplexer 101 acquires a transport stream in which a plurality of programs are multiplexed, and each of video, audio, and data broadcasting of a program that is selected and instructed by the user using the user input unit 109 from the acquired transport stream. It has a function to extract packets.
  • the demultiplexer 101 outputs the extracted video packet to the video decoder 102, outputs the extracted audio packet to an audio decoder (not shown), and outputs the extracted data broadcast packet to the data broadcast analysis unit 107.
  • video transmitted using the transport stream is encoded according to the MPEG4-MVC (Moving Picture Experts Group 4-Multiview Video Coding) standard.
  • the video decoder 102 has a function of acquiring a left-eye video and a right-eye video by acquiring a video packet and decoding the video packet, and outputs the acquired left-eye video to the left-eye video output unit 103 to obtain a right-eye video. Is output to the right-eye video output unit 104.
  • the left-eye video output unit 103 acquires the left-eye video from the video decoder 102, and each of the left-eye images constituting the left-eye video is transferred to the left-eye video FB 105 at a time indicated by a PTS (Presentation Time Stamp) attached to each left-eye image.
  • PTS Presentation Time Stamp
  • the right-eye video output unit 104 has a function of acquiring the right-eye video from the video decoder 102 and writing each of the right-eye images constituting the right-eye video to the right-eye video FB 106 at a time indicated by the PTS attached to each right-eye image.
  • the left-eye video FB 105 is a frame buffer (hereinafter referred to as “FB”) configured by a memory, and records the left-eye image output from the left-eye video output unit 103.
  • FB frame buffer
  • the right-eye video FB 106 is a frame buffer composed of a memory, and records the right-eye image output from the right-eye video output unit 104.
  • the data broadcast analysis unit 107 has a function of acquiring a data broadcast packet from the demultiplexer 101, extracting a BML document (startup.bml) from the acquired data broadcast packet, and outputting it to the layout acquisition unit 108.
  • the data broadcast analysis unit 107 includes startup. bml is analyzed, the file having the file name indicated by the left_src attribute value in the img element is extracted and output to the left-eye data broadcast creation unit 111, and the file having the file name indicated by the right_src attribute is extracted to obtain the right-eye data broadcast creation unit. 112.
  • FIG. 3 is a diagram showing an example of resources necessary for creating a data broadcast image.
  • the resources required to create a data broadcast image are startup.
  • bml, BML document, maru_L. is described as a resource necessary for generating the left-eye data broadcast image.
  • png, maru_R. which is described as a resource necessary for generating the right-eye data broadcast image.
  • Fig. 4 (a) shows startup., Which is an example of a BML document.
  • the part related to this embodiment is extracted from bml.
  • the description of the BML document in this specification is in accordance with ARIB STD-B24 in principle, but the description about the object is expanded as shown in (1) and (2) below.
  • an Offset attribute is added to each of the element tags (201 to 203, 211 to 213).
  • the unit of the offset value set in the Offset attribute is a pixel.
  • each of the element tags represents information on one object.
  • the X coordinate of the arrangement position of the object corresponding to the element tag is arranged by shifting the number of pixels to the right in the horizontal direction for the left-eye data broadcast image, or by the number of pixels to the left in the horizontal direction for the right-eye data broadcast image. It shows.
  • the object is arranged in the opposite direction to the case where the offset value is positive, that is, the left-eye data broadcast image is shifted to the left in the horizontal direction and the right-eye data broadcast image is shifted to the right in the horizontal direction. Will be.
  • the Offset value for the p element (201) is 2, and the left value is 500. Accordingly, the object represented by the p element (201) is arranged at the position of the X coordinate of 502 px in the right eye data broadcast image, and is arranged at the position of 498 px in the left eye data broadcast image.
  • a left_src attribute and a right_src attribute have been added so that the left-eye data broadcast image and the right-eye data broadcast image can be viewed more stereoscopically using different bitmaps for one object. is doing.
  • the file name of the bitmap that is the left-eye object image is set as the attribute value.
  • the file name of the bitmap that is the right-eye object image is set as the attribute value.
  • maru_L. png in the img element (203), as the attribute value of the left_src attribute, maru_L. png, right_src attribute values of maru_R. png is set. That is, for the object corresponding to the img element (203), the left eye object image is maru_L. png and the right eye object image is maru_R. png.
  • the layout acquisition unit 108 uses startup. bml is obtained, analyzed, and layout information indicating the arrangement of the left-eye object image in the left-eye data broadcast image (hereinafter referred to as “left-eye layout information”), and the arrangement of the right-eye object image in the right-eye data broadcast image, etc.
  • the layout information (hereinafter referred to as “right-eye layout information”) is generated.
  • the layout acquisition unit 108 outputs the generated left eye and right eye layout information to the left and right data broadcast synchronization unit 110. Further, the layout acquisition unit 108 updates the left eye and right eye layout information as necessary, for example, when a different BML document is acquired.
  • the left-eye layout information includes an element name, an in-document index, top, left, type, and value.
  • the layout acquisition unit 108 includes an element name in each element tag of the acquired BML document, a value specified by a top attribute (hereinafter referred to as “top attribute value”), and a value specified by a left attribute (hereinafter “left”).
  • top attribute value a value specified by a top attribute
  • left attribute value a value specified by a left attribute
  • the layout acquisition unit 108 describes the id value assigned to the element tag as the in-document index of the left eye layout information.
  • the in-document index is used to identify the left eye layout information and the left eye object image indicated by the left eye layout information.
  • “type” indicates the type of the left-eye object. In the present embodiment, it is assumed that there are two types of character strings and still images. Specifically, when the CDATA section is included in the element tag of the BML document, “character string” is described as the type of the left-eye layout information, and when the left_src attribute and the right_src attribute are present, “still image” is displayed as the type. be written. “value” indicates the content of the left-eye object.
  • the type is a character string
  • the character string itself described in the CDATA section is described
  • the type is a still image
  • the attribute values of the left_src attribute and the right_src attribute in the element tag of the BML document The file name is described.
  • character string is described as the type of the left-eye layout information, and an element value ( ⁇ p> for a p element is used as the value).
  • element value ⁇ p> for a p element is used as the value.
  • the character string itself of the portion between ⁇ / p> is described.
  • the layout acquisition unit 108 generates layout information on the assumption that one object can be generated from each of the character string described in the CDATA section and the image file indicated in the img element tag.
  • FIG. 5A is a diagram illustrating an example of a left-eye layout information table that is a list of left-eye layout information.
  • the left-eye layout information 301 is generated based on the element tag 201 of the BML document in FIG. 4 and is layout information related to the left-eye object image representing a character string.
  • “p” is described as the element name
  • “001” is described as the in-document index
  • “100” is described as the top
  • “502” is described as the left
  • “character” is displayed as the type.
  • Column “is described, and” JAPAN is described as value.
  • “502” obtained by adding the Offset attribute value 2 to the left attribute value 500 is recorded as the left.
  • the description of the right-eye layout information is the same as the description of the left-eye layout information.
  • the left attribute is designated by the left attribute.
  • the value obtained by subtracting the value specified by the Offset attribute from the set value is described.
  • FIG. 5B is a diagram showing an example of a right-eye layout information table that is a list of right-eye layout information.
  • the right eye layout information 311 is generated based on the element tag 201 of the BML document in FIG. 4 and is layout information related to the right eye object image related to the same object as the left eye layout information 301.
  • “p” is described as the element name
  • “001” is described as the in-document index
  • “100” is described as the top
  • “character string” is described as the type
  • “value” is set as “value”.
  • “JAPAN” is described.
  • the element tag 201 has an offset attribute
  • “498” obtained by subtracting the Offset attribute value 2 from the left attribute value 500 is described as the left.
  • the left-eye data broadcast FB 113 is an FB composed of a memory, and each left-eye object image is recorded. Each recorded left-eye object image is output to the left-eye display generation unit 115 based on the control of the synchronization data control unit 110.
  • the right eye data broadcast FB 114 is an FB composed of a memory, and each right eye object image is recorded. Each recorded right-eye object image is output to the right-eye display generation unit 116 based on the control of the synchronous data control unit 110.
  • the left eye display generation unit 115 has a function of generating a left eye data broadcast image by superimposing the left eye object images output from the left eye data broadcast FB 113.
  • the left-eye display generation unit 115 has a function of superimposing the left-eye data broadcast image on the left-eye image output from the left-eye video FB 105 and outputting it to the display unit 117.
  • the right eye display generation unit 116 has a function of generating a right eye data broadcast image by superimposing the right eye object images output from the right eye data broadcast FB 114.
  • the right-eye display generation unit 116 has a function of superimposing the right-eye data broadcast image on the right-eye image output from the right-eye video FB 106 and outputting it to the display unit 117.
  • the left eye data broadcast creation unit 111 acquires the left eye layout information table from the left and right data broadcast synchronization unit 110. Further, a resource (in this embodiment, maru_L.png) necessary for creating the left-eye data broadcast image is acquired from the data broadcast analysis unit 107. Then, a left-eye object image is generated using the left-eye layout information table and the acquired resource. Then, the left-eye data broadcast creating unit 111 secures an FB for one left-eye data broadcast image in the left-eye data broadcast FB 113 for one piece of left-eye layout information, and records the generated left-eye object image in the secured FB. .
  • a resource in this embodiment, maru_L.png
  • the left-eye data broadcast creation unit 111 Each time the generation of each left-eye object image is completed, the left-eye data broadcast creation unit 111 notifies the left and right data broadcast synchronization unit 110 of a completion notification indicating that the left-eye object image is completed.
  • the completion notification includes an in-document index related to the completed left-eye object image in order to identify which left-eye object image has been generated.
  • the left-eye data broadcast creation unit 111 sequentially refers to the left-eye layout information in the left-eye layout information table. If the type in the left-eye layout information is a character string, the left-eye data broadcast creation unit 111 adds a depth and shadow to the character string described in the value. A left-eye object image is generated by performing a predetermined process for conversion into a bitmap. When the type in the left-eye layout information is a still image, the left-eye data broadcast creation unit 111 uses the resource acquired from the data broadcast analysis unit 107 identified by the file name described in value as the left-eye object image. To do.
  • the left-eye data broadcast creation unit 111 then corresponds the generated left-eye object image to the X coordinate indicated by left and the Y coordinate indicated by top in the left-eye data broadcast image of the FB secured in the left-eye data broadcast FB 113. Record at the recording position.
  • the right eye data broadcast creation unit 112 acquires the right eye layout information table from the left and right data broadcast synchronization unit 110. Further, a resource (in this embodiment, maru_L.png) necessary for creating a right-eye data broadcast image is acquired from the data broadcast analysis unit 107. Then, a right eye object image is generated using the right eye layout information table and the acquired resource. Then, the right-eye data broadcast creation unit 112 secures an FB for one right-eye data broadcast image in the right-eye data broadcast FB 114 for one right-eye layout information, and records the generated right-eye object image in the secured FB. .
  • a resource in this embodiment, maru_L.png
  • the right-eye data broadcast creation unit 112 Each time the generation of each left-eye object image is completed, the right-eye data broadcast creation unit 112 notifies the left and right data broadcast synchronization unit 110 of a completion notification indicating that the left-eye object image is completed.
  • the completion notification includes an in-document index related to the completed right-eye object image in order to identify which right-eye object image has been generated.
  • the left-right data broadcast synchronization unit 110 acquires the left-eye and right-eye layout information table from the layout acquisition unit 108 and records whether the creation of the left-eye and right-eye object images represented by the left-eye and right-eye layout information has been completed or not yet completed. Create a left eye and right eye creation state table.
  • the left and right data broadcast synchronization unit 110 outputs the left eye layout information table acquired from the layout acquisition unit 108 to the left eye data broadcast creation unit 111 and transmits the right eye layout information table to the right eye data broadcast creation unit 112.
  • FIG. 7A shows the left eye creation state table 320.
  • Each line of the left eye creation status table consists of an in-document index and a creation status.
  • the intra-document index is matched with the intra-document index of the left eye layout information. That is, the creation state of each row of the left-eye creation state table corresponds to left-eye layout information having an in-document index having the same value as the in-document index of each row.
  • “incomplete” indicating incomplete is described.
  • the left / right data broadcast synchronization unit 110 acquires a completion notification from the left eye data broadcast creation unit 111
  • the left / right data broadcast synchronization unit 110 identifies the left eye creation status table with the in-document index included in the completion notification. “Completed” is described in the creation state.
  • FIG. 7B is a diagram showing an example of the right eye creation state table.
  • the description for the right-eye creation state table is the same as the description for the left-eye creation state table, and is therefore omitted.
  • the left-right data broadcast synchronization unit 110 also outputs the left-eye object image recorded in the left-eye data broadcast FB 113 to the left-eye display generation unit 115 at every predetermined timing (for example, timing synchronized with the refresh timing of the display 118).
  • the right eye object image recorded in the right eye data broadcast FB 114 is controlled to be output to the right eye display generation unit 116.
  • the left and right data broadcast synchronization unit 110 searches the left-eye and right-eye creation status tables for those in which the creation status corresponding to the same index in the document is “completed”.
  • the left-eye object image corresponding to the in-document index recorded in the left-eye data broadcast FB 113 is output to the left-eye display generation unit 115, and the right-eye data broadcast FB 114 is output.
  • the recorded right eye object image corresponding to the in-document index is output to the right eye display generation unit 116.
  • the left-eye object image identified by the in-document index and the right-eye object image In either case, output to the left eye display generation unit 115 and the right eye display generation unit 116 is not performed.
  • the user input reception unit 109 includes input devices such as a remote controller and input keys, and receives user input input using the input device. And the instruction
  • the display unit 117 acquires an image from the left-eye display generation unit 115, acquires an image from the left-eye display generation unit 116, and alternately displays them at a predetermined timing (for example, timing synchronized with the refresh rate of the display 118). It is displayed on the display 118.
  • the display 118 is a display device such as a liquid crystal display for displaying a data broadcast image. ⁇ 1-3. Operation> The left and right data broadcast image output processing in the data broadcast display device 100 configured as described above will be described.
  • FIG. 9 is a flowchart showing the output processing of the left and right data broadcast images.
  • the left and right data broadcast synchronization unit 110 acquires the left eye and right eye layout information table from the layout acquisition unit 108 (S101).
  • the left and right data broadcast synchronization unit 110 creates a left eye and right eye creation state table based on the left eye and right eye layout information table (S102).
  • the left and right data broadcast synchronization unit 110 outputs the generated left eye layout information table to the left eye data broadcast creation unit 111, and outputs the right eye layout information table to the right eye data broadcast creation unit 112 (S103).
  • the left and right data broadcast synchronization unit 110 waits for the completion notification of the left eye object image and the right eye object image from the left eye data broadcast creation unit 111 and the right eye data broadcast creation unit 112 (S104).
  • the left and right data broadcast synchronization unit 110 determines whether or not a predetermined display timing has arrived (S106). If the predetermined display timing has not arrived, the process proceeds to S104. If the predetermined display timing has arrived, a synchronous output process is performed (S107), and the process proceeds to S104.
  • FIG. 10 is a flowchart showing a synchronization output process by the left and right data broadcast synchronization unit 110.
  • the left and right data broadcast synchronization unit 110 first assigns 1 to the variable N (S201).
  • a variable N is a variable indicating an index within a document to be processed.
  • the left and right data broadcast synchronization unit 110 determines whether or not there is a left eye and right eye creation state in which the in-document index matches N in the left eye and right eye creation state table (S202). If it exists (Y in S202), the creation status is read from the left-eye and right-eye creation status tables whose index in the document matches N (S203).
  • the left and right data broadcast synchronization unit 110 determines whether any of the read creation states is “incomplete” (S204). If any of them is “incomplete” (Y in S204), control is performed so that neither the left-eye object image nor the right-eye object image corresponding to the in-document index is output to the left-eye display generation unit 115 and the right-eye display generation unit 116. (S206). On the other hand, if neither of the created states is “incomplete”, that is, “completed” (N in S204), the left-eye object image is converted to the left-eye object image for both the left-eye object image and the right-eye object image corresponding to the in-document index.
  • FIGS. 6A to 6C are diagrams schematically showing a left-eye object image recorded in the FB secured in the left-eye data broadcast FB 113 in association with each left-eye layout information.
  • Each of the FB 113a to FB 113c corresponds to each of the in-document indexes 001 to 003.
  • FIG. 6A is a diagram schematically showing that the left-eye object image 11 is recorded in the FB 113a secured in association with the left-eye layout information whose document index is 001.
  • FIGS. 6B and 6C schematically show that the left-eye object images 12 and 13 are recorded in the FB 113b and the FB 113c secured in association with the left-eye layout information with the in-document index 002 and 003.
  • FIG. 6A is a diagram schematically showing that the left-eye object image 11 is recorded in the FB 113a secured in association with the left-eye layout information whose document index is 001.
  • FIGS. 6B and 6C schematically show that the left-eye object images 12 and 13 are recorded in the FB 113b and the FB 113c secured in association with the left-eye layout information with the in-document index 002 and 003.
  • the left-eye display generation unit 115 When the images shown in FIGS. 6A to 6C are output to the left-eye display generation unit 115, the left-eye display generation unit 115 superimposes these images and displays the left-eye data as shown in FIG. 6D. Broadcast images are generated.
  • FIGS. 6E to 6G are diagrams schematically showing a right-eye object image recorded in the FB secured in the right-eye data broadcast FB 114 in association with each right-eye layout information.
  • FIG. 6E is a diagram schematically showing that the right-eye object image 21 is recorded in the FB 114a secured in association with the right-eye layout information whose document index is 001.
  • FIGS. 6F and 6G schematically show that the right-eye object images 22 and 23 are recorded in the FBs 114b and FB 114c secured in association with the right-eye layout information with the in-document indexes 002 and 003.
  • FIGS. 6 (e) to 6 (g) When the images shown in FIGS. 6 (e) to 6 (g) are output to the right eye display generation unit 116, the right eye display generation unit 116 superimposes these images to display the right eye data as shown in FIG. 6 (h). Broadcast images are generated.
  • FIG. 7 An example of a data broadcast image that is generated when the left-eye and right-eye creation state tables are created as shown in FIGS. 7A and 7B will be described.
  • FIG. 8A to 8C are diagrams schematically showing left-eye object images recorded in the FBs 113a to 113c when the left-eye creation state table is FIG. 7A.
  • Each of the FB 113a to FB 113c corresponds to each of the in-document indexes 001 to 003.
  • the creation state corresponding to the intra-document index 001 in FIG. 7A is “complete”.
  • the left eye object image 11 is recorded in the FB 113a as in the case of FIG. 6A.
  • the creation state corresponding to the intra-document index 002 in FIG. 7A is “incomplete”.
  • the left eye object image 12 is not recorded in the FB 113b as shown in FIG. 8B.
  • the creation state corresponding to the intra-document index 003 in FIG. 7A is “completed”.
  • the left eye object image 13 is recorded in the FB 113c as in the case of FIG. 6C.
  • 8E to 8G are diagrams schematically showing right-eye object images recorded in the FBs 114a to 114c when the left-eye creation state table is FIG. 7B.
  • Each of FB 114a to FB 114c corresponds to each of the in-document indexes 001 to 003.
  • the creation state corresponding to the in-document index 001 is “complete”.
  • the right eye object image 21 is recorded in the FB 114a as in the case of FIG. 6E.
  • the creation state corresponding to the in-document index 002 in FIG. 7B is “incomplete”.
  • the right eye object image 22 is not recorded in the FB 114b, unlike the case of FIG. 6 (f).
  • the creation state corresponding to the intra-document index 003 in FIG. 7C is “incomplete”.
  • the right eye object image 23 is not recorded in the FB 114c, unlike the case of FIG. 6G.
  • the left and right data broadcast synchronization unit 110 indicates that both creation states in the document index 001 are “complete”. Therefore, control is performed so that the left-eye object image 11 recorded in the corresponding FB 113a is output to the left-eye display generation unit 115, and the right-eye object image 21 recorded in the FB 114a is output to the right-eye display generation unit 116.
  • the images recorded in the FB 113b, FB 113c, FB 114b, and FB 114c are not output. Therefore, the left-eye data broadcast image generated in the left-eye display generation unit 115 is as shown in FIG.
  • one left-eye or right-eye object image is generated from each of the character string described in the CDATA section in the BML document and the image file indicated in the img element tag. Then, for each left-eye and right-eye object image, it is determined whether or not to arrange the left-eye and right-eye data broadcast images.
  • the present embodiment differs in that the left eye object image and the right eye object image are not used as a unit, but are managed for each image generation unit which is a unit for collectively generating images in the data broadcast display device.
  • the image generation unit is determined by resources of the apparatus, a library for generating left-eye and right-eye object images, an algorithm, and the like.
  • the line breaks are handled as one image generation unit.
  • a character string including a line break is described in the CDATA section of the BML document, such as “JAPAN ⁇ br> AVC”
  • the character string “JAPAN” and the character string “AVC” divided before and after the line break are An image generation unit.
  • Each of a series of alphanumeric character strings and a series of kana-kanji character strings is handled as one image generation unit.
  • hiragana, katakana, and kanji are included in the kana-kanji character string for convenience.
  • the alphanumeric character string includes alphanumeric characters other than hiragana, katakana, and kanji, symbols, and external characters.
  • Each of the kana / kanji character strings “data broadcasting” is an image generation unit.
  • a plurality of left-eye object images or right-eye object images having overlapping arrangement positions are combined to form one image generation unit. For example, in a BML document, if it is specified (grouped) that the left-eye object image representing a shaded circular figure and the left-eye object image displaying the letter “A” are arranged at the overlapping position, these are combined.
  • the image generation unit is treated as an image generation unit, that is, an “image displaying the character“ A ”superimposed on a shaded circular figure”.
  • an image generation unit obtained by dividing one left-eye object image and an image generation unit obtained by grouping a plurality of left-eye object images are referred to as “unit left-eye object images”.
  • the left-eye object image before being divided is also referred to as a combined left-eye object image
  • the left-eye object image before being grouped is also referred to as a partial left-eye object image.
  • one right-eye object image is divided into image generation units, and a plurality of right-eye object images are grouped into image generation units are referred to as “unit right-eye object images”.
  • the right eye object image before being divided is also referred to as a combined right eye object image, and the right eye object image before being grouped is also referred to as a partial right eye object image.
  • FIG. 11 is a diagram illustrating an example of a data broadcast image to be displayed by the data broadcast display apparatus according to the present embodiment.
  • FIG. 11A is a diagram schematically showing the left-eye data broadcast image 10 according to the present embodiment.
  • the left-eye data broadcast image 10 includes a left-eye object image that displays a two-column character string “JAPAN” and “AVC”, a left-eye object image 12 that displays a character string “3D data broadcast”, and a left-eye object that displays a character “A”. It includes an image 15 and a left-eye object image 13 displaying a circle with a shadow.
  • FIG. 11B is a diagram schematically showing the right-eye data broadcast image 20 according to the present embodiment.
  • the right-eye data broadcast image 20 includes a right-eye object image that displays a two-column character string “JAPAN” and “AVC”, a left-eye object image 22 that displays a character string “3D data broadcast”, and a left-eye object that displays a character “A”. It includes an image 25 and a left-eye object image 23 displaying a circle with a shadow.
  • the data broadcast display device displays the left-eye data broadcast image and the right-eye data broadcast image shown in FIG. 11 so that the unit left-eye object image and the unit right-eye object image can be matched as a unit. Avoid displaying images that are not stereoscopically viewed by the user, and avoid causing the user's eyes to feel tired.
  • the data broadcast display apparatus according to the present embodiment will be described in detail. However, description of portions that are the same as those in the first embodiment will be omitted.
  • FIG. 12A shows an example of startup.
  • the part related to this embodiment is extracted from bml. Although it is not essentially different from the first embodiment, it differs in the following points.
  • the element tag 201 in the first embodiment is changed to an element tag 501.
  • the content of the CDATA section is “JAPAN ⁇ br> AVC” including a line feed.
  • An element tag 504 is added.
  • the top and left of the element tag 504 have the same value as the top and left of the element tag 203. That is, the left eye object image related to the element tag 203 and the left eye object image related to the element tag 504 overlap.
  • ⁇ Left eye and right eye layout information> As described above, since the contents of the BML document to be acquired are changed, the contents of the left eye layout information and the right eye layout information generated by the layout acquisition unit 108 are different from those in the first embodiment.
  • FIG. 13A is a diagram showing left eye layout information 600 according to the present embodiment.
  • FIG. 13B is a diagram showing the right eye layout information 610 according to the present embodiment.
  • the value in the left eye layout information 601 of the in-document index 001 is “JAPAN ⁇ br> AVC”, and the left eye with the in-document index is 004.
  • the difference from the left eye layout information 300 according to the first embodiment is that layout information is added.
  • the right eye layout information in FIG. 13B also has the same difference as the left eye layout information.
  • the left-eye data broadcast creation unit 111 is different from the first embodiment in that (1) a unit left-eye layout information table is acquired from the left-right data broadcast synchronization unit 110 instead of the left-eye layout information, and (2) a unit left-eye When the unit left-eye object image is generated instead of the left-eye object image based on the layout information table, and the generation of the unit left-eye object image is completed, a completion notification including a synchronization unit index is notified to the left and right data broadcast synchronization unit 110. (3) One FB for one left-eye data broadcast image is secured in the left-eye data broadcast FB 113 for one unit left-eye layout information.
  • the unit left eye layout information and the synchronization unit index will be described later. Further, since the right-eye data broadcast creation unit 112 is different from the first embodiment in the same manner as the left-eye data broadcast creation unit 111, description thereof is omitted.
  • the left and right data broadcast synchronization unit 110 has many differences from the first embodiment, (a) generation of unit left eye and unit right eye layout information, (b) creation of left eye and right eye creation state table, ( c) The description is divided into output control of unit left-eye and unit right-eye object images.
  • the left and right data broadcast synchronization unit 110 acquires the left eye and right eye layout information from the layout acquisition unit 108, and generates unit left eye layout information and unit right eye layout information based on the left eye and right eye layout information.
  • the unit left-eye layout information is obtained by converting left-eye layout information indicating the layout of the left-eye object image unit into information indicating the layout of the unit left-eye object image unit.
  • the unit right-eye layout information is obtained by converting right-eye layout information indicating the layout of the right-eye object image unit into information indicating the layout of the unit right-eye object image unit.
  • FIG. 14A is a diagram showing an example of a unit left-eye layout information table that is a list of unit left-eye layout information.
  • the unit left-eye layout information includes a synchronization unit index, an element name, an in-document index, top, left, type, and value.
  • the synchronization unit index is a serial number assigned to each unit left eye layout information in the unit left eye layout information table.
  • Each of the element name, the index in the document, top, left, type, and value describes the element name, the index in the document, top, left, type, and value in the left-eye layout information as they are, and the contents are the same. It is.
  • the left and right data broadcast synchronization unit 110 converts the left eye layout information table into a unit left eye layout information table by performing the following processes (1) to (4).
  • (1) It is determined whether or not each left eye layout information satisfies condition 1 “type is“ character string ”and value includes br element ( ⁇ br>)”.
  • condition 1 two unit left-eye layout information (referred to as unit left-eye layout information A and unit left-eye layout information B for convenience) is generated based on the left-eye layout information.
  • the element names of the unit left-eye layout information A and B, the in-document index, and the values of left and type are the same as the values of the left-eye layout information.
  • the value of the left eye layout information is divided into a character string (front character string) before ⁇ br> and a character string after (character string after), and unit left eye layout information
  • the previous character string is described in the value of A
  • the subsequent character string is described in the value of the unit left eye layout information B.
  • the top value of the left-eye layout information is described in the top of the unit left-eye layout information A.
  • the top of the unit left eye layout information B is obtained by adding a predetermined value (for example, 300 px) to the top value of the left eye layout information.
  • This predetermined value is a value set to display a new line between the previous character string and the subsequent character string.
  • the element name, unit index, top, and type values of the unit left-eye layout information C and D are the same as the values of the left-eye layout information.
  • the left-eye layout information value is divided into an alphanumeric part and a kana / kanji part, and an alphanumeric part is described in the unit left-eye layout information C value. Then, a portion such as kana / kanji is written in the value of the unit left eye layout information D.
  • the left value of the left-eye layout information is described in the left of the unit left-eye layout information C.
  • the left of the unit left eye layout information D describes the left value of the left eye layout information plus the display length of the unit object image representing the character string of the unit left eye layout information C.
  • the display length is such that a unit object image that expresses kana kanji and the like related to the unit left eye layout information C and a unit object image that expresses alphanumeric characters and the like related to the unit left eye layout information D are continuously displayed. Is for.
  • the determination as to whether the character string to be determined is a character string such as alphanumeric characters or a character string such as kana / kanji is made by referring to a character code table as an example. . If the character to be identified is in the area where alphanumeric codes are defined in the character code table, it will be judged as alphanumeric, etc., and will be in the area where codes such as kana kanji in the character code table are defined. If so, it is determined to be kana / kanji. (3) For each left eye layout information, it is determined whether or not the condition 3 “there are a plurality of left eye layout information whose arrangement positions overlap” is satisfied.
  • a plurality of pieces of left eye layout information whose arrangement positions match are grouped and converted into one unit left eye layout information. Specifically, for the element name, unit index, top, left, type, and value of the unit left-eye layout information, the two left-eye layout information are written together. As for the synchronization unit index, one synchronization unit index is assigned to the unit left-eye layout information. Whether or not the arrangement positions overlap is determined from the left, top, character string length, display size of the character string, and the like.
  • the processes (1) to (3) are processes for converting the left-eye and right-eye object images into image generation units.
  • the left-eye layout information not corresponding to the conditions 1 to 3 is not divided and grouped, and unit left-eye layout information corresponding to the left-eye layout information is generated one-to-one. Specifically, the element name of the unit left-eye layout information, the index in the document, top, left, type, and value are described for the left-eye layout information.
  • the unit left-eye layout information of the synchronization unit index 001 has an element name of p, an in-document index of 001, a top of 100, a left of 502, a type of a character string, and a value of JAPAN.
  • the unit left-eye layout information of the synchronization unit index 002 has an element name of p, an in-document index of 001, a top of 300, a left of 502, a type of a character string, and a value of AVC.
  • the unit left-eye layout information whose synchronization unit indexes are 001 and 002 is generated by dividing one left-eye layout information having the same in-document index 001 and the in-document index 001.
  • the unit left eye layout information of the synchronization unit indexes 003 and 004 is generated by dividing one left eye layout information having the same in-document index 002 and the in-document index 002.
  • the unit left-eye layout information of the synchronization unit index 005 is two left-eye layout information, the left-eye layout information having an element name p and an in-document index 004, and the left-eye layout having an element name img and an in-document index 003.
  • Information is generated by grouping information.
  • FIG. 14B is a diagram showing an example of the unit right-eye layout information table. Since the unit right-eye layout information table is the same as the unit left-eye layout information table in terms of generation method and contents, description thereof will be omitted.
  • the left and right data broadcast synchronization unit 110 When the left and right data broadcast synchronization unit 110 generates the generated unit left eye and unit right eye layout information table, the creation of the unit left eye and unit right eye object images represented by the unit left eye and unit right eye layout information is completed or incomplete.
  • the left and right data broadcast synchronization unit 110 outputs the unit left-eye layout information table to the left-eye data broadcast creation unit 111, and the unit right-eye layout information table to the right-eye data broadcast creation unit 112. Output.
  • FIG. 16A shows a left eye creation state table 720.
  • FIG. 16A shows a left eye creation state table 720.
  • the creation state of each row in the left-eye creation state table corresponds to unit left-eye layout information having a synchronization unit index having the same value as the synchronization unit index of each row. “Incomplete” is entered as the initial value of the creation state of the left eye creation state table.
  • the left / right data broadcast synchronization unit 110 acquires the completion notification from the left-eye data broadcast creation unit 111, the left / right data broadcast synchronization unit 110 describes “completed” as the creation state identified by the synchronization unit index included in the completion notification in the left-eye creation state table. .
  • FIG. 7B is a diagram showing an example of the right eye creation state table.
  • the description for the right-eye creation state table is the same as the description for the left-eye creation state table, and is therefore omitted.
  • the left and right data broadcast synchronization unit 110 outputs the unit left eye object image recorded in the left eye data broadcast FB 113 to the left eye display generation unit 115 at every predetermined timing (for example, timing synchronized with the refresh timing of the display 118).
  • the unit right-eye object image recorded in the right-eye data broadcast FB 114 is controlled to be output to the right-eye display generation unit 116.
  • the left and right data broadcast synchronization unit 110 searches the left eye and right eye creation state tables for which the creation state corresponding to the synchronization unit index of the same value is “completed”.
  • the unit left-eye object image corresponding to the synchronization unit index recorded in the left-eye data broadcast FB 113 is output to the left-eye display generation unit 115, and the right-eye data broadcast FB 114 is output.
  • the right-eye display generation unit 116 outputs the unit right-eye object image corresponding to the in-document index recorded in (1).
  • the unit left-eye object image identified by the synchronization unit index and the unit right-eye object None of the images is output to the left-eye display generation unit 115 and the right-eye display generation unit 116.
  • FIGS. 17A to 17E are diagrams schematically showing unit left-eye object images recorded in the FBs 113a to 113e when the left-eye creation state table is FIG. 16A.
  • Each of FB 113a to FB 113e corresponds to each of synchronization unit indexes 001 to 005.
  • the creation state corresponding to the synchronization unit index 001 in FIG. At this time, the unit left-eye object image 11 is recorded in the FB 113a at positions represented by top and left as shown in FIG.
  • the creation state corresponding to the synchronization unit index 002 in FIG. 16A is “complete”.
  • the unit left-eye object image 12 is recorded at a position represented by top and left.
  • the unit left-eye object image 17 is recorded at positions represented by top and left.
  • the creation state corresponding to the synchronization unit index 004 in FIG. 16A is “incomplete”. At this time, the unit left-eye object image is not recorded in the FB 113d as shown in FIG.
  • the creation state corresponding to the synchronization unit index 005 in FIG. 16A is “completed”.
  • the unit left-eye object image 16 is recorded in the FB 113e.
  • FIGS. 17F to 17J are diagrams schematically showing unit right-eye object images recorded in the FBs 114a to 114e when the left-eye creation state table is FIG. 16B.
  • Each of the FBs 114a to FB 114e corresponds to each of the in-document indexes 001 to 005.
  • the creation state corresponding to the synchronization unit index 001 in FIG. 16B is “completed”.
  • the unit right eye object image 21 is recorded at the positions represented by top and left.
  • the creation state corresponding to the synchronization unit index 002 in FIG. 16B is “incomplete”. At this time, the unit right-eye object image is not recorded in the FB 114b as shown in FIG.
  • the creation state corresponding to the synchronization unit index 003 in FIG. 16B is “completed”.
  • the unit right eye object image 27 is recorded at the positions represented by top and left.
  • the creation state corresponding to the synchronization unit index 004 in FIG. 16B is “completed”.
  • the unit right-eye object image 28 is recorded in the FB 113d as shown in FIG.
  • the creation state corresponding to the synchronization unit index 005 in FIG. 16B is “incomplete”. At this time, the unit right-eye object image is not recorded in the FB 113e as shown in FIG.
  • the left and right data broadcast synchronization unit 110 indicates that both creation states with the synchronization unit index 001 are “complete”. Therefore, the unit left-eye object image 11 recorded in the corresponding FB 113a is output to the left-eye display generation unit 115, and the unit right-eye object image 21 recorded in the FB 114a is output to the right-eye display generation unit 116. .
  • the left and right data broadcast synchronization unit 110 outputs the unit left-eye object image 17 recorded in the corresponding FB 113c to the left-eye display generation unit 115,
  • the unit right-eye object image 27 recorded in the FB 114c is controlled to be output to the right-eye display generation unit 116.
  • the synchronization unit index is 002, 004, 005 since at least one of the two created states is “incomplete”, the unit left-eye object images 12 and 14, 16 and the unit right-eye object images 22, 24 corresponding to them. And 26 are controlled not to be output.
  • the left-eye data broadcast image created by the left-eye display generation unit 115 is as shown in FIG. 18C, and the right-eye data broadcast image created by the right-eye display generation unit 116 is shown in FIG. It will be a thing. That is, no mismatch occurs between the left-eye data broadcast image and the right-eye data broadcast image.
  • the left-eye display generation unit 115 superimposes these images and is shown in FIG. Such a left-eye data broadcast image is generated. Also, when the images shown in FIGS. 17F to 17J are output to the right eye display generation unit 116, the right eye display generation unit 116 superimposes these images as shown in FIG. 18B. A right-eye data broadcast image is generated. In this case, a mismatch occurs between the left-eye data broadcast image and the right-eye data broadcast image. ⁇ 2-2. Operation> Hereinafter, output processing of the left and right data broadcast images by the data broadcast display device 100 according to the present embodiment will be described.
  • FIG. 19 is a flowchart showing output processing of left and right data broadcast images.
  • the left and right data broadcast synchronization unit 110 acquires the left eye and right eye layout information table from the layout acquisition unit 108 (S501). Then, the left and right data broadcast synchronization unit 110 creates a left eye and right eye creation state table based on the left eye and right eye layout information table (S502). Next, the left and right data broadcast synchronization unit 110 converts the left eye layout information into unit left eye layout information, and converts the right eye layout information into unit right eye layout information (S503). Then, the left / right data broadcast synchronization unit 110 outputs the unit left-eye layout information table to the left-eye data broadcast creation unit 111, and outputs the unit right-eye layout information table to the right-eye data broadcast creation unit 112 (S504).
  • the left and right data broadcast synchronization unit 110 waits for a completion notification for the unit left eye object image and the unit right eye object image from the left eye data broadcast creation unit 111 or the right eye data broadcast creation unit 112 (S505).
  • a completion notification is received from the left-eye data broadcast creation unit 111 (Y in S505)
  • “completed” is written in the creation state of the left-eye creation state table identified by the synchronization unit index included in the completion notification.
  • a completion notification is received from the right-eye data broadcast creation unit 112
  • “completed” is described in the creation state of the right-eye creation state table identified by the synchronization unit index included in the completion notification (S506). Then, the process proceeds to S507.
  • the left and right data broadcast synchronization unit 110 determines whether or not a predetermined display timing has arrived (S507). If the predetermined display timing has not arrived, the process proceeds to S505, and if it has arrived, a synchronous output process is performed (S508), and the process proceeds to S505.
  • the left and right data broadcast synchronization unit 110 first substitutes 1 for a variable N (S601).
  • a variable N is a variable indicating a synchronization unit index to be processed.
  • the left and right data broadcast synchronization unit 110 determines whether there is a left eye and right eye creation state in which the synchronization unit index matches N in the left eye and right eye creation state table (S602). If it exists (Y in S602), the creation state is read from the left eye and right eye creation state tables whose synchronization unit index matches N (S603).
  • the left and right data broadcast synchronization unit 110 determines whether any of the read creation states is “incomplete” (S604). If any of them is “incomplete” (Y in S604), neither the unit left-eye object image nor the unit right-eye object image corresponding to the synchronization unit index is output to the left-eye display generation unit 115 and the right-eye display generation unit 116. Control is performed (S606).
  • both the unit left-eye object image and the unit right-eye object image corresponding to this synchronization unit index are Control is performed so that the unit left-eye object image is output to the left-eye display generation unit 115 and the unit right-eye object image is output to the right-eye display generation unit 116 (S605).
  • the left and right data broadcast synchronization unit 110 adds 1 to N (S607), and proceeds to S602.
  • the above-described processing is repeated until there are no left-eye and right-eye creation states in which the synchronization unit index matches N in the left-eye and right-eye creation state tables.
  • BML document is started_L. bml and startup_R. By dividing into bml, startup. in the second embodiment. There is no need to perform extensions such as adding an offset attribute to an element tag such as bml, and adding a left_src attribute and a right_src attribute for an img element.
  • the resources required to generate the left-eye data broadcast image and the right-eye data broadcast image are startup_L. bml, startup_R. bml, maru_L. png and maru_R. png.
  • FIG. 23 (a) shows startup_L.
  • the part related to this embodiment is extracted from bml.
  • FIG. 23 (b) shows startup_R.
  • the part related to this embodiment is extracted from bml.
  • startup_L. bml 1200 the p element 1201 that appears first in the ⁇ body> element
  • startup_R the p element 1211 that appears first in the ⁇ body> element in the bml 1210 is an element expressing the same object.
  • startup_L since it is necessary to express the layout of the left eye object image and the right eye object image with one p element, the Left attribute information is added to the left attribute value to generate the left eye layout information left, and the left attribute value The offset attribute value is subtracted from the left eye layout information left.
  • startup_L The left attribute value of the p element of bml is described in the left of the left-eye layout information, and startup_R.
  • the left attribute value of the p element of bml may be described in the left of the right-eye layout information, and processing for adding / subtracting the Offset attribute value to the left attribute value is not necessary. startup_L.
  • the left attribute value of the p element of bml a value obtained by adding the Offset attribute value to the left attribute value in the first and second embodiments is described, and startup_R.
  • the left attribute value of the p element of bml a value obtained by subtracting the Offset attribute value from the left attribute value in the first and second embodiments is described.
  • the left attribute of the p element 201 is set with a left attribute value 502, which is obtained by adding the Offset attribute value 2 to the left attribute value 500 in the first embodiment.
  • 498 is set as the left attribute value by subtracting the Offset attribute value 2 from the left attribute value 500 in the first embodiment.
  • FIG. 21 is a block diagram showing a configuration of a data broadcast display apparatus 1000 according to the third embodiment. 21 and FIG. 2 are different from each other in that (1) the data broadcast analysis unit 107 starts start_L. bml and startup_R. bml is extracted and output to the left and right data broadcast synchronization unit 1103. (2) The layout acquisition unit 108 is deleted, and the left and right data broadcast synchronization unit 1103 replaces the layout acquisition unit 108 with data. From the broadcast analysis unit 107, startup_L. bml, startup_R. bml is acquired and left eye layout information and right eye layout information are generated.
  • the processing after the left / right data broadcast synchronization unit 1103 acquires the left-eye layout information and the right-eye layout information is not particularly different from that in the first and second embodiments.
  • the exemplified data broadcast display device can be modified as follows, and the data as the present invention has shown in the above-described embodiment. Of course, it is not limited to the broadcast display device.
  • the BML document is distributed after being multiplexed on the transport stream, but it is sufficient that the BML document can be acquired. For example, it is good also as acquiring by communication via a network etc.
  • the offset attribute may be described separately from the style attribute as in the BML document in FIG. 4B, without being described in the style attribute as in FIG. (3)
  • the predetermined writing timings of the left eye video output unit 103, the left eye video output unit 104, the left eye video FB105 of the right eye video, and the right eye video FB106 are synchronized with the refresh rate of the liquid crystal although each time is a predetermined time before each refresh time, any timing that can be appropriately displayed on the display 118 is sufficient.
  • each object is uniquely specified by the id attribute value.
  • the object can be uniquely specified, and it may be specified by another method.
  • the id attribute assigned to each element of the BML document may be used to uniquely identify the element by “element name” and “index in document” in the right eye and left eye layout information. In the case of specifying in this way, each object can be specified even if the id attribute is not attached to each element of the BML document.
  • the types in the left-eye layout information table and the right-eye layout information table are two types, that is, a character string and a still image. Includes those that can be expressed as objects.
  • an image generation unit may be an image obtained by dividing a still image into two parts and N (N is a natural number of 3 or more).
  • the character string in the CDATA section is divided before and after the line feed, and each divided character string is used as an image generation unit.
  • the control information for dividing the character string is not limited to the line feed. Anything that splits a string is sufficient.
  • a character string may be divided by a space (blank), a tab, or the like, and each divided character string may be used as an image generation unit.
  • the character string is divided into two with “alphanumeric characters” and “kana / kanji” as different character types.
  • the present invention is not limited to this dividing method, and the character string is divided into a certain unit. If it is enough. For example, each character string having a different size, each character string having a different color, or each character string having a different font may be divided, and each divided character string may be used as an image generation unit.
  • the character strings are classified into two types of “alphanumeric characters” and “kana / kanji” as different character types.
  • the character strings may be divided according to the character set classification shown in B-24 of ARIB. Good. Specifically, “kanji”, “alphanumeric”, “hirakana”, “katakana”, “mosaic A”, “mosaic B”, “mosaic C”, “mosaic D”, “proportional alphanumeric”, “proportional hiragana ”,“ Proportional Katakana ”,“ JIS X0201 Katakana ”,“ JIS Compatible Kanji 1 ”,“ JIS Compatible Kanji 2 ”,“ Additional Symbol ”, and“ DRCS ”may be divided as different character types.
  • the character string in the CDATA section is divided into two character strings.
  • the character string may be divided into three or more character strings.
  • two left eye (right eye) object images are grouped to generate a unit left eye (right eye) object image.
  • the number of object images is not limited to two, and three or more object images may be used. It is good also as grouping.
  • the two left-eye object images constituting the unit left-eye object image are the object image related to the character string and the object image related to the figure, but the unit left-eye object image is configured from a plurality of object images. It is sufficient if it is possible, and a combination of other types of object images may be used.
  • the character string object is superimposed on the graphic object, but any technique that can constitute one unit left-eye object from a plurality of left-eye objects is sufficient.
  • the left-eye object when each of the plurality of left-eye objects constituting the unit left-eye object is a still image object, the left-eye object may be overlapped from the largest image size to the bottom.
  • each of the plurality of left eye objects constituting the unit left eye object when each of the plurality of left eye objects constituting the unit left eye object is a still image object, it may be overlaid so that the smaller index value in the document is below and the larger one is above.
  • a BML document is generated on the transmission side of the BML document, a plurality of left-eye objects are considered in consideration of overlapping such that the index value in the document is lower and the larger index value is higher. It is necessary to stipulate. Also, it is necessary to specify the same for the right-eye object.
  • the display area of the still image having a large image size displayed below includes the display area of the character string displayed above, but overlaps the display areas of the plurality of left-eye objects as much as possible.
  • a unit left-eye object may be used.
  • the FB area for one data broadcast image is secured for each object image or each unit object image. It suffices to secure an area where an image or each unit object image can be recorded.
  • an area having the same size as the size of each object image or each unit object image may be secured in the left eye data broadcast FB 113 and the right eye data broadcast FB 114.
  • startup_L. bml1200 and startup_R. In bml 1210, since the elements for expressing the same object are associated with each other, the order of appearance of the corresponding elements is aligned. However, it is only necessary that the elements for expressing the same object can be associated with each other. For example, id attribute is given to each element, and startup_L. bml1200 and startup_R. The same id attribute value may be assigned to bml1210.
  • the p element 1201 and the p element 1211 represent the same object.
  • the left-eye data broadcast creating unit 111 performs a predetermined process such as shading the character string described in the value bit.
  • this predetermined process is sufficient if it can generate the left-eye object image from the received BML document, resources, and the like.
  • a left-eye object image is generated by associating a bitmap image with each character string in advance and converting the character string described in value into a bitmap image associated in advance. Also good. The same applies to the right-eye object image.
  • the association between the BML document for the left eye and the BML document for the right eye is, for example, startup_L. bml and startup_R. Like “bml”, “_L” is appended to the BML document for the left eye and “_R” is appended to the BML document for the right eye at the end of the file name.
  • the ARIB standard may be extended so that both a left-eye BML document and a right-eye BML document can be designated when transitioning from one BML document to another BML document. .
  • a BML document 1400 for the left eye in FIG. 24A is a diagram showing a BML document based on the ARIB standard extended so that two URLs of a transition destination BML document can be described.
  • a function “browser.launch3dDocument” is newly defined as a function 1401, and a BML document for the left eye can be described in the first argument, and a BML document for the right eye can be described in the second argument.
  • the ARIB standard may be expanded so that the URL or the like of the corresponding BML document can be described in either or both of the left-eye BML document and the right-eye BML document.
  • the BML document 1410 for the left eye in FIG. 20B is a diagram showing an example of a BML document based on the ARIB standard extended so that the URL of the corresponding BML document can be described.
  • the extended 3d element (1411) whether the BML document is for the left eye or the right eye is described in the view attribute, and the URL of the corresponding BML document is described in the link_bml attribute.
  • the 3d element 1411 indicates that the BML document is for the left eye because the value of the view attribute is “left”, and “/40/0000/aaa02.bml” described in link_bml is used. Indicates the URL of the corresponding BML document for the right eye.
  • the URL of the corresponding BML document can be grasped. Therefore, an argument for a function for transitioning to another BML document such as “browser.launchDocument” can be used. There is no need to add. That is, in the function 1412, only the URL of one BML document (for example, for the left eye) of the transition destination BML documents may be described. Also, the URL specified by the function 1412 “/40/0000/bbb01.bml” is accessed and bbb01. After obtaining bml, bbb01. The other corresponding BML document can be obtained by referring to the 3d element described in bml.
  • the function 1412 may be extended so that two URLs of the transition destination BML document can be described, similar to the function 1401.
  • a control program composed of a language program code can be recorded on a recording medium, or can be distributed and distributed via various communication paths.
  • a recording medium includes an IC card, a hard disk, an optical disk, a flexible disk, a ROM, a flash memory, and the like.
  • the distributed and distributed control program is used by being stored in a memory or the like that can be read by the processor, and the processor executes the control program to realize each function as shown in each embodiment. Will come to be.
  • the processor may be compiled and executed or executed by an interpreter.
  • Each functional component shown in the above embodiment (demultiplexer 101, video decoder 102, left-eye video output unit 103, right-eye video output unit 104, data broadcast analysis unit 107, layout acquisition unit 108, user input reception unit 109, the left-right data broadcast synchronization unit 110, the left-eye data broadcast creation unit 111, the right-eye data broadcast creation unit 112, the left-eye display generation unit 115, the right-eye display generation unit 116, the display unit 117, and the like) are realized as circuits that execute their functions. Alternatively, the program may be executed by one or a plurality of processors. Each functional component described above is typically realized as an LSI that is an integrated circuit.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • a data broadcast display device is a data broadcast display device for displaying a data broadcast image including a plurality of 3D objects represented by a set of left-eye viewpoint and right-eye viewpoint objects.
  • Receiving means for receiving object data for generating each object of the left eye viewpoint and right eye viewpoint, and generation of objects of the left eye viewpoint and right eye viewpoint for each of the plurality of 3D objects using the received object data
  • Display data generation means that notifies each time generation is completed, and determines whether or not the notification is received for both the left-eye viewpoint and the right-eye viewpoint for each of the plurality of 3D objects at a predetermined timing. If it is determined that a notification has been received, it is displayed. Including said two objects over data broadcast image, if it is determined not to receive the notification, and display control means for controlling so as not to include any said both objects in the data broadcasting image to be displayed.
  • the object data is transmitted for each combined object formed by combining a plurality of unit objects, which are object generation units in the display data generating means, and the display data generating means.
  • unit objects which are object generation units in the display data generating means, and the display data generating means.
  • the unit is divided for each unit object obtained by dividing the combined object, and the notification is performed every time generation of each unit object is completed, and the display control unit includes the left eye viewpoint and the right eye viewpoint. It may be determined for each unit object whether or not notifications have been received for both objects.
  • the combined object is a character string object including a control character
  • the display data generating means includes a first character string object before the control character and a second character string object after the control character. It is good also as starting each as a unit object.
  • the combined object is a character string object including a first character string object and a second character string object having different character types
  • the display data generation means includes the first character string object and the second character string object.
  • Each of the character string objects may be generated as a unit object.
  • the determination whether or not to include an object in the data broadcast image is a smaller unit determined on the data broadcast display device side, not on each connected object determined on the transmission side as a unit for generating object data. This can be done for each unit object.
  • the object data is transmitted for each partial object smaller than a unit object which is an object generation unit in the display data generation means,
  • the display data generation means performs the notification for each unit object composed of a plurality of partial objects when generating the left-eye viewpoint and right-eye viewpoint objects, and performs the notification every time the generation of each unit object is completed.
  • the control means may determine whether or not notification has been received for both the left-eye viewpoint and right-eye viewpoint objects for each unit object.
  • each of the partial objects is designated with an arrangement position in the data broadcast image, and the display data generation means may start generating a plurality of partial objects with arrangement positions overlapping as one unit object. Good.
  • the said receiving means is good also as receiving the said object data from a broadcast wave.
  • a data broadcast display method includes a reception unit, a display data generation unit, and a display control unit, and includes a plurality of 3D objects represented by a set of left eye viewpoint and right eye viewpoint objects.
  • a data broadcast display method used in a data broadcast display device for displaying a data broadcast image wherein the receiving means receives object data for generating objects of a left eye viewpoint and a right eye viewpoint, and A display data generation step in which the display data generation means starts generating a left-eye viewpoint object and a right-eye viewpoint object for each of the plurality of 3D objects using the received object data, and notifies when the generation is completed; ,
  • the display control means the predetermined plurality of timing For each of the D objects, it is determined whether or not the notification is received for both the left-eye viewpoint and right-eye viewpoint objects. If it is determined that the notification is received, both objects are included in the data broadcast image to be displayed. And a display control step for performing control so that neither of the two objects is included in the data broadcast image to be displayed when it is determined that the notification has not been received.
  • a data broadcast display program causes a computer to function as a data broadcast display device for displaying a data broadcast image including a plurality of 3D objects represented by a set of left-eye viewpoint and right-eye viewpoint objects.
  • a data broadcast display program for receiving the object data for generating the left eye viewpoint object and the right eye viewpoint object respectively, and the plurality of 3D objects using the received object data Generation of left-eye viewpoint and right-eye viewpoint objects for each of the plurality of 3D objects for each predetermined timing and display data generation means that notifies when the generation is completed, For both objects If it is determined that the notification has been received, and if it is determined that the notification has been received, both the objects are included in the data broadcast image to be displayed, and if it is determined that the notification has not been received Then, it is made to function as a display control means for controlling so that neither of the two objects is included in the data broadcast image to be displayed.
  • the data broadcast display device has conventionally provided a user with a feeling of discomfort that the user remembers by continuing a state in which no data broadcast image is displayed while ensuring a state in which the user can stereoscopically view the data broadcast image to be displayed. And is effective as a terminal device or the like on the receiving side of 3D data broadcasting.
  • DESCRIPTION OF SYMBOLS 100 Data broadcast display apparatus 101 Demultiplexer 102 Video decoder 103 Left eye video output part 104 Right eye video output part 105 Left eye video FB 106 Right-eye video FB 107 Data Broadcast Analysis Unit 108 Layout Acquisition Unit 109 User Input Accepting Unit 110 Synchronous Data Control Unit 111 Left Eye Data Broadcast Creation Unit 112 Right Eye Data Broadcast Creation Unit 113 Left Eye Data Broadcast FB 114 Right-eye data broadcasting FB 115 Left-eye display generation unit 116 Right-eye display generation unit 117 Display unit 118 Display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 表示する3Dデータ放送画像についてユーザが立体視できる状態を確保しつつ、表示遅れにより生じるユーザの不快感を低減することができるデータ放送表示装置を提供する。データ放送表示装置は、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段、受信したオブジェクトデータを用いて左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了した場合に通知する表示データ生成手段、所定のタイミング毎に、左目視点及び右目視点の両オブジェクトについて通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段を備える。

Description

データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム
 本発明は、3D化されたデータ放送画像を表示する技術に関し、特に、左目用及び右目用データ放送画像の同期表示に関する。
 データ放送において、受信側のデータ放送表示装置で表示すべきデータは、映像の場合と異なりモジュール単位で周期的に繰り返し伝送され、受信側における表示タイミング等を考慮した伝送は行われていない。よって、3D化されたデータ放送画像を表示するデータ放送表示装置においてデータ放送画像を表示するタイミングが到来したときに、左目及び右目データ放送画像の双方に配置すべきオブジェクトについて、左目用のオブジェクト画像の生成は完了したものの、データの取得遅れなどから右目用のオブジェクト画像の生成が完了していないという状態が生じ得る。このような左目データ放送画像の内容と右目データ放送画像の内容と間に不整合が生じる状態で表示を行ってしまうと、ユーザは、表示された画像を立体視できないし、違和感を覚えることにもなる。
 これに対し、特許文献1に開示の技術では、グラフィックスプレーンに書き込む左目データ放送画像と右目データ放送画像との双方が完成した場合にのみ、ディスプレイに出力することで、左目及び右目データ放送画像の整合を図っている。
特開2010-259052号公報
 しかしながら、上記のように、左目データ放送画像と、これに対応する右目データ放送画像との双方が完成する場合を待って、ディスプレイに表示することとした場合、両画像の整合は図れるものの、両画像が完成するまで何ら表示されない状態が継続することとなりユーザが不快感を覚え得る。
 上記課題に鑑み、本発明は、表示する3Dデータ放送画像についてユーザが立体視できる状態を確保しつつ、表示遅れにより生じるユーザの不快感を低減することができるデータ放送表示装置を提供することを目的とする。
 上記課題を解決するために、本発明は、左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置であって、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段と、前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了する毎に通知する表示データ生成手段と、所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段とを備える。
 本発明のデータ放送表示装置は、上述の構成を備えることにより、複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点のオブジェクトの少なくとも一方の生成が完了していないものがあったとしても、左目視点及び右目視点の両オブジェクトの生成が完了しているものについてデータ放送画像に配置され、表示がなされる。よって、表示するデータ放送画像についてユーザが立体視できる状態を確保しつつ、データ放送画像について何ら表示されない状態が継続することでユーザが覚える不快感を従来よりも低減することができる。
第1の実施形態に係るデータ放送表示装置が表示するデータ放送画像の一例を示す図 データ放送表示装置の構成を示すブロック図 データ放送画像の作成に必要なリソースの一例を示す図 (a)及び(b)BML文書の一例を示す図 (a)左目レイアウト情報表の一例を示す図、(b)右目レイアウト情報表の一例を示す図 (a)~(c)FBに記録された左目オブジェクト画像を模式的に示す図、(d)左目データ放送画像を模式的に示す図、(e)~(g)FBに記録された右目オブジェクト画像を模式的に示す図、(h)右目データ放送画像を模式的に示す図 (a)左目作成状態表の一例を示す図、(b)右目作成状態表の一例を示す図 (a)~(c)FBに記録された左目オブジェクト画像を模式的に示す図、(d)左目データ放送画像を模式的に示す図、(e)~(g)FBに記録された右目オブジェクト画像を模式的に示す図、(h)右目データ放送画像を模式的に示す図 左右データ放送画像の出力処理を示すフローチャート 同期出力処理を示すフローチャート データ放送表示装置が表示するデータ放送画像の一例を示す図 (a)及び(b)BML文書の一例を示す図 (a)左目レイアウト情報表の一例を示す図、(b)右目レイアウト情報表の一例を示す図 (a)単位左目レイアウト情報表の一例を示す図、(b)単位右目レイアウト情報表の一例を示す図 (a)~(e)FBに記録された左目オブジェクト画像を模式的に示す図、(f)~(j)FBに記録された右目オブジェクト画像を模式的に示す図 (a)左目作成状態表の一例を示す図、(b)右目作成状態表の一例を示す図 (a)~(e)FBに記録された左目オブジェクト画像を模式的に示す図、(f)~(j)FBに記録された右目オブジェクト画像を模式的に示す図 (a)左目データ放送画像を模式的に示す図、(b)右目データ放送画像を模式的に示す図、(c)左目データ放送画像を模式的に示す図、(d)右目データ放送画像を模式的に示す図 左右データ放送画像の出力処理を示すフローチャート 同期出力処理を示すフローチャート 第3の実施形態に係るデータ放送表示装置の構成を示すブロック図 データ放送画像の作成に必要なリソースの一例を示す図 (a)及び(b)BML文書の一例を示す図 (a)及び(b)変形例に係るBML文書の一例を示す図
 以下、本発明の一実施形態について、図面を参照しながら説明する。
<1.第1の実施形態>
<1-1.概要>
 本願発明の一実施形態であるデータ放送表示装置は、データ放送画像を3D表示する装置であり、左目視点のデータ放送画像(以下、「左目データ放送画像」という。)と、右目視点のデータ放送画像(以下、「右目データ放送画像」という。)とを交互に表示する。左目データ放送画像には、ユーザに立体として認識させるオブジェクトを表現するため、そのオブジェクトを左目視点から見た画像であるオブジェクト画像(以下、「左目オブジェクト画像」という。)が配される。また、右目データ放送画像には、そのオブジェクトを右目視点から見たオブジェクト画像(以下、「右目オブジェクト画像」という。)が配される。1つのオブジェクトに係る左目オブジェクト画像及び右目オブジェクト画像は、左目データ放送画像及び右目データ放送画像のそれぞれにおいて、ユーザの両眼視差を反映するよう水平方向に相互にずらして配される。ここで、オブジェクトとは、物体を示し、文字列に関しては、文字列に奥行、陰影をつけるなどして立体化したものを示す。以下、文字列を立体化したオブジェクトを「文字列オブジェクト」という。
 ユーザは、データ放送表示装置に表示される右目データ放送画像及び左目データ放送画像を専用メガネを着用して視聴する。専用メガネは、データ放送表示装置が左目データ放送画像を表示しているときには右目のレンズが遮光し、右目データ放送画像を表示しているときには左目のレンズが遮光するように、データ放送表示装置によって制御される。このように制御されることで、ユーザの脳内では、目の残像反応により、視差が反映された左目データ放送画像と右目データ放送画像とが重ね合わされる。その結果、ユーザは、立体的なオブジェクトが眼前に存在するように認識する。
 ここで、データ放送における左目オブジェクト画像や右目オブジェクト画像等を生成するためのデータは、映像の場合と異なりモジュール単位で周期的に繰り返し伝送されるものであり、データ放送表示装置での表示タイミング等を考慮して伝送されるものではない。このため、データ放送表示装置における、左目オブジェクト画像の生成と、右目オブジェクト画像の生成のタイミングは必ずしも同期せず、データ放送画像を表示するタイミングにおいて、左目オブジェクト画像の生成は完了したものの、右目オブジェクト画像の生成が完了していないという状態が生じ得る。この場合、左目データ放送画像には左目オブジェクト画像が配置されたものの、この左目オブジェクト画像に対応する右目オブジェクト画像が右目データ放送画像に配置されないという、左目データ放送画像と左目データ放送画像とに不整合が生じた状態となる。データ放送表示装置が、仮にこのように不整合が生じた状態の左目データ放送画像と左目データ放送画像とを表示しても、ユーザは立体視することができない。
 本実施形態に係るデータ放送表示装置は、オブジェクトそれぞれに対応する左目及び右目オブジェクト画像について双方の生成が完了した場合にのみ、左目及び右目オブジェクト画像を左目及び右目データ放送画像に配し、左目及び右目オブジェクト画像の少なくとも一方の生成が完了していない場合、左目及び右目オブジェクト画像のいずれも左目及び右目データ放送画像に配さないことで、上記のような不整合が生じた状態で画像が表示させるのを回避する。
<データ放送画像の具体例>
 図1は、データ放送表示装置が表示するデータ放送画像の一例を示す図である。
 図1(a)は、左目データ放送画像10を模式的に示す図である。左目データ放送画像10は、文字列「JAPAN」を表示する左目オブジェクト画像11、文字列「3Dデータ放送」を表示する左目オブジェクト画像12、陰影が付された円図形を表示する左目オブジェクト画像13を含む。
 図1(b)は、右目データ放送画像20を模式的に示す図である。右目データ放送画像20は、文字列「JAPAN」を表示する右目オブジェクト画像21、文字列「3Dデータ放送」を表示する右目オブジェクト画像22、陰影が付された円図形を表示する右目オブジェクト画像23を含む。
 ここで、左目オブジェクト画像11は、左目データ放送画像10の左上隅を原点としたXY座標平面(水平方向がX軸、垂直方向がY軸で、座標の単位はピクセル(px)である)におけるX座標が502pxの位置に配されている。一方で、左目オブジェクト画像11と同一のオブジェクトを表現するための右目オブジェクト画像21は、右目データ放送画像20の左上隅を原点としたXY座標平面(水平方向がX軸、垂直方向がY軸、座標の単位はpxである)上で、X座標が498pxの位置に配されている。すなわち、左目オブジェクト画像11と、右目オブジェクト画像21とは、水平方向に4pxずらして配されている。これと同様に、左目オブジェクト画像12と、これに対応する右目オブジェクト画像22とは、水平方向に8pxずらして配置されている。また、左目オブジェクト画像13と、これに対応する右目オブジェクト画像23とは、水平方向に4pxずらして配されており、さらに画像自体がユーザによって立体的に認識されるよう円図形に対して異なる陰影を付した構成となっている。左目データ放送画像10と右目データ放送画像20とが、データ放送表示装置により交互に表示されると、これらを専用メガネを用いて視聴したユーザは、図1(c)に模式的に示すように、左目オブジェクト画像11及び右目オブジェクト画像21で表現されたオブジェクト31、左目オブジェクト画像12及び右目オブジェクト画像22で表現されたオブジェクト32、左目オブジェクト画像13及び右目オブジェクト画像23で表現されたオブジェクト33が、ユーザから見て手前側に飛び出しているように認識することとなる。
 ここで、図1における左目オブジェクト画像11~13、右目オブジェクト画像21、22は完成したものの、右目オブジェクト画像23が未完成のような場合が、上述の不整合の場合に該当する。
<1-2.構成>
 図2は、本願発明の一実施態様であるデータ放送表示装置100の構成を示すブロック図である。
 データ放送表示装置100は、デマルチプレクサ101、ビデオデコーダ102、左目映像出力部103、右目映像出力部104、左目映像FB(フレームバッファ)105、右目映像FB106、データ放送解析部107、レイアウト取得部108、ユーザ入力受付部109、左右データ放送同期部110、左目データ放送作成部111、右目データ放送作成部112、左目データ放送FB113、右目データ放送FB114、左目表示生成部115、右目表示生成部116、表示部117、及びディスプレイ118を含んで構成される。
 デマルチプレクサ101は、複数の番組が多重化されたトランスポートストリームを取得し、取得したトランスポートストリームから、ユーザによりユーザ入力部109を用いて選択指示された番組の映像、音声、データ放送の各パケットを抽出する機能を有する。デマルチプレクサ101は、抽出した映像パケットをビデオデコーダ102に出力し、抽出した音声パケットを図示しない音声デコーダに出力し、抽出したデータ放送パケットをデータ放送解析部107に出力する。なお、トランスポートストリームを用いて伝送される映像は、MPEG4-MVC(Moving Picture Experts Group 4 - Multiview Video Coding)規格に従い符号化されているものとする。
 ビデオデコーダ102は、映像パケットを取得してこれを復号することにより左目映像と右目映像とを取得する機能を有し、取得した左目映像については左目映像出力部103に対して出力し、右目映像については右目映像出力部104に対して出力する。
 左目映像出力部103は、ビデオデコーダ102から左目映像を取得し、左目映像を構成する左目画像のそれぞれを、各左目画像に付されたPTS(Presentation Time Stamp)で示される時刻に左目映像FB105に書き込む機能を有する。
 右目映像出力部104は、ビデオデコーダ102から右目映像を取得し、右目映像を構成する右目画像のそれぞれを、各右目画像に付されたPTSで示される時刻に右目映像FB106に書き込む機能を有する。
 左目映像FB105は、メモリで構成されるフレームバッファ(以下、「FB」という。)であり、左目映像出力部103が出力する左目画像を記録する。
 右目映像FB106は、メモリで構成されるフレームバッファであり、右目映像出力部104が出力する右目画像を記録する。
 データ放送解析部107は、デマルチプレクサ101からデータ放送パケットを取得し、取得したデータ放送パケットからBML文書(startup.bml)を抽出し、レイアウト取得部108に出力する機能を有する。また、データ放送解析部107は、startup.bmlを解析し、img要素におけるleft_src属性値で示されるファイル名のファイルを抽出して左目データ放送作成部111に出力し、right_src属性で示されるファイル名のファイルを抽出して右目データ放送作成部112に出力する機能を有する。
 図3は、データ放送画像の作成に必要となるリソースの一例を示す図である。
 本実施形態の場合、データ放送画像の作成に必要となるリソースは、startup.bml、BML文書中に左目データ放送画像の生成に必要なリソースとして記載されているmaru_L.png、右目データ放送画像の生成に必要なリソースとして記載されているmaru_R.pngである。
 図4(a)は、BML文書の一例であるstartup.bmlのうち、本実施形態に関係する部分を抜粋したものである。本明細書におけるBML文書の記載は、原則ARIB STD-B24に従ったものであるが、オブジェクトに関する記載などについて、下記(1)、(2)のような拡張をしている。
 (1)まず、要素タグ(201~203、211~213)のそれぞれにOffset属性を追加している。Offset属性に設定されるオフセット値の単位はピクセルである。ここで、要素タグのそれぞれが、1つのオブジェクトについての情報を表している。オフセット値は、要素タグに対応するオブジェクトの配置位置のX座標を、左目データ放送画像について水平方向右に何ピクセルずらして配置するか、右目データ放送画像について水平方向左に何ピクセルずらして配置するかを示している。左目データ放送画像と右目データ放送画像とでオブジェクトの配置位置を左右にずらすことで、このオブジェクトは上述した通りユーザによって立体的に認識される。なお、Offset値が負の値である場合は、オブジェクトが、正の値である場合と逆方向すなわち左目データ放送画像については水平方向左に、右目データ放送画像については水平方向右にずれて配置されることになる。
 例えば、図4(a)の場合、p要素(201)についてのOffset値は2であり、left値は500である。よって、p要素(201)が表すオブジェクトは、右目データ放送画像においてはX座標が502pxの位置に配置され、左目データ放送画像においてはX座標が498pxの位置に配置される。
 (2)img要素について、左目データ放送画像と右目データ放送画像とで1つのオブジェクトについて異なるビットマップを用いてより立体的に見せることができるようにするために、left_src属性とright_src属性とを追加している。left_src属性には、属性値として、左目オブジェクト画像であるビットマップのファイル名が設定される。right_src属性には、属性値として、右目オブジェクト画像であるビットマップのファイル名が設定される。図4(a)の場合、img要素(203)において、left_src属性の属性値としてmaru_L.png、right_src属性の属性値としてmaru_R.pngが設定されている。すなわちimg要素(203)に対応するオブジェクトについては、左目オブジェクト画像はmaru_L.pngであり、右目オブジェクト画像はmaru_R.pngである。
 レイアウト取得部108は、BML文書としてstartup.bmlを取得し、これを解析し、左目オブジェクト画像の左目データ放送画像における配置などを示すレイアウト情報(以下、「左目レイアウト情報」という。)、及び右目オブジェクト画像の右目データ放送画像における配置などを示すレイアウト情報(以下、「右目レイアウト情報」という。)を生成する機能を有する。レイアウト取得部108は、生成した左目及び右目レイアウト情報を左右データ放送同期部110に出力する。また、レイアウト取得部108は、異なるBML文書を取得した場合など必要に応じて適宜、左目及び右目レイアウト情報を更新する。
 左目レイアウト情報は、要素名、文書内インデックス、top、left、type、及びvalueから成る。レイアウト取得部108は、取得したBML文書の各要素タグにおける要素名、top属性で指定された値(以下、「top属性値」という。)、及びleft属性で指定された値(以下、「left属性値」という。)のそれぞれを、左目レイアウト情報の要素名、top、及びleftとして記録する。topおよびleftの単位はpxである。ここで、BML文書の各要素タグにおいてOffset属性がある場合には、左目レイアウト情報のleftとして、left属性値にOffset属性で指定された値(以下、「Offset属性値」という。)を加えた値が記録される。また、レイアウト取得部108は、要素タグに割り当てられているid値を左目レイアウト情報の文書内インデックスとして記載する。文書内インデックスは、左目レイアウト情報、及び左目レイアウト情報で示される左目オブジェクト画像などを識別するのに用いられる。typeは、左目オブジェクトの種別を示す。本実施形態では、種別は、文字列と、静止画の2種類であるとする。具体的には、BML文書の要素タグ中にCDATAセクションがある場合に左目レイアウト情報のtypeとして「文字列」が記載され、left_src属性及びright_src属性がある場合には、typeとして「静止画」が記載される。valueは、左目オブジェクトの内容を示す。具体的には、typeが文字列の場合に、CDATAセクションに記載されている文字列そのものが記載され、typeが静止画の場合に、BML文書の要素タグ中のleft_src属性、right_src属性の属性値であるファイル名が記載される。
 他にも、p要素のように要素値としてテキストを取り得る要素については、左目レイアウト情報のtypeとして「文字列」が記載され、valueには要素値(p要素であれば、<p>と</p>にはさまれた部分)の文字列そのものが記述される。
 ここで、レイアウト取得部108は、CDATAセクションに記載された文字列、img要素タグ中に示される画像ファイルのそれぞれから1つのオブジェクトが生成できるとの前提で、レイアウト情報を生成している。
 図5(a)は、左目レイアウト情報の一覧である左目レイアウト情報表の一例を示す図である。
 左目レイアウト情報301は、図4のBML文書の要素タグ201に基づき生成されたものであり、文字列を表現する左目オブジェクト画像に関するレイアウト情報である。左目レイアウト情報301には、要素名として「p」が記載され、文書内インデックスとして「001」が記載され、topとして「100」が記載され、leftとして「502」が記載され、typeとして「文字列」が記載され、valueとして「JAPAN」が記載されている。また、要素タグ201にoffset属性があるので、leftとして、left属性値500にOffset属性値2を加えた「502」が記録される。
 右目レイアウト情報の説明は、左目レイアウト情報についての説明と同様であるが、右目レイアウト情報については、BML文書の各要素タグにおいてOffset属性がある場合、右目レイアウト情報のleftには、left属性で指定された値からOffset属性で指定された値が減じた値が記載されることになる。
 図5(b)は、右目レイアウト情報の一覧である右目レイアウト情報表の一例を示す図である。例えば、右目レイアウト情報311は、図4のBML文書の要素タグ201に基づき生成されたものであり、左目レイアウト情報301と同一のオブジェクトに関する右目オブジェクト画像に関するレイアウト情報である。右目レイアウト情報311には、要素名として「p」が記載され、文書内インデックスとして「001」が記載され、topとして「100」が記載され、typeとして「文字列」が記載され、valueとして「JAPAN」が記載されている。また、要素タグ201にoffset属性があるので、leftとして、left属性値500からOffset属性値2を減じた「498」が記載されている。
 左目データ放送FB113は、メモリで構成されるFBであり、各左目オブジェクト画像が記録される。記録された各左目オブジェクト画像は、同期データ制御部110の制御に基づき左目表示生成部115に出力される。
 右目データ放送FB114は、メモリで構成されるFBであり、各右目オブジェクト画像が記録される。記録された各右目オブジェクト画像は、同期データ制御部110の制御に基づき右目表示生成部116に出力される。
 左目表示生成部115は、左目データ放送FB113から出力される各左目オブジェクト画像を重ね合わせて左目データ放送画像を生成する機能を有する。また、左目表示生成部115は、左目映像FB105から出力される左目画像に、左目データ放送画像を重ね合わせて、表示部117に出力する機能を有する。
 右目表示生成部116は、右目データ放送FB114から出力される各右目オブジェクト画像を重ね合わせて右目データ放送画像を生成する機能を有する。また、右目表示生成部116は、右目映像FB106から出力される右目画像に、右目データ放送画像を重ね合わせて、表示部117に出力する機能を有する。
 左目データ放送作成部111は、左右データ放送同期部110から、左目レイアウト情報表を取得する。また、データ放送解析部107から、左目データ放送画像を作成するために必要となるリソース(本実施形態では、maru_L.png)を取得する。そして、左目レイアウト情報表と、取得したリソースとを用いて左目オブジェクト画像を生成する。そして、左目データ放送作成部111は、1つの左目レイアウト情報に対し左目データ放送画像1枚分のFBを左目データ放送FB113中に確保し、その確保したFBにその生成した左目オブジェクト画像を記録する。左目データ放送作成部111は、各左目オブジェクト画像の生成が完了する毎に、左目オブジェクト画像が完成したことを示す完了通知を左右データ放送同期部110に通知する。完了通知には、いずれの左目オブジェクト画像の生成が完了したかを識別するために、完成した左目オブジェクト画像に係る文書内インデックスを含める。
 ここで、左目データ放送作成部111による左目オブジェクト画像の生成手順について説明する。
 左目データ放送作成部111は、左目レイアウト情報表における左目レイアウト情報を順に参照し、左目レイアウト情報におけるtypeが文字列である場合は、valueに記載されている文字列に奥行、陰影を付けるなど立体化するための所定の処理を施しビットマップ化することで左目オブジェクト画像を生成する。また、左目レイアウト情報におけるtypeが静止画である場合、左目データ放送作成部111は、valueに記載されているファイル名で識別される、データ放送解析部107から取得したリソースを左目オブジェクト画像として使用する。
 そして、左目データ放送作成部111は、生成した左目オブジェクト画像を、左目データ放送FB113に確保されたFBの、左目データ放送画像におけるleftで示されるX座標とtopで示されるY座標とに対応する記録位置に記録する。
 右目データ放送作成部112は、左右データ放送同期部110から、右目レイアウト情報表を取得する。また、データ放送解析部107から、右目データ放送画像を作成するために必要となるリソース(本実施形態では、maru_L.png)を取得する。そして、右目レイアウト情報表と、取得したリソースとを用いて右目オブジェクト画像を生成する。そして、右目データ放送作成部112は、1つの右目レイアウト情報に対し右目データ放送画像1枚分のFBを右目データ放送FB114中に確保し、その確保したFBにその生成した右目オブジェクト画像を記録する。右目データ放送作成部112は、各左目オブジェクト画像の生成が完了する毎に、左目オブジェクト画像が完成したことを示す完了通知を左右データ放送同期部110に通知する。完了通知には、いずれの右目オブジェクト画像の生成が完了したかを識別するために、完成した右目オブジェクト画像に係る文書内インデックスを含める。
 右目データ放送作成部112による右目オブジェクト画像の生成、右目データFB114への記録については、左目データ放送作成部111による左目オブジェクト画像の生成、左目データFB113への記録と同様なので説明は省略する。
 左右データ放送同期部110は、レイアウト取得部108から左目及び右目レイアウト情報表を取得し、各左目及び右目レイアウト情報で表される左目及び右目オブジェクト画像の作成が完了したか未完了かを記録するための左目及び右目作成状態表を作成する。また、左右データ放送同期部110は、レイアウト取得部108から取得した左目レイアウト情報表を左目データ放送作成部111に対し出力し、右目レイアウト情報表を右目データ放送作成部112に対し送信する。
 ここで、左目及び右目作成状態表について説明する。
 図7(a)は、左目作成状態表320を示す図である。
 左目作成状態表の各行は、文書内インデックスと、作成状態とから成る。文書内インデックスは、左目レイアウト情報の文書内インデックスと一致させている。すなわち、左目作成状態表の各行の作成状態は、この各行の文書内インデックスと同一値の、文書内インデックスを有する左目レイアウト情報に対応する。左目作成状態表の作成状態の初期値としては未完了を示す「未完」が記載される。また、左右データ放送同期部110が左目データ放送作成部111から完了通知を取得した場合に、左右データ放送同期部110によって、左目作成状態表の、完了通知に含まれる文書内インデックスで識別される作成状態に「完了」が記載される。
 図7(b)は、右目作成状態表の一例を示す図である。右目作成状態表についての説明は、左目作成状態表についての説明と同様のものとなるので省略する。
 左右データ放送同期部110は、また、所定タイミング(例えば、ディスプレイ118のリフレッシュタイミングに同期したタイミング)毎に、左目データ放送FB113に記録されている左目オブジェクト画像を左目表示生成部115に対し出力するよう制御し、右目データ放送FB114に記録されている右目オブジェクト画像を右目表示生成部116に対し出力するよう制御する。
 具体的な制御としては、左右データ放送同期部110は、左目及び右目作成状態表における同一値の文書内インデックスに対応する作成状態の両方が「完了」であるものを検索する。そして、両方の作成状態が「完了」である場合に、左目データ放送FB113に記録された、その文書内インデックスに対応する左目オブジェクト画像を左目表示生成部115に対し出力させ、右目データ放送FB114に記録された、その文書内インデックスに対応する右目オブジェクト画像を右目表示生成部116に対し出力させる。
 また、左目及び右目作成状態表における同一値の文書内インデックスに対応する作成状態の少なくとも一方が「完了」でない場合には、その文書内インデックスで識別される左目オブジェクト画像、及びその右目オブジェクト画像のいずれも左目表示生成部115、右目表示生成部116への出力は行わせない。
 ユーザ入力受付部109は、リモコン、入力キーなどの入力デバイスを備えており、入力デバイスを用いて入力されるユーザ入力を受け付ける。そして、ユーザ入力に応じた指示を、ユーザ入力の内容毎に予め定められている他部に対して出力する。
 表示部117は、左目表示生成部115から画像を取得し、左目表示生成部116から画像を取得し、これらを、交互に、所定のタイミング(例えば、ディスプレイ118のリフレッシュレートに同期したタイミング)でディスプレイ118に表示させる。
 ディスプレイ118は、データ放送画像を表示するための、液晶ディスプレイなどの表示デバイスである。
<1-3.動作>
 以上のように構成された、データ放送表示装置100における左右データ放送画像の出力処理について説明する。
 図9は、左右データ放送画像の出力処理を示すフローチャートである。
 まず、左右データ放送同期部110は、レイアウト取得部108から左目及び右目レイアウト情報表を取得する(S101)。
 そして、左右データ放送同期部110は、左目及び右目レイアウト情報表に基づき、左目及び右目作成状態表を作成する(S102)。
 次に左右データ放送同期部110は、生成した左目レイアウト情報表を左目データ放送作成部111に出力し、右目レイアウト情報表を右目データ放送作成部112に出力する(S103)。
 次に、左右データ放送同期部110は、左目データ放送作成部111及び右目データ放送作成部112から、左目オブジェクト画像及び右目オブジェクト画像の完了通知を待つ(S104)。
 左目データ放送作成部111から完了通知を受け取った場合(S104でY)、完了通知に含まれる文書内インデックスで識別される左目作成状態表の作成状態に「完了」と記載する。また、右目データ放送作成部112から完了通知を受け取った場合、完了通知に含まれる文書内インデックスで識別される右目作成状態表の作成状態に「完了」と記載する(S105)。そして、S106に進む。
 次に、左右データ放送同期部110は、所定の表示タイミングが到来したか否か判断する(S106)。所定の表示タイミングが到来していない場合、S104に進み、到来している場合、同期出力処理を行って(S107)、S104に進む。
 S107の同期出力処理の詳細は、図10に示している。
 図10は、左右データ放送同期部110による同期出力処理を示すフローチャートである。
 左右データ放送同期部110は、まず、変数Nに1を代入する(S201)。変数Nは、処理対象とする文書内インデックスを示す変数である。次に、左右データ放送同期部110は、左目及び右目作成状態表中に、文書内インデックスがNに一致する左目及び右目作成状態が存在するか否かを判断する(S202)。存在する場合(S202でY)、文書内インデックスがNに一致する左目及び右目作成状態表から作成状態を読み出す(S203)。
 左右データ放送同期部110は、読み出した両作成状態のいずれかが「未完」であるか否かを判断する(S204)。いずれかが「未完」の場合(S204でY)、この文書内インデックスに対応する左目オブジェクト画像及び右目オブジェクト画像のいずれも、左目表示生成部115及び右目表示生成部116に対し出力しないよう制御する(S206)。一方、両作成状態のいずれもが「未完」でない場合、すなわち「完了」の場合(S204でN)、この文書内インデックスに対応する左目オブジェクト画像及び右目オブジェクト画像の両方について、左目オブジェクト画像を左目表示生成部115に出力し、右目オブジェクト画像を右目表示生成部116に対し出力するよう制御する(S205)。そして、左右データ放送同期部110は、Nに1加算して、S202に進み、左目及び右目作成状態表中に、文書内インデックスがNに一致する左目及び右目作成状態が存在しなくなるまで上述の処理を繰り返すこととなる。
<1-4.左目及び右目データ放送画像の生成例>
<左目及び右目作成状態表の作成状態が全て「完了」の場合>
 左目及び右目作成状態表の作成状態が全て「完了」の場合に、生成されているデータ放送画像の例について説明する。
 図6(a)~(c)は、各左目レイアウト情報に対応づけて左目データ放送FB113に確保されたFBに記録される左目オブジェクト画像を模式的に示した図である。
 FB113a~FB113cのそれぞれが、文書内インデックス001~003のそれぞれに対応している。
 図6(a)は、文書内インデックスが001の左目レイアウト情報に対応付けて確保されたFB113aに、左目オブジェクト画像11が記録されていることを模式的に示した図である。図6(b)、(c)は、文書内インデックスが002、003の左目レイアウト情報に対応付けて確保されたFB113b、FB113cに、左目オブジェクト画像12、13が記録されていることを模式的に示した図である。
 図6(a)~(c)で示される各画像が左目表示生成部115に出力されると、左目表示生成部115はこれらの画像を重ね合わせて図6(d)に示すような左目データ放送画像を生成することになる。
 図6(e)~(g)は、各右目レイアウト情報に対応づけて右目データ放送FB114に確保されたFBに記録される右目オブジェクト画像を模式的に示した図である。図6(e)は、文書内インデックスが001の右目レイアウト情報に対応付けて確保されたFB114aに、右目オブジェクト画像21が記録されていることを模式的に示した図である。図6(f)、(g)は、文書内インデックスが002、003の右目レイアウト情報に対応付けて確保されたFB114b、FB114cに、右目オブジェクト画像22、23が記録されていることを模式的に示した図である。
 図6(e)~(g)で示される各画像が右目表示生成部116に出力されると、右目表示生成部116はこれらの画像を重ね合わせて図6(h)に示すような右目データ放送画像を生成することになる。
<左目及び右目作成状態表が図7に示す場合>
 左目及び右目作成状態表の作成状態が図7(a)(b)に示す場合に、生成されているデータ放送画像の例について説明する。
 図8(a)~(c)は、左目作成状態表が図7(a)である場合の、FB113a~113cに記録されている左目オブジェクト画像を模式的に示した図である。
 FB113a~FB113cのそれぞれが、文書内インデックス001~003のそれぞれに対応している。
 図7(a)の文書内インデックス001に対応する作成状態は「完了」である。このとき、FB113aには、図8(a)に示すように、図6(a)の場合と同様、左目オブジェクト画像11が記録されている。また、図7(a)の文書内インデックス002に対応する作成状態は「未完」である。このとき、FB113bには、図8(b)に示すように、図6(b)の場合とは異なり、左目オブジェクト画像12が記録されていない。また、図7(a)の文書内インデックス003に対応する作成状態は「完了」である。このとき、FB113cには、図8(c)に示すように、図6(c)の場合と同様、左目オブジェクト画像13が記録されている。
 また、図8(e)~(g)は、左目作成状態表が図7(b)である場合の、FB114a~114cに記録されている右目オブジェクト画像を模式的に示した図である。
 FB114a~FB114cのそれぞれが、文書内インデックス001~003のそれぞれに対応している。
 図7(b)の、文書内インデックス001に対応する作成状態は「完了」である。このとき、FB114aには、図8(e)に示すように、図6(e)の場合と同様、右目オブジェクト画像21が記録されている。また、図7(b)の文書内インデックス002に対応する作成状態は「未完」である。このとき、FB114bには、図8(f)に示すように、図6(f)の場合とは異なり、右目オブジェクト画像22が記録されていない。また、図7(c)の文書内インデックス003に対応する作成状態は「未完」である。このとき、FB114cには、図8(g)に示すように、図6(g)の場合とは異なり、右目オブジェクト画像23が記録されていない。
 左目作成状態表及び右目作成状態表が、図7(a)及び図7(b)で示す状態である場合、左右データ放送同期部110は、文書内インデックスが001の両作成状態が「完了」であるので、対応するFB113aに記録されている左目オブジェクト画像11を左目表示生成部115に出力し、FB114aに記録されている右目オブジェクト画像21を右目表示生成部116に出力するよう制御するが、FB113b、FB113c、FB114b、FB114cに記録されている画像について出力しない。よって、左目表示生成部115において生成される左目データ放送画像は、図8(d)に示すものとなり、右目表示生成部116において生成される右目データ放送画像は、図8(h)に示すものとなる。すなわち、左目データ放送画像と、右目データ放送画像とに不整合が生じないこととなる。
<2.第2の実施形態>
 第1の実施形態では、BML文書中のCDATAセクションに記載された文字列、img要素タグ中に示される画像ファイルのそれぞれから1つの左目又は右目オブジェクト画像を生成していた。そして、左目及び右目オブジェクト画像毎に、左目及び右目データ放送画像に配置するか否か判断していた。
 これに対し、本実施形態では、左目オブジェクト画像及び右目オブジェクト画像を単位とするのではなく、データ放送表示装置内で画像を一括して生成する単位である画像生成単位ごとに管理する点が異なっている。ここで、画像生成単位は、装置の有するリソースや、左目及び右目オブジェクト画像を生成するライブラリ、アルゴリズムなどにより定まる。
 本実施形態では、一例として以下の(1)~(3)の3種類の画像生成単位を用いている。
(1)改行を含む文字列オブジェクトに関して、改行までを1つの画像生成単位として扱う。例えば、BML文書のCDATAセクションに「JAPAN<br>AVC」のように改行を含んだ文字列が記載されている場合、改行前後で分割した文字列「JAPAN」、文字列「AVC」のそれぞれが画像生成単位となる。
(2)一連の英数字文字列、一連の仮名漢字文字列のそれぞれを、1つの画像生成単位として扱う。ここで、本明細書において、仮名漢字文字列には、便宜上、平仮名、カタカナ、及び漢字が含まれるものとする。また、英数字文字列には、便宜上、平仮名、カタカナ及び漢字以外の英数字、記号、外字などを含むものとする。
 例えば、例えば、BML文書のCDATAセクションに「3Dデータ放送」のように英数字文字列「3D」と、仮名漢字文字列「データ放送」が記載されている場合、英数字文字列「3D」、仮名漢字文字列「データ放送」のそれぞれが画像生成単位となる。
(3)配置位置が重なる複数の左目オブジェクト画像又は右目オブジェクト画像は、これらを合わせたものが1つの画像生成単位である。例えば、BML文書において、陰影が付された円図形を表す左目オブジェクト画像と、文字「A」を表示する左目オブジェクト画像とを重なる位置に配置するよう指定(グルーピング)されていた場合、これらを合わせたもの、すなわち「陰影が付された円図形の上に重ねて文字「A」を表示する画像」を画像生成単位として扱う。
 以下では、1つの左目オブジェクト画像が分割されて画像生成単位にされたもの、複数の左目オブジェクト画像がグルーピングされて画像生成単位にされたものを「単位左目オブジェクト画像」という。また、分割される前の左目オブジェクト画像を結合左目オブジェクト画像ともいい、グルーピングされる前の左目オブジェクト画像を部分左目オブジェクト画像ともいう。
 また、1つの右目オブジェクト画像が分割されて画像生成単位にされたもの、複数の右目オブジェクト画像がグルーピングされて画像生成単位にされたものを「単位右目オブジェクト画像」という。また、分割される前の右目オブジェクト画像を結合右目オブジェクト画像ともいい、グルーピングされる前の右目オブジェクト画像を部分右目オブジェクト画像ともいう。
 図11は、本実施形態に係るデータ放送表示装置が表示する対象としているデータ放送画像の一例を示す図である。図11(a)は、本実施形態に係る左目データ放送画像10を模式的に示す図である。左目データ放送画像10は、2段組の文字列「JAPAN」「AVC」を表示する左目オブジェクト画像、文字列「3Dデータ放送」を表示する左目オブジェクト画像12、文字「A」を表示する左目オブジェクト画像15、及び陰影が付された円図形を表示する左目オブジェクト画像13を含む。図11(b)は、本実施形態に係る右目データ放送画像20を模式的に示す図である。右目データ放送画像20は、2段組の文字列「JAPAN」「AVC」を表示する右目オブジェクト画像、文字列「3Dデータ放送」を表示する左目オブジェクト画像22、文字「A」を表示する左目オブジェクト画像25、及び陰影が付された円図形を表示する左目オブジェクト画像23を含む。
 本実施形態に係るデータ放送表示装置は、図11に示した左目データ放送画像と、右目データ放送画像について、単位左目オブジェクト画像及び単位右目オブジェクト画像を単位として整合がとれるように表示することで、ユーザによって立体視されないような画像の表示を避け、ユーザの目などに疲労感を感じさせるような結果になるのを避ける。以下、本実施形態に係るデータ放送表示装置について詳細に説明する。但し、第1の実施形態と変わりない部分については、説明を省略する。
<2-1.構成>
 本実施形態に係るデータ放送表示装置100は、構成要素を示すブロック図については第1の実施形態にて図2を用いて説明したものと変わりない。
<BML文書>
 本実施形態に係るBML文書について説明する。図12(a)は、BML文書の一例であるstartup.bmlのうち、本実施形態に関係する部分を抜粋したものである。第1の実施形態とは本質的に変わりないが、下記の点で異なっている。
(1)第1の実施形態における要素タグ201が、要素タグ501に変更されている。要素タグ501では、CDATAセクションの内容が改行を含む「JAPAN<br>AVC」になっている。
(2)要素タグ504が追加されている。この要素タグ504のtop、leftは、要素タグ203のtop、leftと同値である。すなわち、要素タグ203に係る左目オブジェクト画像と、要素タグ504に係る左目オブジェクト画像とが重なることを示している。
<左目及び右目レイアウト情報>
 上記のように、取得するBML文書の内容に変更があることから、レイアウト取得部108が生成する左目レイアウト情報、及び右目レイアウト情報の内容が第1の実施形態とは異なっている。
 図13(a)は、本実施形態に係る左目レイアウト情報600を示す図である。図13(b)は、本実施形態に係る右目レイアウト情報610を示す図である。具体的には、図13(a)の左目レイアウト情報については、文書内インデックス001の左目レイアウト情報601におけるvalueが「JAPAN<br>AVC」になっている点、文書内インデックスが004である左目レイアウト情報が追加されている点が第1の実施形態に係る左目レイアウト情報300と異なっている。図13(b)の右目レイアウト情報についても、左目レイアウト情報と同様の違いがある。
<左目データ放送FB113、右目データ放送FB114、左目表示生成部115、及び左目表示生成部116>
 左目データ放送FB113、右目データ放送FB114、左目表示生成部115、及び左目表示生成部116では、左目及び右目オブジェクト画像を単位として行っていた処理を、単位左目及び単位右目オブジェクト画像を単位として行うよう変更されている点が第1の実施形態とは異なる。
<左目データ放送作成部111>
 左目データ放送作成部111が、第1の実施形態と異なる点は、(1)左右データ放送同期部110から、左目レイアウト情報に代えて単位左目レイアウト情報表を取得する点、(2)単位左目レイアウト情報表に基づき、左目オブジェクト画像ではなく、単位左目オブジェクト画像を生成し、単位左目オブジェクト画像の生成が完了した場合に、同期単位インデックスを含めた完了通知を左右データ放送同期部110に通知する点、(3)1つの単位左目レイアウト情報に対して左目データ放送画像1枚分のFBを左目データ放送FB113中に確保する点である。
 なお、単位左目レイアウト情報、同期単位インデックスについては、後述する。また、右目データ放送作成部112が、第1の実施形態と異なる点については、左目データ放送作成部111の場合と同様であるので、説明は省略する。
<左右データ放送同期部110>
 以下、左右データ放送同期部110については、第1の実施形態との差異点が多いので、(a)単位左目及び単位右目レイアウト情報の生成、(b)左目及び右目作成状態表の作成、(c)単位左目及び単位右目オブジェクト画像の出力制御に区分して説明する。
 <a.単位左目及び単位右目レイアウト情報の生成>
 左右データ放送同期部110は、レイアウト取得部108から左目及び右目レイアウト情報を取得し、左目及び右目レイアウト情報に基づき単位左目レイアウト情報及び単位右目レイアウト情報を生成する。
 単位左目レイアウト情報は、左目オブジェクト画像単位のレイアウトを示す左目レイアウト情報を、単位左目オブジェクト画像単位のレイアウトを示す情報に変換したものである。また、単位右目レイアウト情報は、右目オブジェクト画像単位のレイアウトを示す右目レイアウト情報を、単位右目オブジェクト画像単位のレイアウトを示す情報に変換したものである。
 図14(a)は、単位左目レイアウト情報の一覧である単位左目レイアウト情報表の一例を示す図である。
 単位左目レイアウト情報は、同期単位インデックス、要素名、文書内インデックス、top、left、type、及びvalueから成る。同期単位インデックスは、単位左目レイアウト情報表中の各単位左目レイアウト情報に付された通し番号である。要素名、文書内インデックス、top、left、type、及びvalueのそれぞれは、左目レイアウト情報中の要素名、文書内インデックス、top、left、type、及びvalueをそのまま記載したものであり、内容は同じである。
 ここで、単位左目レイアウト情報表の生成処理について説明する。左右データ放送同期部110は、左目レイアウト情報表について、下記(1)~(4)の処理を行って単位左目レイアウト情報表に変換する。
(1)各左目レイアウト情報が、条件1「typeが「文字列」であり、かつvalueにbr要素(<br>)が含まれる」を満たすか否か判定する。条件1を満たす場合、その左目レイアウト情報に基づき2つの単位左目レイアウト情報(便宜上、単位左目レイアウト情報A、単位左目レイアウト情報Bという。)を生成する。
 具体的には、単位左目レイアウト情報A及びBの要素名、文書内インデックス、left、typeの値は、左目レイアウト情報の値と同じにする。単位左目レイアウト情報A及びBのvalueについては、左目レイアウト情報のvalueを、<br>より前の文字列(前文字列)と後ろの文字列(後文字列)とに分け、単位左目レイアウト情報Aのvalueに前文字列を記載し、単位左目レイアウト情報Bのvalueに後文字列を記載する。topについては、単位左目レイアウト情報Aのtopに左目レイアウト情報のtop値を記載する。単位左目レイアウト情報Bのtopには、左目レイアウト情報のtop値に、所定値(例えば300px)を加えたものをtop値とする。この所定値は、前文字列と後文字列との間で改行して表示するために設定された値である。
(2)各左目レイアウト情報が、条件2「typeが「文字列」であり、かつvalueに英数字等の文字列と、仮名漢字等の文字列とが混在している」を満たすか否か判定する。条件2を満たす場合、その左目レイアウト情報を2つの単位左目レイアウト情報(便宜上、単位左目レイアウト情報C、単位左目レイアウト情報Dという。)に変換する。具体的には、単位左目レイアウト情報C及びDの要素名、文書内インデックス、top、typeの値は、左目レイアウト情報の値と同じものを記載する。単位左目レイアウト情報C及びDのvalueについては、左目レイアウト情報のvalueを、英数字等の部分と、仮名漢字等の部分とに分け、単位左目レイアウト情報Cのvalueに英数字等の部分を記載し、単位左目レイアウト情報Dのvalueに仮名漢字等の部分を記載する。
 leftについては、単位左目レイアウト情報Cのleftには、左目レイアウト情報のleft値を記載する。また、単位左目レイアウト情報Dのleftには、左目レイアウト情報のleft値に、単位左目レイアウト情報Cの文字列を表す単位オブジェクト画像の表示長を加えたものを記載する。この表示長は、単位左目レイアウト情報Cに係る仮名漢字等を表現する単位オブジェクト画像と、単位左目レイアウト情報Dに係る英数字等を表現する単位オブジェクト画像とが連続して表示されるようにするためのものである。
 ここで、判別対象となっている文字列が英数字等の文字列であるか、仮名漢字等の文字列であるかの判別は、一例として、文字コード表を参照して判断するものとする。判別対象の文字が、文字コード表の英数字等のコードが定義されている領域に入っていれば英数字等と判断し、文字コード表の仮名漢字等のコードが定義されている領域に入っていれば仮名漢字等と判断する。
(3)各左目レイアウト情報について、条件3「配置位置が重なる複数の左目レイアウト情報がある」を満たすか否か判定する。条件3を満たしている場合、配置位置が一致している複数の左目レイアウト情報をグルーピングして、1つの単位左目レイアウト情報に変換する。具体的には、単位左目レイアウト情報の要素名、文書内インデックス、top、left、type、及びvalueについては、2つの左目レイアウト情報のものを併記する。同期単位インデックスについては、単位左目レイアウト情報に対し1つの同期単位インデックスを割り当てる。配置位置が重なるか否かは、left、top、文字列長、文字列の表示サイズ等から判断することとなる。上記(1)~(3)の処理が、左目及び右目オブジェクト画像を画像生成単位へ変換する処理となる。
(4)条件1~3に該当しない左目レイアウト情報については、分割、グルーピング等は行わず、左目レイアウト情報に一対一に対応する単位左目レイアウト情報を生成する。具体的には、単位左目レイアウト情報の要素名、文書内インデックス、top、left、type、及びvalueについては、左目レイアウト情報のものを記載する。
 図14(a)の場合、同期単位インデックス001の単位左目レイアウト情報は、要素名がp、文書内インデックスが001、topが100、leftが502、typeが文字列、valueがJAPANである。同期単位インデックス002の単位左目レイアウト情報は、要素名がp、文書内インデックスが001、topが300、leftが502、typeが文字列、valueがAVCである。この同期単位インデックスが001及び002の単位左目レイアウト情報は、同一の文書内インデックス001を有し、文書内インデックスが001である1つの左目レイアウト情報を分割して生成されたものである。また、同期単位インデックス003及び004の単位左目レイアウト情報は、同一の文書内インデックス002を有し、文書内インデックスが002である1つの左目レイアウト情報を分割して生成されたものである。また、同期単位インデックス005の単位左目レイアウト情報は、2つの左目レイアウト情報である、要素名がpで文書内インデックスが004の左目レイアウト情報と、要素名がimgで文書内インデックスが003の左目レイアウト情報とがグルーピングされて生成されたものである。
 図14(b)は、単位右目レイアウト情報表の一例を示す図である。単位右目レイアウト情報表については、生成方法、内容について、単位左目レイアウト情報表と変わるところがないので、説明は省略する。
 <b.左目及び右目作成状態表の作成>
 左右データ放送同期部110は、生成した単位左目及び単位右目レイアウト情報表を生成すると、各単位左目及び単位右目レイアウト情報で表される単位左目及び単位右目オブジェクト画像の作成が完了したか未完了したかを記録するための左目及び右目作成状態表を作成する。左目及び右目作成状態表を作成した後、左右データ放送同期部110は、単位左目レイアウト情報表を左目データ放送作成部111に対し出力し、単位右目レイアウト情報表を右目データ放送作成部112に対し出力する。
 図16(a)は、左目作成状態表720を示す図である。
 第1の実施形態に係る図7(a)の左目作成状態表320とは、文書内インデックスが、同期単位インデックスに置き換わっている点が異なる。ここで同期単位インデックスは、単位左目レイアウト情報の同期単位インデックスと一致させている。すなわち、左目作成状態表の各行の作成状態は、この各行の同期単位インデックスと同一値の、同期単位インデックスを有する単位左目レイアウト情報に対応する。左目作成状態表の作成状態の初期値としては「未完」を記載する。
 左右データ放送同期部110は、左目データ放送作成部111から完了通知を取得した場合に、左目作成状態表の、完了通知に含まれる同期単位インデックスで識別される作成状態として「完了」を記載する。
 図7(b)は、右目作成状態表の一例を示す図である。右目作成状態表についての説明は、左目作成状態表についての説明と同様のものとなるので省略する。
 <c.単位左目及び単位右目オブジェクト画像の出力制御>
 左右データ放送同期部110は、所定タイミング(例えば、ディスプレイ118のリフレッシュタイミングに同期したタイミング)毎に、左目データ放送FB113に記録されている単位左目オブジェクト画像を左目表示生成部115に対し出力するよう制御し、右目データ放送FB114に記録されている単位右目オブジェクト画像を右目表示生成部116に対し出力するよう制御する。具体的な制御としては、左右データ放送同期部110は、左目及び右目作成状態表における同一値の同期単位インデックスに対応する作成状態の両方が「完了」であるものを検索する。そして、両方の作成状態が「完了」である場合に、左目データ放送FB113に記録された、その同期単位インデックスに対応する単位左目オブジェクト画像を左目表示生成部115に対し出力させ、右目データ放送FB114に記録された、その文書内インデックスに対応する単位右目オブジェクト画像を右目表示生成部116に対し出力させる。
 また、左目及び右目作成状態表における同一値の同期単位インデックスに対応する作成状態の少なくとも一方が「完了」でない場合には、その同期単位インデックスで識別される単位左目オブジェクト画像、及びその単位右目オブジェクト画像のいずれも左目表示生成部115、右目表示生成部116への出力は行わせない。
 図17(a)~(e)は、左目作成状態表が図16(a)である場合の、FB113a~113eに記録されている単位左目オブジェクト画像を模式的に示した図である。
 FB113a~FB113eのそれぞれが、同期単位インデックス001~005のそれぞれに対応している。
 図16(a)の同期単位インデックス001に対応する作成状態は「完了」である。このとき、FB113aには、図17(a)に示すように単位左目オブジェクト画像11がtop、leftで表される位置に記録されている。
 図16(a)の同期単位インデックス002に対応する作成状態は「完了」である。このとき、FB113bには、図17(b)に示すように単位左目オブジェクト画像12がtop、leftで表される位置に記録されている。
 図16(a)の同期単位インデックス003に対応する作成状態は「完了」である。このとき、FB113cには、図17(c)に示すように単位左目オブジェクト画像17がtop、leftで表される位置に記録されている。
 また、図16(a)の同期単位インデックス004に対応する作成状態は「未完」である。このとき、FB113dには、図17(d)に示すように、単位左目オブジェクト画像は記録されていない。
 また、図16(a)の同期単位インデックス005に対応する作成状態は「完了」である。このとき、FB113eには、図17(e)に示すように、単位左目オブジェクト画像16が記録されている。
 また、図17(f)~(j)は、左目作成状態表が図16(b)である場合の、FB114a~114eに記録されている単位右目オブジェクト画像を模式的に示した図である。FB114a~FB114eのそれぞれが、文書内インデックス001~005のそれぞれに対応している。
 図16(b)の同期単位インデックス001に対応する作成状態は「完了」である。このとき、FB114aには、図17(f)に示すように単位右目オブジェクト画像21がtop、leftで表される位置に記録されている。
 図16(b)の同期単位インデックス002に対応する作成状態は「未完」である。このとき、FB114bには、図17(g)に示すように単位右目オブジェクト画像が記録されていない。
 図16(b)の同期単位インデックス003に対応する作成状態は「完了」である。このとき、FB114cには、図17(h)に示すように単位右目オブジェクト画像27がtop、leftで表される位置に記録されている。
 また、図16(b)の同期単位インデックス004に対応する作成状態は「完了」である。このとき、FB113dには、図17(i)に示すように、単位右目オブジェクト画像28が記録されている。
 また、図16(b)の同期単位インデックス005に対応する作成状態は「未完」である。このとき、FB113eには、図17(j)に示すように、単位右目オブジェクト画像が記録されていない。
 左目作成状態表及び右目作成状態表が、図16(a)及び図16(b)で示す状態である場合、左右データ放送同期部110は、同期単位インデックスが001の両作成状態が「完了」であるので、対応するFB113aに記録されている単位左目オブジェクト画像11を左目表示生成部115に出力し、FB114aに記録されている単位右目オブジェクト画像21を右目表示生成部116に出力するよう制御する。
 また、左右データ放送同期部110は、同期単位インデックスが003の両作成状態が「完了」であるので、対応するFB113cに記録されている単位左目オブジェクト画像17を左目表示生成部115に出力し、FB114cに記録されている単位右目オブジェクト画像27を右目表示生成部116に出力するよう制御する。
 一方、同期単位インデックスが002、004、005については、両作成状態のうち少なくとも一方が「未完」であるので、これらに対応する単位左目オブジェクト画像12及び14、16、単位右目オブジェクト画像22、24及び26の出力を行わないよう制御する。
 この制御により、左目表示生成部115によって作成される左目データ放送画像は、図18(c)に示すものとなり、右目表示生成部116によって作成される右目データ放送画像は図18(d)に示すものとなる。すなわち、左目データ放送画像と、右目データ放送画像とに不整合が生じないこととなる。
 なお、仮に、図17(a)~(e)で示される各画像が左目表示生成部115に出力されると、左目表示生成部115はこれらの画像を重ね合わせて図18(a)に示すような左目データ放送画像を生成することになる。また、図17(f)~(j)で示される各画像が右目表示生成部116に出力されると、右目表示生成部116はこれらの画像を重ね合わせて図18(b)に示すような右目データ放送画像を生成することになる。この場合、左目データ放送画像と、右目データ放送画像とに不整合が生じてしまうことになる。
<2-2.動作>
 以下、本実施形態に係るデータ放送表示装置100による左右データ放送画像の出力処理について説明する。
 図19は、左右データ放送画像の出力処理を示すフローチャートである。
 まず、左右データ放送同期部110は、レイアウト取得部108から左目及び右目レイアウト情報表を取得する(S501)。そして、左右データ放送同期部110は、左目及び右目レイアウト情報表に基づき、左目及び右目作成状態表を作成する(S502)。次に、左右データ放送同期部110は、左目レイアウト情報を単位左目レイアウト情報に変換し、右目レイアウト情報を単位右目レイアウト情報に変換する(S503)。そして、左右データ放送同期部110は、単位左目レイアウト情報表を左目データ放送作成部111に出力し、単位右目レイアウト情報表を右目データ放送作成部112に出力する(S504)。
 次に、左右データ放送同期部110は、左目データ放送作成部111又は右目データ放送作成部112からの、単位左目オブジェクト画像及び単位右目オブジェクト画像についての完了通知を待つ(S505)。左目データ放送作成部111から完了通知を受け取った場合(S505でY)、完了通知に含まれる同期単位インデックスで識別される左目作成状態表の作成状態に「完了」と記載する。また、右目データ放送作成部112から完了通知を受け取った場合、完了通知に含まれる同期単位インデックスで識別される右目作成状態表の作成状態に「完了」と記載する(S506)。そして、S507に進む。
 次に、左右データ放送同期部110は、所定の表示タイミングが到来したか否か判断する(S507)。所定の表示タイミングが到来していない場合、S505に進み、到来している場合、同期出力処理を行って(S508)、S505に進む。
 S508の同期出力処理の詳細は、図20に示している。同期出力処理において、左右データ放送同期部110は、まず、変数Nに1を代入する(S601)。変数Nは、処理対象とする同期単位インデックスを示す変数である。次に、左右データ放送同期部110は、左目及び右目作成状態表中に、同期単位インデックスがNに一致する左目及び右目作成状態が存在するか否かを判断する(S602)。存在する場合(S602でY)、同期単位インデックスがNに一致する左目及び右目作成状態表から作成状態を読み出す(S603)。
 左右データ放送同期部110は、読み出した両作成状態のいずれかが「未完」であるか否かを判断する(S604)。いずれかが「未完」の場合(S604でY)、この同期単位インデックスに対応する単位左目オブジェクト画像及び単位右目オブジェクト画像のいずれも、左目表示生成部115及び右目表示生成部116に対し出力しないよう制御する(S606)。一方、両作成状態のいずれも「未完」でない場合、すなわち両作成状態が「完了」の場合(S604でN)、この同期単位インデックスに対応する単位左目オブジェクト画像及び単位右目オブジェクト画像の両方について、単位左目オブジェクト画像を左目表示生成部115に出力し、単位右目オブジェクト画像を右目表示生成部116に対し出力するよう制御する(S605)。そして、左右データ放送同期部110は、Nに1加算して(S607)、S602に進む。これにより左目及び右目作成状態表中に同期単位インデックスがNに一致する左目及び右目作成状態が存在しなくなるまで上述の処理を繰り返すこととなる。
<3.第3の実施形態>
 第1及び第2の実施形態では、1つのBML文書中に、左目オブジェクト画像、右目オブジェクト画像を生成するための情報を記載していた。本実施形態では、左目オブジェクト画像を生成するための情報を記載するBML文書(startup_L.bml)と、右目オブジェクト画像を生成するための情報を記載するBML文書(startup_R.bml)とを分けた点が第1及び第2の実施形態とは異なる。
 BML文書をstartup_L.bmlと、startup_R.bmlとに分けることで、第2の実施形態におけるstartup.bmlのような要素タグへのoffset属性の追加、img要素についてのleft_src属性、right_src属性の追加といった拡張を行う必要が無くなる。
 本実施形態において左目データ放送画像と右目データ放送画像とを生成するのに必要なリソースは、図22に示すように、startup_L.bml、startup_R.bml、maru_L.png及びmaru_R.pngである。
 図23(a)は、startup_L.bmlのうち、本実施形態に関係する部分を抜粋したものである。また、図23(b)は、startup_R.bmlのうち、本実施形態に関係する部分を抜粋したものである。
 startup_L.bml及びstartup_R.bmlでは、上記実施形態におけるstartup.bmlのような、要素タグへのoffset属性の追加、img要素についてのleft_src属性、right_src属性の追加といった拡張は行っていないが、startup_L.bml及びstartup_R.bmlとの間で、同じオブジェクトを表現している要素タグが特定できるように、対応する要素の出現順をstartup_L.bml及びstartup_R.bmlとで揃えることとしている。
 例えば、startup_L.bml1200において<body>要素の中で最初に出現するp要素1201と、startup_R.bml1210において<body>要素の中で最初に出現するp要素1211とが、同一のオブジェクトについて表現する要素である。
 また、第1及び第2の実施形態のstartup.bmlでは、1つのp要素で左目オブジェクト画像と右目オブジェクト画像とについてのレイアウトを表現する必要があったため、left属性値にOffset属性値を加算して左目レイアウト情報のleftを生成し、left属性値からOffset属性値を減算して右目レイアウト情報のleftを生成していた。しかし、本実施形態では、startup_L.bmlのp要素のleft属性値を左目レイアウト情報のleftに記載し、startup_R.bmlのp要素のleft属性値を右目レイアウト情報のleftに記載すればよく、left属性値に対しOffset属性値を加減算するような処理は必要無くなる。startup_L.bmlのp要素のleft属性値には、第1及び第2の実施形態におけるleft属性値にOffset属性値を加算した値が記載され、startup_R.bmlのp要素のleft属性値には、第1及び第2の実施形態におけるleft属性値からOffset属性値を減算した値が記載される。図23に示す具体例の場合、p要素201のleft属性には、left属性値として、第1の実施形態におけるleft属性値500にOffset属性値2を加算した502が設定されており、p要素211のleft属性には、left属性値として、第1の実施形態におけるleft属性値500からOffset属性値2を減算した498が設定されている。
 図21は、第3の実施形態に係るデータ放送表示装置1000の構成を示すブロック図である。図21と図2とが異なる点は、(1)データ放送解析部107が、データ放送パケットからstartup_L.bmlとstartup_R.bmlとを抽出して左右データ放送同期部1103に対し出力する構成となっている点、(2)レイアウト取得部108が削除され、左右データ放送同期部1103が、レイアウト取得部108の代わりにデータ放送解析部107からstartup_L.bml、startup_R.bmlを取得し、左目レイアウト情報と、右目レイアウト情報とを生成している点である。左右データ放送同期部1103が、左目レイアウト情報と右目レイアウト情報とを取得した後の処理は、第1及び第2の実施形態と特に変わるところがない。
<4.変形例>
 以上、本発明に係るデータ放送表示装置の実施形態を説明したが、例示したデータ放送表示装置を以下のように変形することも可能であり、本発明が上述の実施形態で示した通りのデータ放送表示装置に限られないことは勿論である。
(1)第1の実施の形態において、BML文書は、トランスポートストリームに多重された上で配信されることとしたが、BML文書が取得さえできれば足りる。例えば、ネットワーク等を介した通信によって取得することとしても良い。
(2)第1の実施の形態では、BML文書として、図4(a)に記載のBML文書を取得することとしたが、同様の情報が得られれば足りる。例えば、offset属性を図4(a)のようにstyle属性中に記さずに、図4(b)のBML文書のようにstyle属性と分けて記載することとしてもよい。
(3)第1の実施形態において、左目映像出力部103、右目映像出力部104の左目映像、右目映像の左目映像FB105、右目映像FB106への所定の書き込みタイミングは、液晶のリフレッシュレートに同期した、各リフレッシュ時刻より一定時間ずつ前の各時刻としていたが、最終的にディスプレイ118に適切に表示できるようなタイミングであれば足りる。
(4)第1の実施形態では、各オブジェクトをid属性値で一意に特定していたが、オブジェクトを一意に特定できれば足り、他の方法で特定してもよい。例えば、BML文書の各要素に付されたid属性を用いず、右目及び左目レイアウト情報中の「要素名」と「文書内インデックス」とによって一意に特定してもよい。このように特定する場合であれば、BML文書の各要素にid属性が付されていなくても、各オブジェクトの特定は可能になる。
(5)第1及び第2の実施形態では、左目レイアウト情報表及び右目レイアウト情報表中のtypeを、文字列、静止画の2種類としたが、これに限るものではなく、3Dデータ放送画像にオブジェクトとして表現され得るものも含まれる。例えば、図形、記号、動画像などをオブジェクトとして用いる場合に、typeに図形、記号、動画像などを加えてもよい。
(6)第2の実施形態では、3種類の画像生成単位について説明したが、これらに限るものではなく、画像を生成する単位であれば足りる。例えば、文字列データの場合、1つの文字や、2以上の文字から成る文字列などが画像生成単位としてもよい。また、静止画データの場合であれば、静止画を2分割、N(Nは3以上の自然数)分割等した画像を画像生成単位としてもよい。
 また、第2の実施形態では、CDATAセクションにおける文字列を改行の前後に分割して、分割した各文字列を画像生成単位としたが、文字列を区切る制御情報は改行に限るものではなく、文字列を分割するものであれば足りる。例えば、スペース(空白)、タブなどで文字列を分割し、分割した各文字列を画像生成単位としてもよい。
 また、制御情報に改行がない場合でも、文字列を表示するテキストボックスの幅により文字列が複数行にわたって表示される場合には、文字列を分割し、分割した各文字列を画像生成単位としてもよい。
 また、第2の実施形態では、文字列を、「英数字」と「仮名漢字」とを異なる文字種として2つに分割したが、この分割方法に限らず、文字列をある単位に分割するものであれば足りる。例えば、サイズが異なる文字列毎、色の異なる文字列毎、フォントが異なる文字列毎に分割し、分割した各文字列を画像生成単位としてもよい。
 また、第2の実施形態では、文字列を、「英数字」と「仮名漢字」とを異なる文字種として2つに分類したが、ARIBのB-24に示される文字集合の分類で分けてもよい。具体的には「漢字」、「英数」、「平仮名」、「片仮名」、「モザイクA」、「モザイクB」、「モザイクC」、「モザイクD」、「プロポーショナル英数」、「プロポーショナル平仮名」、「プロポーショナル片仮名」、「JIS X0201片仮名」、「JIS互換漢字1面」、「JIS互換漢字2面」、「追加記号」、「DRCS」とを異なる文字種として分割してもよい。
 また、第2の実施形態では、CDATAセクションにおける文字列が、2つの文字列に分割される例について説明したが、3以上の文字列に分割されることとしてもよい。
 また、第2の実施形態では、2個の左目(右目)オブジェクト画像をグルーピングして単位左目(右目)オブジェクト画像を生成することとしたが、2個に限る必要はなく3個以上のオブジェクト画像をグルーピングすることとしてもよい。
 また、データ放送表示装置に対し、ユーザがいずれの画像生成単位を用いるかを設定できることとしてもよい。
(7)本実施形態では、単位左目オブジェクト画像を構成する2つの左目オブジェクト画像は、文字列に係るオブジェクト画像と、図形に係るオブジェクト画像としていたが、複数のオブジェクト画像から単位左目オブジェクト画像を構成できるものであれば足り、他の種類のオブジェクト画像の組合せであってもよい。また、これらを重ね合わせる場合に、図形オブジェクトの上に文字列オブジェクトを重ね合わせることとしているが、複数の左目オブジェクトから、1つの単位左目オブジェクトを構成できる手法であれば足りる。例えば、単位左目オブジェクトを構成する複数の左目オブジェクトそれぞれが、共に静止画オブジェクトである場合には、画像サイズの大きいものから下になるように重ね合わせることとしてよい。また、単位左目オブジェクトを構成する複数の左目オブジェクトそれぞれが、静止画オブジェクトである場合に、文書内インデックスの値が小さいものが下になり、大きいものが上になるように重ねることとしてもよい。この場合、BML文書の送信側にてBML文書を生成する場合に、文書内インデックスの値が小さいものが下になり、大きいものが上になるように重ねることを考慮して、複数の左目オブジェクトについて規定する必要がある。また、右目オブジェクトについても同様に規定する必要がある。
 なお、本実施形態では下に表示される画像サイズの大きい静止画の表示領域に、上に表示される文字列の表示領域が含まれていたが、複数の左目オブジェクトの表示領域に少しでも重なりがある場合には、複数の左目オブジェクトを単位左目オブジェクトとしてもよい。
(8)上述の実施形態では、左目データ放送FB113、右目データ放送FB114については、各オブジェクト画像又は各単位オブジェクト画像について、データ放送画像1枚分のFB領域を確保することとしたが、各オブジェクト画像又は各単位オブジェクト画像を記録できる領域さえ確保するものであれば足りる。例えば、FB領域として、各オブジェクト画像又は各単位オブジェクト画像のサイズと同サイズの領域だけ左目データ放送FB113、右目データ放送FB114に領域を確保することとしてもよい。この場合、データ放送画像を作成する左目表示生成部115及び右目表示生成部116に対し、データ放送画像における各オブジェクト画像又は各単位オブジェクト画像の配置位置を通知する必要がある。
(9)第3の実施形態では、startup_L.bml1200及びstartup_R.bml1210において、同一のオブジェクトを表現するための要素を対応付けるため、対応する要素の出現順序を揃えることとしていたが、同一のオブジェクトを表現するための要素が対応づけることができれば足りる。例えば、各要素にid属性を付与し、同一のオブジェクトを表現する要素に対し、startup_L.bml1200とstartup_R.bml1210とで同一のid属性値を付与することとしてもよい。
 図23の場合、startup_L.bml1200のp要素1201のid属性と、startup_R.bml1210のp要素1211のid属性とに、同じ属性値「id01」を設定することで、p要素1201とp要素1211とが同一のオブジェクトを表現していることを表している。
(10)第1の実施形態において、左目データ放送作成部111は、左目レイアウト情報におけるtypeが文字列である場合は、valueに記載されている文字列に陰影を付けるなど所定の処理を施しビットマップ化することで左目オブジェクト画像を生成することとしたが、この所定の処理は、受信するBML文書、リソース等から左目オブジェクト画像を生成できる処理であれば足りる。例えば、文字列のそれぞれに、予めビットマップ画像を対応づけておき、valueに記載されている文字列を、予め対応づけられているビットマップ画像に変換することで、左目オブジェクト画像を生成してもよい。右目オブジェクト画像についても同様である。
 第2の実施形態における単位左目オブジェクト画像、単位右目オブジェクト画像についても同様である。
(11)第3の実施形態では、左目用のBML文書と右目用のBML文書との対応付けを、例えば、startup_L.bmlとstartup_R.bmlのように、ファイル名の最後に、左目用のBML文書については「_L」、右目用のBML文書については「_R」を付することで行っていたが、対応付けさえできれば足りる。
 (A)例えば、ARIB規格を拡張し、1のBML文書から他のBML文書へと遷移するときに、左目用のBML文書と、右目用のBML文書との両方を指定できるようにしてもよい。
 図24(a)の左目用のBML文書1400は、遷移先のBML文書のURLを2つ記載可能とするよう拡張されたARIB規格に基づくBML文書を示す図である。ここでは、関数1401のように「browser.launch3dDocument」という関数を新たに定義し、第1引数には左目用のBML文書、第2引数に右目用のBML文書を記載できるようにしている。
 (B)また、他の例として、ARIB規格を拡張し、左目用のBML文書、右目用のBML文書のいずれかもしくは両方に、対応するBML文書のURLなどを記載できるようにしてもよい。
 図20(b)の左目用のBML文書1410は、対応するBML文書のURLを記載可能とするよう拡張されたARIB規格に基づくBML文書の一例を示す図である。
 拡張した3d要素(1411)では、view属性に自BML文書が左目用であるか右目用であるかを記載し、link_bml属性に、対応するBML文書のURLを記載する。3d要素1411では、具体的には、view属性の値がleftであることから自BML文書が左目用であることを示しており、link_bmlに記載されている「/40/0000/aaa02.bml」は、対応する右目用のBML文書のURLを示す。
 この場合、左目用又は右目用のBML文書の一方を取得すれば、対応するBML文書のURLを把握できるため、「browser.launchDocument」など、他のBML文書に遷移するための関数について、引数を追加する必要はない。すなわち関数1412には、遷移先のBML文書のうち一方の(例えば左目用の)BML文書のURLのみ記載しておけば良い。また、関数1412で指定されたURLである「/40/0000/bbb01.bml」にアクセスしてbbb01.bmlを取得した後に、bbb01.bmlに記載された3d要素を参照し、対応する他方のBML文書を取得するようにもできる。また、この関数1412についても、関数1401と同様の、遷移先のBML文書のURLを2つ記載可能とするような拡張をしてもよい。
(12)上述の実施形態で示した左右データ放送画像の出力処理、同期出力処理等を、データ放送表示装置100のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるための機械語或いは高級言語のプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路等を介して流通させ頒布することもできる。このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM、フラッシュメモリ等がある。流通、頒布された制御プログラムはプロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより各実施形態で示したような各機能が実現されるようになる。なお、プロセッサは、制御プログラムを直接実行する他、コンパイルして実行或いはインタプリタにより実行してもよい。
(13)上述の実施形態で示した各機能構成要素(デマルチプレクサ101、ビデオデコーダ102、左目映像出力部103、右目映像出力部104、データ放送解析部107、レイアウト取得部108、ユーザ入力受付部109、左右データ放送同期部110、左目データ放送作成部111、右目データ放送作成部112、左目表示生成部115、右目表示生成部116、表示部117など)は、その機能を実行する回路として実現されてもよいし、1又は複数のプロセッサによりプログラムを実行することで実現されてもよい。なお、上述の各機能構成要素は典型的には集積回路であるLSIとして実現される。これらは個別に1チップされてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
(14)上述の実施形態及び各変形例を、部分的に組み合せてもよい。
<5.補足>
 以下、更に本発明の一実施形態としてのデータ放送表示装置の構成及びその変形例と効果について説明する。
(a)本発明の一実施形態に係るデータ放送表示装置は、左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置であって、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段と、前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了する毎に通知する表示データ生成手段と、所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段とを備える。
 この構成により、複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点のオブジェクトの少なくとも一方の生成が完了していないものがあったとしても、左目視点及び右目視点の両オブジェクトの生成が完了しているものについてデータ放送画像に配置され、表示がなされる。よって、表示するデータ放送画像についてユーザが立体視できる状態を確保しつつ、データ放送画像について何ら表示されない状態が継続することでユーザが覚える不快感を従来よりも低減することができる。
(b)また、前記オブジェクトデータは、前記表示データ生成手段におけるオブジェクトの生成単位である単位オブジェクトが複数結合して成る結合オブジェクト毎に送信されており、前記表示データ生成手段は、前記左目視点及び右目視点のオブジェクトの生成を行う場合、前記結合オブジェクトを分割した前記単位オブジェクト毎に行い、前記通知を単位オブジェクトそれぞれの生成が完了する毎に行い、前記表示制御手段は、前記左目視点及び右目視点の両オブジェクトについて通知を受けているか否かの判断を、単位オブジェクト毎に行うこととしてもよい。
 また、前記結合オブジェクトは、制御文字を含む文字列オブジェクトであり、前記表示データ生成手段は、前記制御文字より前の第1の文字列オブジェクトと、前記制御文字より後の第2の文字列オブジェクトのそれぞれを単位オブジェクトして生成を開始することとしてもよい。
 また、前記結合オブジェクトは、文字種の異なる第1の文字列オブジェクトと第2の文字列オブジェクトとを含む文字列オブジェクトであり、前記表示データ生成手段は、前記第1の文字列オブジェクトと前記第2の文字列オブジェクトのそれぞれを単位オブジェクトして生成を開始することとしてもよい。
 この構成により、データ放送画像にオブジェクトを含めるか否かの判断を、送信側がオブジェクトデータを生成する単位として定めた結合オブジェクト毎にではなく、データ放送表示装置側で定めた、より小さな単位である単位オブジェクト毎に行うことができる。
(c)また、前記オブジェクトデータは、前記表示データ生成手段におけるオブジェクトの生成単位である単位オブジェクトより小さな部分オブジェクト毎に送信されており、
 前記表示データ生成手段は、前記左目視点及び右目視点のオブジェクトの生成を行う場合、複数の部分オブジェクトから成る単位オブジェクト毎に行い、前記通知を単位オブジェクトそれぞれの生成が完了する毎に行い、前記表示制御手段は、前記左目視点及び右目視点の両オブジェクトについて通知を受けているか否かの判断を、単位オブジェクト毎に行うこととしてもよい。
 また、前記部分オブジェクトのそれぞれは、前記データ放送画像における配置位置が指定されており、前記表示データ生成手段は、配置位置が重なる複数の部分オブジェクトを1つの単位オブジェクトとして生成を開始することとしてもよい。
 この構成により、データ放送画像にオブジェクトを含めるか否かの判断を、送信側がオブジェクトデータを生成する単位として定めた部分オブジェクト毎にではなく、データ放送表示装置側で定めた、より大きな単位である単位オブジェクト毎に行うことができる。
(d)また、前記受信手段は、前記オブジェクトデータを放送波から受信することとしてもよい。
 この構成により、放送によりオブジェクトデータを取得し左目視点及び右目視点の両オブジェクトを生成することができる。
(e)本発明の一実施形態に係るデータ放送表示方法は、受信手段、表示データ生成手段及び表示制御手段を備え、かつ左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置に用いられるデータ放送表示方法であって、前記受信手段が、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信ステップと、前記表示データ生成手段が、前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了した場合に通知する表示データ生成ステップと、前記表示制御手段が、所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御ステップとを含む。
 本発明の一実施形態に係るデータ放送表示プログラムは、コンピュータを、左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置として機能させるためのデータ放送表示プログラムであって、前記コンピュータを、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段と、前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了した場合に通知する表示データ生成手段と、所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段として機能させる。
 この構成により、複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点のオブジェクトの少なくとも一方の生成が完了していないものがあったとしても、左目視点及び右目視点の両オブジェクトの生成が完了しているものについてデータ放送画像に配置され、表示がなされる。よって、表示するデータ放送画像についてユーザが立体視できる状態を確保しつつ、データ放送画像について何ら表示されない状態が継続することでユーザが覚える不快感を従来よりも低減することができる。
 本発明の一形態に係るデータ放送表示装置は、表示するデータ放送画像についてユーザが立体視できる状態を確保しつつ、データ放送画像について何ら表示されない状態が継続することでユーザが覚える不快感を従来よりも低減することができるものであり、3Dデータ放送の受信側の端末装置等として有効である。
 100  データ放送表示装置
 101  デマルチプレクサ
 102  ビデオデコーダ
 103  左目映像出力部
 104  右目映像出力部
 105  左目映像FB
 106  右目映像FB
 107  データ放送解析部
 108  レイアウト取得部
 109  ユーザ入力受付部
 110  同期データ制御部
 111  左目データ放送作成部
 112  右目データ放送作成部
 113  左目データ放送FB
 114  右目データ放送FB
 115  左目表示生成部
 116  右目表示生成部
 117  表示部
 118  ディスプレイ

Claims (9)

  1.  左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置であって、
     左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段と、
     前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了する毎に通知する表示データ生成手段と、
     所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段とを備える
     ことを特徴とするデータ放送表示装置。
  2.  前記オブジェクトデータは、前記表示データ生成手段におけるオブジェクトの生成単位である単位オブジェクトが複数結合して成る結合オブジェクト毎に送信されており、
     前記表示データ生成手段は、前記左目視点及び右目視点のオブジェクトの生成を行う場合、前記結合オブジェクトを分割した前記単位オブジェクト毎に行い、前記通知を単位オブジェクトそれぞれの生成が完了する毎に行い、
     前記表示制御手段は、前記左目視点及び右目視点の両オブジェクトについて通知を受けているか否かの判断を、単位オブジェクト毎に行う
     ことを特徴とする請求項1記載のデータ放送表示装置。
  3.  前記結合オブジェクトは、制御文字を含む文字列オブジェクトであり、
     前記表示データ生成手段は、前記制御文字より前の第1の文字列オブジェクトと、前記制御文字より後の第2の文字列オブジェクトのそれぞれを単位オブジェクトして生成を開始する
     ことを特徴とする請求項2記載のデータ放送表示装置。
  4.  前記結合オブジェクトは、文字種の異なる第1の文字列オブジェクトと第2の文字列オブジェクトとを含む文字列オブジェクトであり、
     前記表示データ生成手段は、前記第1の文字列オブジェクトと前記第2の文字列オブジェクトのそれぞれを単位オブジェクトして生成を開始する
     ことを特徴とする請求項2記載のデータ放送表示装置。
  5.  前記オブジェクトデータは、前記表示データ生成手段におけるオブジェクトの生成単位である単位オブジェクトより小さな部分オブジェクト毎に送信されており、
     前記表示データ生成手段は、前記左目視点及び右目視点のオブジェクトの生成を行う場合、複数の部分オブジェクトから成る単位オブジェクト毎に行い、前記通知を単位オブジェクトそれぞれの生成が完了する毎に行い、
     前記表示制御手段は、前記左目視点及び右目視点の両オブジェクトについて通知を受けているか否かの判断を、単位オブジェクト毎に行う
     ことを特徴とする請求項1記載のデータ放送表示装置。
  6.  前記部分オブジェクトのそれぞれは、前記データ放送画像における配置位置が指定されており、
     前記表示データ生成手段は、配置位置が重なる複数の部分オブジェクトを1つの単位オブジェクトとして生成を開始する
     ことを請求項5記載のデータ放送表示装置。
  7.  前記受信手段は、前記オブジェクトデータを放送波から受信する
     ことを特徴とする請求項1記載のデータ放送表示装置。
  8.  受信手段、表示データ生成手段及び表示制御手段を備え、かつ左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置に用いられるデータ放送表示方法であって、
     前記受信手段が、左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信ステップと、
     前記表示データ生成手段が、前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了する毎に通知する表示データ生成ステップと、
     前記表示制御手段が、所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御ステップとを含む
     ことを特徴とするデータ放送表示方法。
  9.  コンピュータを、左目視点及び右目視点のオブジェクトの組により表現される3Dオブジェクトを複数含むデータ放送画像を表示するためのデータ放送表示装置として機能させるためのデータ放送表示プログラムであって、
     前記コンピュータを、
     左目視点及び右目視点のオブジェクトそれぞれを生成するためのオブジェクトデータを受信する受信手段と、
     前記受信したオブジェクトデータを用いて前記複数の3Dオブジェクトそれぞれについての左目視点及び右目視点のオブジェクトの生成を開始し、それぞれ生成が完了する毎に通知する表示データ生成手段と、
     所定のタイミング毎に、前記複数の3Dオブジェクトそれぞれに関し、左目視点及び右目視点の両オブジェクトについて前記通知を受けているか否かを判断し、通知を受けていると判断された場合には、表示するデータ放送画像に前記両オブジェクトとも含め、通知を受けていないと判断された場合には、表示するデータ放送画像に前記両オブジェクトのいずれも含めないよう制御する表示制御手段として機能させる
     ことを特徴とするデータ放送表示プログラム。
PCT/JP2012/003333 2011-05-24 2012-05-22 データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム WO2012160808A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
BR112013013035A BR112013013035A8 (pt) 2011-05-24 2012-05-22 Dispositivo de exibição de difusão de dados, método de exibição de difusão de dados, e programa de exibição de difusão de dados
CN201280003557.XA CN103201770B (zh) 2011-05-24 2012-05-22 数据广播显示装置、数据广播显示方法
JP2013516208A JP6112417B2 (ja) 2011-05-24 2012-05-22 データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161489396P 2011-05-24 2011-05-24
US61/489,396 2011-05-24

Publications (1)

Publication Number Publication Date
WO2012160808A1 true WO2012160808A1 (ja) 2012-11-29

Family

ID=47216899

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003333 WO2012160808A1 (ja) 2011-05-24 2012-05-22 データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム

Country Status (5)

Country Link
US (1) US9154767B2 (ja)
JP (1) JP6112417B2 (ja)
CN (1) CN103201770B (ja)
BR (1) BR112013013035A8 (ja)
WO (1) WO2012160808A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150334382A1 (en) * 2012-12-26 2015-11-19 Yan Xu Method and apparatus for content presentation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259052A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2010268432A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
WO2011058704A1 (ja) * 2009-11-10 2011-05-19 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MXPA03001029A (es) 2000-08-04 2003-05-27 Dynamic Digital Depth Res Pty Tecnica de codificacion y conversion de imagen.
JP4578294B2 (ja) 2005-03-18 2010-11-10 株式会社エヌ・ティ・ティ・データ三洋システム 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム
KR20110018261A (ko) 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
JP5609336B2 (ja) * 2010-07-07 2014-10-22 ソニー株式会社 画像データ送信装置、画像データ送信方法、画像データ受信装置、画像データ受信方法および画像データ送受信システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010259052A (ja) * 2009-04-03 2010-11-11 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2010268432A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
WO2011058704A1 (ja) * 2009-11-10 2011-05-19 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法

Also Published As

Publication number Publication date
US20120299908A1 (en) 2012-11-29
CN103201770B (zh) 2016-01-06
US9154767B2 (en) 2015-10-06
JP6112417B2 (ja) 2017-04-12
CN103201770A (zh) 2013-07-10
JPWO2012160808A1 (ja) 2014-07-31
BR112013013035A8 (pt) 2017-07-11
BR112013013035A2 (pt) 2016-08-09

Similar Documents

Publication Publication Date Title
KR101539935B1 (ko) 3차원 비디오 영상 처리 방법 및 장치
JP6563043B2 (ja) 映像表示システム
KR101675041B1 (ko) 해상도가 향상된 3d 비디오 렌더링 시스템 및 방법
JP6233859B2 (ja) Web漫画の多国語サポートシステム
CN102207870B (zh) 多语言版本的软件界面自适应方法及系统
WO2012054251A3 (en) Combining video data streams of differing dimensionality for concurrent display
JP2010146504A (ja) 情報処理システム及び表示制御方法
KR102459652B1 (ko) 표시장치와 그 영상 처리 방법
CN102184082A (zh) 一种基于双目视差原理的3d浏览器实现方法
US8427530B2 (en) Image processing apparatus, image processing method, and program
JP2014500642A (ja) 立体映像表示装置およびそのディスプレイ方法
CN103177467A (zh) 一种利用Direct3D技术创作裸眼3D字幕的方法
US8836757B2 (en) 3D image providing device, display device, and method thereof
JP6112417B2 (ja) データ放送表示装置、データ放送表示方法及びデータ放送表示プログラム
JP4989760B2 (ja) 送信装置、受信装置および伝送システム
DE112018006952T5 (de) Anzeigevorrichtung und Verfahren zur Bildverarbeitung dafür
ITTO20100905A1 (it) Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
JP5408906B2 (ja) 画像処理装置
US9479766B2 (en) Modifying images for a 3-dimensional display mode
CN105975259A (zh) 一种3d空间用户界面的实现方法及其装置
CN103491416A (zh) 字幕数据的单图层显示方法和装置
EP2402909A1 (en) Stereoscopic presentation system
US20110157162A1 (en) Image processing device, image processing method, and program
US10554946B2 (en) Image processing for dynamic OSD image
CN107077271A (zh) 图像显示装置、电视接收机、以及图像显示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12789577

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013516208

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12789577

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013013035

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112013013035

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130524