WO2012067021A1 - 情報統合装置、情報表示装置、情報記録装置、情報統合方法、情報統合プログラム、および、情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

情報統合装置、情報表示装置、情報記録装置、情報統合方法、情報統合プログラム、および、情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2012067021A1
WO2012067021A1 PCT/JP2011/076012 JP2011076012W WO2012067021A1 WO 2012067021 A1 WO2012067021 A1 WO 2012067021A1 JP 2011076012 W JP2011076012 W JP 2011076012W WO 2012067021 A1 WO2012067021 A1 WO 2012067021A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
video
complementary
main
integration
Prior art date
Application number
PCT/JP2011/076012
Other languages
English (en)
French (fr)
Inventor
田島 秀春
洋史 貴島
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/881,454 priority Critical patent/US9270975B2/en
Publication of WO2012067021A1 publication Critical patent/WO2012067021A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing

Definitions

  • the present invention relates to an information integration device that enables viewing of 3D video (3D video) obtained by converting 2D (D) video content into 3D.
  • Patent Document 1 discloses that main video information is transmitted in the conventional manner, the complementary information necessary for displaying 3D video is compressed to be minimized, and then transmitted using a gap in the frequency band.
  • a transmission method that enables transmission of 3D video using a transmission method of 2D broadcasting is disclosed.
  • Patent Document 2 3D broadcasting corresponding to the DFD method (Depth-Fused 3-D: 3D display method not using glasses) or the like is added to the RGB information in the current broadcasting method.
  • a 3D video transmission method to be realized is disclosed.
  • Japanese Patent Publication Japanese Patent Laid-Open No. Sho 63-256091 (published Oct. 24, 1988)”
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2004-274642 (published on September 30, 2004)”
  • the transfer rate of the current broadcast format (broadcast format of terrestrial digital broadcasting) is 17 Mbps at the maximum
  • the transfer rate of the main broadcast is approximately 15 Mbps
  • the data broadcast is broadcast at 2 Mbps, so the maximum transfer rate is increased.
  • 3D video at the current broadcast level (image quality) of 2D video cannot be broadcast.
  • Patent Documents 1 and 2 that transmit 3D video using the current broadcasting format have a problem that 3D video broadcasting at the current 2D video broadcasting level cannot be realized.
  • the present invention has been made in view of the above-described conventional problems, and provides an information integration device that enables viewing of 3D video without changing the current broadcast format or without reducing image quality. For the purpose.
  • the information integration apparatus of the present invention receives a main information receiving unit that receives main information including 2D video content and complementary information for converting the 2D video content into a stereoscopic video.
  • An integration unit that integrates the main information and the complementary information as stereoscopic video information using the complementary information receiving unit, the main information received by the main information receiving unit, and the complementary information received by the complementary information receiving unit; It is characterized by providing.
  • the information integration method of the present invention integrates main information including 2D video content and complementary information for converting the 2D video content into 3D video as 3D video information.
  • An information integration method executed by an apparatus comprising: a main information receiving step for receiving the main information; a complementary information receiving step for receiving the complementary information; the main information received in the main information receiving step; and the complementary
  • the integration step of integrating the main information and the complementary information as stereoscopic video information is performed using the complementary information received in the information receiving step.
  • the main information including at least two-dimensional video content (hereinafter referred to as 2D video content) among the main information and the complementary information is a broadcast format (hereinafter referred to as 2D broadcast format) for transmitting the current 2D video content. Can be used for transmission.
  • the stereoscopic video information includes main information received by the main information receiving unit (main information receiving step), and complementary information received by the complementary information receiving unit (complementary information receiving step). Therefore, the main information and the complementary information may be transmitted to the information integration apparatus, and it is not necessary to directly transmit the stereoscopic video information itself.
  • the transmission method using the current 2D broadcasting format can be used as it is.
  • the stereoscopic video information is obtained by complementing the main information including the 2D video content with the supplemental information, the stereoscopic video information is information that can display the stereoscopic video while maintaining the image quality of the 2D video content. That is, if this stereoscopic video information is used, 3D video can be viewed with the same image quality as 2D broadcasting.
  • examples of “2D video content” include moving images (including music, audio data, and text data such as subtitles), and still images such as images for frame-by-frame playback.
  • pseudo 3D information for pseudo-three-dimensional video (3D conversion) of 2D video content and 2D video content as either a right-eye video or a left-eye video
  • the left-eye video or the right-eye video can be exemplified.
  • the “complementary information” for realizing 3D conversion does not have to be actual video data, and may be differential information for 2D video content (right-eye video or right-eye video). It does not have to be a thing, and it is sufficient if it is complementary information for realizing 3D conversion of 2D video.
  • the information integration apparatus of the present invention receives the main information receiving unit that receives the main information including the 2D video content, and the complementary information reception that receives the complementary information for converting the 2D video content into a stereoscopic image. And an integration unit that integrates the main information and the complementary information as stereoscopic video information using the main information received by the main information receiving unit and the complementary information received by the complementary information receiving unit. It is a configuration.
  • the information integration method of the present invention integrates main information including 2D video content and complementary information for converting the 2D video content into 3D video as 3D video information.
  • the information integration method executed by the main information receiving step for receiving the main information, the complementary information receiving step for receiving the complementary information, the main information received in the main information receiving step, and the complementary information This is a method of executing an integration step of integrating the main information and the complementary information as stereoscopic video information using the complementary information received in the reception step.
  • FIG. 3 is a block diagram illustrating a configuration of 3D glasses included in the stereoscopic video display system. It is a block diagram which shows the structure of the three-dimensional video display system which is other embodiment of this invention. It is a block diagram which shows the structure of the three-dimensional video integration apparatus provided in the said three-dimensional video display system. It is a block diagram which shows the structure of the three-dimensional video display system which is further another embodiment of this invention. It is a block diagram which shows the structure of the three-dimensional video display system which is further another embodiment of this invention.
  • FIGS. 1 to 8 An embodiment of the present invention will be described with reference to FIGS. 1 to 8 as follows. Descriptions of configurations other than those described in the following specific embodiments may be omitted as necessary, but are the same as those configurations when described in other embodiments. For convenience of explanation, members having the same functions as those shown in each embodiment are given the same reference numerals, and the explanation thereof is omitted as appropriate.
  • Embodiment 1 (Configuration of stereoscopic video display system 1001) First, the overall configuration of a stereoscopic video display system (information display device, information recording device) 1001 according to an embodiment of the present invention will be described based on FIG. 2, and then the stereoscopic video display system 1001 will be described based on FIG. A configuration of the provided stereoscopic video integration device (information integration device) 100 will be described.
  • FIG. 2 is a block diagram showing a configuration of the stereoscopic video display system 1001.
  • the stereoscopic video display system 1001 includes 3D glasses 10, a 3D display (information display device, information recording device) 20, and a stereoscopic video integration device 100.
  • the stereoscopic video integration device 100 includes a first antenna 30 for receiving main information 2 including at least 2D video content (two-dimensional video content) and complementary information for converting the main information 2 into a stereoscopic video (3D). 3 is connected to a second antenna 40 for receiving 3.
  • the 2D video content included in the main information 2 includes a plurality of left-eye video information L (main frame), and the supplementary information 3 includes a plurality of right-eye video information R (complementary frames).
  • examples of “2D video content” include moving images (including music, audio data, and text data such as subtitles), and still images such as images for frame-by-frame playback.
  • Data formats of “2D video content” include Flash related to video (Web animation software sold by Macromedia), JPEG (Joint Photographic Experts Group) system related to still image compression, MPEG (Moving related to video compression) For example, the “Picture Experts Group” method.
  • the MPEG system is a standard for compressing / decompressing video and audio, which is recommended as a standard technology by ITU-T (International Telecommunication Union Telecommunication Standardization Sector) and ISO (International Standard).
  • ITU-T International Telecommunication Union Telecommunication Standardization Sector
  • ISO International Standard
  • the MPEG system includes MPEG1, which is used for media such as a video CD, MPEG2 which is used for DVD (Digital versatile disc) and broadcast media, network distribution, and MPEG4 for mobile terminals.
  • Bluetooth registered trademark
  • Felica PLC (power line communication)
  • Wireless LAN wireless LAN: WLAN
  • IrDA infrared wireless
  • IrSS infrared wireless
  • TransferJet And distribution by wired or wireless communication such as WCDMA (communication network).
  • examples of “broadcast contents” include NTSC (national television system commit committee) system, PAL (phase alternative system by line) system, SECAM (sequential 07 system memoire system), HD-MAC (High definition-multiple analogue component) method, ATV (advanced television) method TV broadcast, dual audio multiplex broadcast, stereophonic audio multiplex broadcast, broadcast satellite (BS) or communication satellite (CS) Satellite broadcasting, cable broadcasting TV (cable television: CATV), high definition television (extended television: EDTV), high definition television (high definition television: HDTV), MUSE system, 1seg, 3seg And broadcast programs such as digital terrestrial broadcasting The
  • complementary information 3 examples include the case where pseudo 3D information for pseudo 3D conversion of 2D video content and the case where the 2D video content is either right-eye video information R or left-eye video information L
  • the left-eye video information L or the right-eye video information R can be exemplified.
  • “complementary information 3” for realizing 3D conversion need not be actual video data, and may be difference information for 2D video content (right-eye video information R or right-eye video information L). In the first place, the information is not related to video data, and may be any supplemental information for realizing 3D conversion of 2D video.
  • the stereoscopic video integration device 100 integrates the main information 2 received by the first antenna 30 and the complementary information 3 received by the second antenna 40 to integrate integrated information 4 (stereoscopic video information). ) And output the stereoscopic video information to the 3D display 20 as 3D video.
  • the integrated information 4 is obtained by synchronizing a plurality of left-eye video information L and a plurality of right-eye video information R by alternately arranging them for each frame.
  • the 3D display 20 includes a left-eye video 6L (main frame) corresponding to the left-eye video information L output from the input integrated information 4, and a right-eye video 6R (complementary frame) corresponding to the right-eye video information R. Are alternately displayed for each frame.
  • the 3D glasses 10 are active shutter glasses. In other words, the 3D glasses 10 alternately open the shutters for the right eye shutter 11 and the left eye shutter 12 so as to correspond to the right eye video 6R and the left eye video 6L that are alternately displayed on the 3D display 20. In this way, 3D video is shown using the viewer's parallax.
  • the right-eye shutter 11 of the 3D glasses 10 is controlled to open and the left-eye shutter 12 is closed, and the left-eye image 6L is displayed.
  • the left-eye shutter 12 of the 3D glasses 10 is opened and the right-eye shutter 11 is closed.
  • the shutter opening / closing synchronization at this time is performed by the synchronization signal receiving unit 13 provided in the 3D glasses 10 receiving the shutter opening / closing synchronization signal transmitted from the 3D display 20.
  • the shutter opening / closing control is performed by a shutter control unit 14 (FIG. 4) described later.
  • the 3D video display method described above is a time sequential method, but the 3D video display method is not limited to this, and other examples include a polarization method, a lenticular method, and a parallax barrier method.
  • a polarizing element is superposed as a retardation film on a display panel (for example, a liquid crystal display) of the 3D display 20, and a left-eye image 6L and a right-eye image 6R are polarized with orthogonal polarization for each line (horizontal scanning line). indicate.
  • Three-dimensional images are obtained by separating the images of the lines having different polarization directions for each line using polarized glasses.
  • a special lens called a lenticular lens is placed on the pixel of the display panel of the 3D display 20 so that different images are displayed depending on the viewing angle.
  • a lenticular lens is formed by laying a large number of kamaboko-shaped convex lenses each having a size of several pixels in an array.
  • the left-eye video 6L and the right-eye video 6R are once decomposed for each pixel and rearranged (rendered) again on the pixels of the 3D display 20.
  • the viewing angle is different between the right eye and the left eye, so it appears as a 3D image.
  • a feature of this method is that 3D images can be viewed with the naked eye without wearing special glasses.
  • a barrier having an opening is placed in front of a display panel (for example, a liquid crystal display) of the 3D display 20, and the line-of-sight angle passing through the opening is different for both eyes.
  • a 3D image is obtained using the separation phenomenon.
  • This method can also view 3D images with the naked eye without wearing special glasses.
  • FIG. 1 is a block diagram illustrating a configuration of the stereoscopic video integration device 100.
  • the stereoscopic video integration device 100 outputs a reception unit 101 that receives the main information 2 and the complementary information 3, and the integrated information 4 as stereoscopic video information from the received main information 2 and the complementary information 3.
  • an integration unit 102 an integration unit 102.
  • the receiving unit 101 includes a tuner 111 connected to the first antenna 30, a tuner 112 connected to the second antenna 40, a compressed data decompression mechanism 113 connected to the tuner 111, and compressed data connected to the tuner 112. And a thawing mechanism 114.
  • the tuner 111 and the compressed data decompression mechanism 113 connected to the first antenna 30 constitute a main information receiving unit for receiving a TV broadcast of 2D video content (left-eye video information L) as the main information 2, Complementary information reception for receiving supplementary information (right-eye video information R) for converting 2D video content as supplementary information 3 into 3D by the tuner 112 and the compressed data decompression mechanism 114 connected to the second antenna 40 Parts.
  • the tuner 111 receives the left-eye video information L that is the main information 2 through the first antenna 30 as the content. Further, the tuner 112 receives the right-eye video information R that is the complementary information 3 via the second antenna 40 as the content.
  • the tuner 111 and the tuner 112 are provided separately, and the tuner 112 receives the complementary information 3 from a channel different from the channel used by the tuner 111 to receive the main information 2. It has become.
  • the information received by the receiving unit 101 (left-eye video information L, right-eye video information R) is compressed in a predetermined format, it is decompressed (decompressed) by the subsequent compressed data decompression mechanisms 113 and 114. Is output to the integration unit 102.
  • the compressed data decompression mechanism 113 outputs the left-eye video information L, which has been decompressed according to the compression format of the received main information 2, to the synchronization state confirmation unit 121 of the subsequent integration unit 102 and the compressed data
  • the decompression mechanism 114 outputs the right-eye video information R that has undergone decompression processing according to the compression format of the received complementary information 3 to the synchronization state confirmation unit 122 of the subsequent integration unit 102.
  • the integration unit 102 includes a synchronization state confirmation unit 121 connected to the compressed data decompression mechanism 113, a synchronization state confirmation unit 122 connected to the compressed data decompression mechanism 114, a memory 123 connected to the synchronization state confirmation unit 121, a synchronization A memory 124 connected to the state confirmation unit 122, a memory 123, and an array processing unit 125 connected to the memory 124 are included.
  • the synchronization state confirmation units 121 and 122 confirm the synchronization information attached to the acquired information, confirm the arrangement order based on the synchronization information, and the left-eye video information L and the right-eye video information R Are temporarily stored in the memory 123 and the memory 124, respectively.
  • the “synchronization information” (1) a synchronization signal that informs the reception side of the signal reception timing in order to reliably detect information “bit” to be transmitted, or (2) 3D video (for the left eye) on the 3D display 20 When projecting the image 6L or the right-eye image 6R), there are two timings for displaying the scanning line and the timing for displaying the scanning line to the bottom of the screen and then returning to the top of the screen and starting to display the next screen. A signal etc. can be illustrated.
  • the synchronization information may include information such as the total number of frames constituting each 2D video content and the total number of frames included in the complementary information.
  • a channel for transmitting complementary information 3 is provided separately from a channel for transmitting main information 2 as in this embodiment, and is synchronized with either main information 2 or complementary information 3.
  • a “synchronous communication method” that includes information may be used, or the start and end of the signal may be specified for each group of signals that transmit the main information 2 or the complementary information 3 (for example, every frame).
  • An “asynchronous communication” method in which a pattern synchronization signal is added to send information may be adopted.
  • the synchronization state confirmation unit 121 to specify the arrangement order of the left-eye video information L temporarily recorded in the memory 123.
  • the left-eye video information L may be stored in the memory 123 by the total number of frames, and the recording position of the first frame or the last frame of the left-eye video information L may be specified.
  • the arrangement order of the left-eye video information L up to the first frame or the last frame can be specified, so that the arrangement processing unit 125 knows in what order the left-eye video information L should be read from the memory 123.
  • the arrangement of the right-eye video information R temporarily recorded in the memory 124 can be similarly specified. Note that reception of one frame can be realized by, for example, including information indicating the start and end of the frame in each frame.
  • the array processing unit 125 converts the left-eye video information L stored in the memory 123 and the right-eye video information R stored in the memory 124 into the left-eye video information L from the identified first frame to the last frame. And the left-eye video information L and the right-eye video information R alternately for each frame from the first frame to the last frame in accordance with the arrangement order of the right-eye video information R from the first frame to the last frame. And 3D video is output as the integrated information 4.
  • the array processing unit 125 synchronizes the input left-eye video information L and the right-eye video information R with temporary recording (stored in the memory 123 and the memory 124) and synchronization information (frame 1 for data broadcasting). (Assuming that it is attached by R or the like), synchronization is performed based on that, and the left-eye video information L (main frame) and the right-eye video information R (complementary frame) are displayed in one frame (1 The frames are alternately arranged for each frame) and output to the 3D display 20 as 3D video (stereoscopic video).
  • the integrating unit 102 corresponds to each of the plurality of left-eye video information L included in the plurality of left-eye video information L included in the main information 2 and the plurality of left-eye video information L included in the complementary information 3.
  • the left-eye video information L and the right-eye video information R corresponding to the left-eye video information L are adjusted by time adjustment for alternately arranging the plurality of right-eye video information R for each frame. May be synchronized.
  • the transmission rate of the information 2 and the complementary information 3 and the main information 2 and the complementary information 3 are compressed information
  • the integration unit 102 alternately arranges the left-eye video information L and the right-eye video information R corresponding to the left-eye video information L for each frame using the synchronization information.
  • Time adjustment may be performed.
  • finer time adjustments such as adjustment of subtle time intervals between the frames using the synchronization information are possible.
  • the integration unit 102 records at least one of the left-eye video information L and the right-eye video information R corresponding to the left-eye video information L in the memories (temporary recording units) 123 and 124, thereby
  • the time adjustment for alternately arranging the video information L for video and the video information R for the right eye corresponding to the video information L for the left eye may be performed every frame.
  • the left-eye video information L and the right-eye video information R corresponding to the left-eye video information L are recorded. Since the timing of inputting the right-eye video information R corresponding to the information L to the array processing unit 125 can be adjusted, the above-described synchronization information is not necessary.
  • FIG. 3 is a block diagram showing a configuration of the 3D display 20.
  • the 3D display 20 includes a content acquisition unit 210, a demodulation unit 211, a selector unit 212, a control unit 213, a video processing unit (display control unit, recording control unit) 214, and a frame memory (recording unit) 215.
  • the content acquisition unit 210 is a means for acquiring content data such as video and audio supplied from the outside.
  • the content acquisition unit 210 includes tuner units 201 and 202, a satellite broadcast tuner unit 203, an IP broadcast tuner unit 204, an HDMI receiver 205, and an external input unit 206.
  • HDMI stands for High ⁇ Definition Multimedia Interface.
  • Tuner units 201 and 202 acquire content of analog broadcast signals and terrestrial digital broadcast signals.
  • the tuner units 201 and 202 supply the acquired video signal and audio signal of the content to the demodulation unit 211, respectively.
  • Satellite broadcast tuner unit 203 acquires the content of the satellite broadcast signal and supplies the video signal and audio signal of the acquired content to demodulation unit 211, respectively.
  • the IP broadcast tuner unit 204 acquires content from a device (for example, a server device) connected via a network, and supplies video and audio of the acquired content to the selector unit 212.
  • the network is not particularly limited. For example, a network using a telephone line or a LAN can be used.
  • the HDMI receiver 205 acquires content via the HDMI cable, and supplies video and audio of the acquired content to the selector unit 212.
  • the external input unit 206 acquires content supplied from an external device connected to the 3D display 20 and supplies video and audio of the acquired content to the selector unit 212.
  • the external device include an HDD (Hard Disk Drive), an external memory, a BD (Blu-ray (registered trademark) Disk) player, a DVD (Digital Versatile Disk) player, a CD (Compact Disk) player, and a game machine.
  • the above-described stereoscopic video integration device 100 is connected to the HDMI receiver 205. Thereby, the operation by the remote controller or the like on the 3D display 20 side can be linked to the stereoscopic video integration device 100.
  • the interlocking operation of the stereoscopic video integration device 100 will be described later.
  • the demodulator 211 demodulates the video signal and audio signal supplied from the tuner units 201 and 202 and the satellite broadcast tuner unit 203, and supplies the demodulated video and audio to the selector unit 212.
  • the selector unit 212 selects a video and audio to be reproduced from the supplied video and audio, supplies the selected video to the video processing unit 214, and selects the selected audio.
  • the audio processing unit 218 is supplied.
  • control unit 213 determines which video to display and output from the video and audio acquired by the content acquisition unit 210, which will be described later, to the selector unit 212. An instruction of which video and audio are to be reproduced is notified.
  • the control unit 213 supplies the video processing unit 214 with a switching timing signal for instructing a switching timing for sequentially displaying a plurality of different videos on the display unit 216 when a plurality of different videos are selected as playback targets.
  • control unit 213 makes the 3D glasses 10 distinguish a plurality of different videos (left-eye video 6L and right-eye video 6R) displayed on the display unit 216, and the switching timing of the video displayed on the display unit 216.
  • the synchronization signal transmission unit 217 is instructed to transmit a synchronized synchronization signal (image discrimination signal) for the open / close shutter.
  • control unit 213 instructs the audio processing unit 218 to output audio from the audio signal transmission unit 219 or the speaker 221.
  • control unit 213 controls each component included in the 3D display 20 in an integrated manner.
  • the function of the control unit 213 is such that, for example, a CPU (central processing unit) stores a program stored in a storage device (not shown) realized by a ROM (read only memory) or the like in a RAM (random access memory) or the like (not shown). This can be realized by reading and executing.
  • the video processing unit 214 stores the video supplied from the selector unit 212 in the frame memory 215 in units of frames.
  • the video processing unit 214 stores each video in a different area of the frame memory 215, and based on the switching timing signal supplied from the control unit 213, Each video is read from the frame memory in units of frames and supplied to the display unit 216.
  • the display unit 216 displays a frame unit video supplied from the video processing unit 214.
  • the synchronization signal transmission unit 217 transmits a synchronization signal for the open / close shutter to the synchronization signal reception unit 13 of the 3D glasses 10 based on an instruction from the control unit 213.
  • the synchronization signal transmission unit 217 employs a configuration for transmitting a synchronization signal by wireless communication.
  • the present invention is not limited to this, and synchronization is performed via a communication cable such as LAN or HDMI.
  • a signal may be transmitted.
  • the wireless communication in the synchronization signal transmission unit 217 can be realized by, for example, infrared communication, TransferJet, or the like.
  • the audio processing unit 218 supplies the audio supplied from the selector unit 212 to the audio signal transmission unit 219 or the audio amplifier 220 based on an instruction from the control unit 213.
  • the audio amplifier 220 supplies the audio supplied from the audio processing unit 218 to the speaker 221 and drives the speaker 221 so as to output the supplied audio. As a result, the speaker 221 outputs the sound supplied from the sound amplifier 220.
  • the operation unit 222 receives a user instruction performed by operating the operation unit 222 and supplies the received user instruction to the control unit 213.
  • the remote control light receiving unit 223 acquires a user instruction performed by operating a remote controller (remote controller) (not shown), and supplies the acquired user instruction to the control unit 213.
  • the user instruction may include a selection instruction for selecting which video to be displayed on the display unit 216 from among the videos acquired by the content acquisition unit 210.
  • the video processing unit 214 shown in FIG. 3 corresponds to the recording control unit
  • the frame memory 215 corresponds to the recording unit. It has a function.
  • the information recording apparatus of the present invention is not limited to the form having both the function of the information display apparatus and the function of the information recording apparatus, and may be separate from the 3D display 20.
  • FIG. 4 is a block diagram illustrating a configuration of the 3D glasses 10.
  • the 3D glasses 10 are active shutter glasses, and include a right-eye shutter 11, a left-eye shutter 12, a synchronization signal receiving unit 13, and a shutter control unit 14.
  • the synchronization signal receiving unit 13 receives the synchronization signal for the open / close shutter transmitted from the synchronization signal transmitting unit 217 of the 3D display 20 and supplies the received synchronization signal to the shutter control unit 14.
  • the shutter control unit 14 alternately opens and closes the right-eye shutter 11 and the left-eye shutter 12 based on the supplied synchronization signal. Specifically, for example, when the synchronization signal is a signal that takes a binary value of a high level (H level) and a low level (L level), the shutter control unit 14 indicates that the supplied synchronization signal is at the H level. Sometimes the right-eye shutter 11 is opened, the left-eye shutter 12 is closed, and the image is transmitted only through the right-eye shutter 11, while the right-eye shutter 11 is closed when the synchronization signal is at L level. Then, by opening the left-eye shutter 12, control is performed so that only the left-eye shutter 12 transmits video.
  • the synchronization signal is a signal that takes a binary value of a high level (H level) and a low level (L level
  • the shutter control unit 14 indicates that the supplied synchronization signal is at the H level.
  • the right-eye shutter 11 is opened, the left-eye shutter 12 is closed, and the image is transmitted only through
  • the user viewing the 3D display 20 can view the right-eye image 6R displayed on the 3D display 20 with the right eye when the right-eye shutter 11 of the 3D glasses 10 is open,
  • the shutter 12 is open, the left-eye image 6L displayed on the 3D display 20 can be viewed with the left eye.
  • the user integrates the left and right images according to the parallax between the left and right eyes and recognizes them as a 3D image.
  • the tuner 111 of the 3D video integration device 100 connected to the 3D display 20 is interlocked and the user operates.
  • the combined 2D broadcast (2D video content) of the TV station is received as main information 2.
  • the tuner 112 works in conjunction with the channel on which the supplementary information 3 designated by the TV station is broadcast, and the 2D broadcast received by the tuner 111 is converted to 3D. Complementary information 3 is received.
  • the received signal is decompressed (decompressed) by the compressed data decompression mechanisms 113 and 114 in accordance with the respective compression formats to become the left-eye video information L and the right-eye video information R, which are input to the integration unit 102, respectively.
  • the integration unit 102 distributes the synchronization state of the left-eye video information L and the right-eye video information R along with at least one of the main information 2 and the complementary information 3 by the synchronization state confirmation units 121 and 122. Based on the synchronization information, in order to synchronize the left-eye video 6L and the right-eye video 6R, the video information on the side to be delayed is recorded in the memories 123 and 124 for temporarily recording from the synchronization information. After synchronizing in this way, the arrangement processing unit 125 arranges the left-eye video 6L and the right-eye video 6R so as to be alternately arranged, and displays the display unit 216 via the HDMI receiver 205 of the 3D display 20 as 3D video. Output to.
  • the 3D display 20 when synchronization is performed so that the left-eye video information L and the right-eye video information R are alternately arranged for each frame, the 3D display 20 includes a left-eye video 6L obtained from the left-eye video information L and Since the right-eye video 6R obtained from the right-eye video information R is alternately displayed for each frame, the user uses the 3D glasses 10 to display only the right eye when the right-eye video 6R is displayed.
  • the left-eye video 6L is displayed, it can be recognized as a three-dimensional video by viewing only with the left eye.
  • the integration unit 102 synchronizes the main information 2 and the complementary information 3 based on the synchronization information distributed along with at least one of the main information 2 and the complementary information 3, and Although the complementary information 3 is arranged and integrated as the integrated information 4, the above-described synchronization method is not limited to this.
  • the left-eye video information L and the right-eye video information R may be alternately arranged for each frame and integrated as integrated information 4.
  • a synchronization signal for synchronizing the main information 2 and the complementary information 3 is used for data broadcasting. Since the area can be used for recording, when the main information 2 and the complementary information 3 on the broadcast station side are transmitted, precise synchronization is not required.
  • the example in which the supplementary information 3 is transmitted in the same transmission format as the main information 2 has been described. It is not necessary to use the same transmission format, and transmission via the Internet may be used. In the following embodiment, an example in which the supplementary information 3 is transmitted via the Internet will be described.
  • FIG. 5 is a block diagram showing a configuration of a stereoscopic video display system (information display device, information recording device) 1002 according to the present embodiment.
  • the stereoscopic video display system 1002 is different from the stereoscopic video display system 1001 in the first embodiment in that a stereoscopic video integration device 300 is provided instead of the stereoscopic video integration device 100. . Since other components are not different between the stereoscopic video display system 1002 and the stereoscopic video display system 1001, detailed description of each component is omitted.
  • FIG. 6 is a block diagram illustrating a configuration of the stereoscopic video integration device 300.
  • the stereoscopic video integration device 300 includes a receiving unit (main information receiving unit, complementary information receiving unit) 301 that receives the main information 2 and the complementary information 3, and the received main information 2 and complementary information 3. And an integration unit 302 that outputs integrated information 4 as stereoscopic video information.
  • the receiving unit 301 includes a tuner (main information receiving unit) 311 connected to the first antenna 303, an Internet terminal device (complementary information receiving unit) 312 connected to the web server 400 via the Internet 304, and compressed data decompression.
  • a mechanism 313, a compressed data decompression mechanism 314, and a memory (temporary recording unit) 315 are included.
  • the tuner 311 connected to the first antenna 303 and the compressed data decompression mechanism 313 constitute a main information receiving unit for receiving 2D video content TV broadcast (left-eye video information L) as the main information 2. Yes.
  • This is the same as the stereoscopic video integration device 100 in the first embodiment.
  • the difference is the configuration of the complementary information receiving unit that acquires the complementary information 3.
  • the supplementary information receiving unit includes an Internet terminal device 312 connected to the web server 400 via the Internet 304, a compressed data decompression mechanism 314, and a memory 315.
  • the tuner 311 receives the left-eye video information L that is the main information 2 through the first antenna 303 as content, as in the first embodiment.
  • the supplementary information receiving unit receives the video information R for the right eye, which is the supplementary information 3, by the internet terminal device 312 via the internet.
  • the information received by the receiving unit 301 (left-eye video information L, right-eye video information R) is compressed in a predetermined format, it is decompressed (decompressed) by the compressed data decompression mechanisms 313 and 314 at the subsequent stage. After that, the compressed data decompression mechanism 313 on the main information 2 side is output to the integration unit 302 as it is, and the compressed data decompression mechanism 314 on the complementary information 3 side is temporarily stored in the memory 315 and then integrated at a predetermined timing. The data is output to the unit 302.
  • the compressed data decompression mechanism 313 outputs the left-eye video information L that has been decompressed according to the compression format of the acquired main information 2 to the synchronization state confirmation unit 321 of the integration unit 302 at the subsequent stage.
  • the compressed data decompression mechanism 314 temporarily stores the right-eye video information R, which has been decompressed in accordance with the compression format of the acquired complementary information 3, in the memory 315, and stores the right-eye video information R at a predetermined timing.
  • the data is output to the synchronization state confirmation unit 322.
  • the reason why the complementary information 3 is temporarily stored in the memory 315 is to avoid the following situation.
  • the supplementary information receiving unit records the supplementary information 3 obtained on the Internet before the broadcast in the memory 315 so that the Internet line is congested and the broadcast is not in time. You can avoid the situation.
  • the integration unit 302 is connected to the synchronization state confirmation unit 321 connected to the compressed data decompression mechanism 313, the synchronization state confirmation unit 322 connected to the compressed data decompression mechanism 314 via the memory 315, and the synchronization state confirmation unit 321.
  • the memory 323, the memory 324 connected to the synchronization state confirmation unit 322, the memory 323, and the array processing unit 325 connected to the memory 324 are included.
  • the integration unit 302 has the same configuration as that of the integration unit 102 of the stereoscopic video integration device 100 in the first embodiment, and a detailed description thereof will be omitted.
  • synchronization of the input left-eye video information L and right-eye video information R is temporarily recorded (stored in the memory 323 and the memory 324) or a synchronization signal (frame 1-R for data broadcasting). Is assumed to be attached), and the left-eye video information L (main frame) and the right-eye video information R (complementary frame) are taken for each frame (one frame). Are integrated alternately to generate integrated information 4 and output it to the 3D display 20 as 3D video (stereoscopic video information).
  • the means for acquiring the complementary information 3 may be distributed from the web server 400 via the Internet 304 instead of using the 2D broadcast wave.
  • the same effects as those of the first embodiment are obtained.
  • the 3D video integration device 300 having the above-described configuration also enables 3D video viewing without changing the current broadcast format or without reducing the image quality.
  • the supplementary information 3 may be acquired not via the Internet but via a cable that transmits a television signal by cable TV.
  • the Internet terminal device 312 of the stereoscopic video integration device 300 is simply replaced with a cable television set box.
  • the reception units 101 and 301 and the integration units 102 and 302 that receive the main information and the complementary information are provided. Therefore, the main information 2 (main broadcast) is broadcast in the normal 2D broadcast format, and the supplementary information 3 is transmitted via another channel or the Internet, so that the 3D video image with the current 2D image quality can be viewed. it can. Therefore, the risk of the TV station is reduced, and as a result, there is an advantage that the viewer can easily obtain the 3D video.
  • the example in which the reception units 101 and 301 directly connected to the antenna are provided with the integration units 102 and 302 has been described.
  • the units 101 and 301 may be built in the 3D display 20 and the integration units 102 and 302 may be externally attached to the 3D display 20.
  • FIG. 7 is a block diagram showing a configuration of a stereoscopic video display system (information display device, information recording device) 1003 according to the present embodiment.
  • the stereoscopic video display system 1003 has substantially the same configuration as the stereoscopic video display system 1001 shown in FIG. 2 of the first embodiment, and the receiving unit 101 in the stereoscopic video integration device 100 is connected to the 3D display 20. It differs in that it is built in.
  • the receiving unit (main information receiving unit, complementary information receiving unit) 101 includes a first receiving unit (main information receiving unit) 101 a connected to the first antenna 30 and a second receiving unit (connected to the second antenna 40 ( Complementary information receiving unit) 101b.
  • the first receiving unit 101a constitutes a main information input unit including a tuner 111 and a compressed data decompression mechanism 113.
  • the second receiving unit 101b configures a complementary information input unit including a tuner 112 and a compressed data decompression mechanism 114.
  • the receiving unit 101 when the receiving unit 101 is built in the 3D display 20, only the tuners 111 and 112 are required, and the compressed data decompression mechanisms 113 and 114 may be provided on the integration unit 102 side.
  • the tuners 111 and 112 may use a tuner originally built in the 3D display 20.
  • the left-eye video information L and the complementary information included in the main information 2 acquired by the receiving unit 101 are the same as the stereoscopic video display system 1001 described in other embodiments.
  • 3 is integrated by the integrating unit 102 to generate integrated information 4 and output to the 3D display 20 as a 3D image.
  • the stereoscopic image display system 1003 having the above configuration also provides the same effects as those of the first and second embodiments. That is, it is possible to view 3D video without changing the current broadcast format or without reducing the image quality.
  • the present invention is not limited to this. May be provided not on the 3D glasses 10 side but on the 3D display 20 side.
  • Embodiment 4 an example of a 3D display method including a shutter for switching left and right images on the 3D display side will be described.
  • FIG. 8 is a block diagram showing a configuration of the stereoscopic video display system 1004 according to the present embodiment.
  • a stereoscopic video display system (information display device, information recording device) 1004 includes a stereoscopic video integration device 100 or a stereoscopic video integration device 300, a 3D display (information display device) 1010, and polarization glasses 7, as shown in FIG.
  • the stereoscopic video integration devices 100 and 300 are the stereoscopic video integration devices (information integration devices) described in the first and second embodiments, respectively.
  • the 3D display 1010 includes a display unit 1011 and a liquid crystal shutter 1012.
  • the display unit 1011 and the liquid crystal shutter 1012 are connected by a wiring 1011A, and the display unit 1011 and the polarizing glasses 7 are connected by a wiring 1011B.
  • the display unit 1011 receives 3D video information as the integrated information 4 generated by the 3D video integration devices 100 and 300, and displays 3D video.
  • the display unit 1011 is configured with a TV, a projector, or the like.
  • the liquid crystal shutter 1012 is composed of a liquid crystal or the like and can switch between two transmitted deflection lights.
  • the polarizing glasses 7 have liquid crystal shutters on the left and right (or different deflection plates on the left and right, respectively) in order to view the left-eye video information L and the right-eye video information R in a predetermined frame order via the liquid crystal shutter 1012. )
  • the parallax of the human eye is used, and the left and right image 6L and the right eye image 6R are projected to the left and right by the polarizing glasses 7 to be visualized as a 3D image. .
  • a liquid crystal shutter 1012 that can switch between two transmitted and deflected light beams composed of a liquid crystal or the like uses, for example, the transmitted right eye image 6R as vertical deflection and the left eye image 6L as horizontal deflection. In this manner, the deflection angle of light for each field can be changed by controlling the liquid crystal shutter 1012.
  • the polarizing glasses 7 may have different left and right deflection plates (vertical deflection and lateral deflection) attached thereto, and a field synchronization signal corresponding to the timing at which the display unit 1011 controls the liquid crystal shutter 1012 via the wiring 1011A.
  • the wiring 1011B for supplying the light from the display unit 1011 to the polarizing glasses 7 becomes unnecessary.
  • liquid crystal shutter 1012 when the liquid crystal shutter 1012 is not used, it is necessary to provide a liquid crystal shutter in the polarizing glasses 7, and the wiring 1011B for the field synchronization signal is necessary.
  • the information integration device is not limited to the stereoscopic video integration device described in the first to fourth embodiments, and may have any configuration as long as it has at least the following configuration. Good.
  • a tuner having a terminal that can be connected to an antenna is provided as a main information input unit capable of acquiring a TV broadcast of 2D video content (video information L for the left eye).
  • the left-eye video information L and the right-eye video information R that are input are temporarily recorded, and a synchronization signal (assuming that the data broadcasting unit is accompanied by the frame 1-R or the like) is attached. If there is, an integration unit for arranging and outputting the main frame and the complementary frame for each frame (one frame) should be provided.
  • the main information 2 described in the first to fourth embodiments may be 2D video content (for example, left-eye video information L), and is not limited to distribution by TV broadcast waves. Distribution via an external network such as the Internet may also be used.
  • 2D video content for example, left-eye video information L
  • Distribution via an external network such as the Internet may also be used.
  • the complementary information 3 may be information necessary for converting 2D video content (for example, right-eye video information R) and main information 2 into 3D, and is not limited to distribution by TV broadcast waves. Or by an external network such as the Internet.
  • a method of attaching a synchronization signal for synchronizing the main information 2 and the complementary information 3 a method of attaching data such as “frame 1 left” for each frame in the area of data broadcasting in digital terrestrial broadcasting, A method of recording in a format (like a time signal) actually displayed at the corner of the screen may be used.
  • the present invention is not limited to this.
  • the present invention can also be applied to a 3D display that does not use the 3D glasses 10 and the polarizing glasses 7.
  • the integration unit 102 may further include a video production unit that automatically creates multi-view video information based on the main information 2 and the complementary information 3.
  • the technique disclosed in Patent Document 1 transmits the main video signal (similar to main information) as before and compresses the sub-video signal (similar to complementary information) to a minimum.
  • This is a 3D video transmission method that achieves both 2D broadcasting and 3D broadcasting by transmitting using a gap in the frequency band.
  • the technique disclosed in Patent Document 2 is a 3D video transmission method that realizes 3D broadcasting corresponding to DFD (3D display system without glasses) in the current broadcasting system, and includes depth information. It is a transmission method corresponding to adding RGB information.
  • the information integration apparatus adopts the above-described configuration, so that it is possible to perform 3D broadcasting without degrading image quality while maintaining both 2D broadcasting and 3D broadcasting without changing the current broadcasting format. Therefore, there is an advantage that the user can easily obtain high-quality stereoscopic video.
  • each block of the stereoscopic video integration devices 100 and 300 in particular, the reception units 101 and 301 and the integration units 102 and 302 are realized by hardware by a logic circuit formed on an integrated circuit (IC chip). Alternatively, it may be realized by software using a CPU (Central Processing Unit).
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the three-dimensional video integration devices 100 and 300 have a CPU (Central processor Unit) that executes program instructions for realizing each function, a ROM (Read Memory) that stores the program, and a RAM ( Random Access Memory), and a storage device (recording medium) such as a memory for storing the program and various data.
  • a CPU Central processor Unit
  • ROM Read Memory
  • RAM Random Access Memory
  • recording medium such as a memory for storing the program and various data.
  • An object of the present invention is to provide program codes (execution format program, intermediate code program, source program) of control programs (information integration program, etc.) of the stereoscopic video integration apparatuses 100 and 300 which are software for realizing the functions described above.
  • the readable recording medium is supplied to the 3D image integration apparatuses 100 and 300, and the computer (or CPU or MPU ⁇ Micro Processor Unit>) reads and executes the program code recorded on the recording medium. Can also be achieved.
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • IC cards including memory cards
  • semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, or PLD (Programmable logic device) or FPGA (Field Programmable Gate Array) Logic circuits can be used.
  • the stereoscopic video integration devices 100 and 300 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • This communication network is not particularly limited as long as it can transmit the program code.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. can be used.
  • VPN Virtual Private Network
  • telephone line network mobile communication network
  • satellite communication network etc.
  • the transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type.
  • wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, TransferJet, Bluetooth (registered trademark), IEEE 802.11 wireless
  • It can also be used wirelessly such as HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, terrestrial digital network.
  • the present invention is a computer program encoded in a computer-readable medium, wherein the information integration apparatus includes the readable medium and is executed by a computer when each of the information integration apparatuses It can also be realized as a computer program for realizing the function of the means.
  • the present invention can also be expressed as follows.
  • the integration unit corresponds to each of the plurality of main frames constituting the 2D video content included in the main information and the plurality of main frames included in the complementary information.
  • the main frame and the complementary frame corresponding to the main frame may be synchronized by performing time adjustment for alternately arranging a plurality of complementary frames.
  • the integration unit synchronizes the main frame with the complementary frame corresponding to the main frame. More specifically, synchronization is achieved by alternately arranging the main frames constituting the 2D video content and the complementary frames corresponding to the main frames for each frame.
  • the time adjustment for alternately arranging each main frame and each complementary frame corresponding to each main frame is performed in consideration of the decompression time and the like. There is a need. Therefore, according to the above configuration, by performing the time adjustment described above, it is possible to appropriately synchronize the main frame and the complementary frame corresponding to the main frame.
  • At least one of the main information and the complementary information includes synchronization information for synchronizing the main frame and the complementary frame corresponding to the main frame, and the integration The unit may perform time adjustment for alternately arranging the main frame and the complementary frame corresponding to the main frame for each frame using the synchronization information.
  • a signal indicating the timing for displaying a scanning line and a signal indicating the timing for returning to the top of the screen and starting to display the next screen, etc. can do.
  • the integration unit records at least one of the main frame and the complementary frame corresponding to the main frame in a predetermined temporary recording unit, The time adjustment for alternately arranging the complementary frames corresponding to the main frame every frame may be performed.
  • main information main frame
  • complementary information complementary frame
  • the display control device of the present invention may include a display control unit that performs processing for displaying the stereoscopic video information integrated by the information integration device.
  • the display control apparatus is configured to display the stereoscopic video information integrated using the information integration apparatus described above, so that the current 2D broadcast format is not changed, or It is possible to view 3D video without degrading the image quality.
  • the information recording apparatus of the present invention may include a recording control unit that performs a process of storing the stereoscopic video information integrated by the information integration apparatus in a predetermined recording unit.
  • the information recording apparatus records the stereoscopic video information generated using the above-described information integration apparatus in the predetermined recording unit. Can be watched quickly.
  • each unit and each step in the information integration apparatus and the information integration method may be realized by a computer.
  • the processing of each unit or each step is executed on the computer. Accordingly, an information integration program for realizing the information integration apparatus and the information integration method on a computer and a computer-readable recording medium on which the information integration program is recorded also fall within the scope of the present invention.
  • the present invention can be applied to a receiving device, an information display device equipped with the receiving device, an information recording device, etc., for a current 2D broadcast or a 2D video content distributed on the Internet.
  • stereoscopic image integration device (information integration device) 101 receiver (main information receiver, complementary information receiver) 101a First receiving unit (main information receiving unit) 101b 2nd receiving part (complementary information receiving part) 102 Integration unit 111 Tuner (main information receiving unit) 112 Tuner (complementary information receiver) 123 Memory (temporary recording unit) 124 memory (temporary recording unit) 214 Video processing unit (display control unit, recording control unit) 215 frame memory (recording unit) 300 stereoscopic image integration device (information integration device) 301 receiving unit (main information receiving unit, complementary information receiving unit) 302 Integration unit 311 Tuner (main information reception unit) 312 Internet terminal device (complementary information receiver) 315 Memory (temporary recording unit) 323 memory (temporary recording part) 324 memory (temporary recording unit)

Abstract

 2D映像コンテンツを含む主情報(2)と、該2D映像コンテンツを3D化するための補完情報(3)とを受信する受信部(101)と、受信部(101)が受信した主情報(2)および補完情報(3)を用いて主情報(2)と補完情報(3)とを統合情報(4)として統合する統合部(102)とを備える。これにより、現行の2D放送の放送形式を変更せず、または、画質を落とすことなく3D映像の視聴を可能にする。

Description

情報統合装置、情報表示装置、情報記録装置、情報統合方法、情報統合プログラム、および、情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、2次元(D)映像コンテンツを3D化した立体映像(3D映像)の視聴を可能にする情報統合装置などに関する。
 近年、立体映像を視聴するための立体映像表示装置(3Dディスプレイ)の開発に伴って、3D映像の伝送方式についても種々開発されている。
 例えば、特許文献1には、主映像情報を従来通りに伝送し、3D映像の表示に必要な補完情報を最小限になるように圧縮した上で、周波数帯域の隙間を用いて送信することにより、2D放送の伝送方式を利用して3D映像の伝送を可能にした伝送方式が開示されている。
 また、特許文献2には、現状の放送方式において、奥行き情報をRGB情報にプラスすることで、DFD方式(Depth-Fused 3-D:メガネを使わない3D表示方式)等に対応した3D放送を実現する3D映像の伝送方式が開示されている。
日本国公開特許公報「特開昭63-256091号公報(1988年10月24日公開)」 日本国公開特許公報「特開2004-274642号公報(2004年9月30日公開)」
 ところで、現行の放送形式では、TV放送の方式が2D映像用に合わせて規格されたものであるため、現状の2D映像の画質を保持した状態で3D映像の放送を行うことは困難である。
 例えば、2D映像を、画質を維持したまま3D映像とする場合、+約30%の情報量が必要になる。ところが、現在の放送形式(地上デジタル放送の放送形式)の転送レートは、最大17Mbpsであり、おおよそ本放送の転送レートが15Mbpsで、データ放送が2Mbpsで放送されているので、最大転送レートを増加させない限り、現在の2D映像の放送レベル(画質)の3D映像は放送できないことになる。
 従って、現行の放送形式を利用して3D映像を伝送している特許文献1および2などに記載の技術では、現行の2D映像の放送レベルでの3D映像の放送を実現できないという問題が生じる。
 本発明は、前記従来の問題点に鑑みなされたものであって、現行の放送形式を変更することなく、または、画質を落とすことなく3D映像の視聴を可能にする情報統合装置などを提供することを目的とする。
 本発明の情報統合装置は、上記課題を解決するために、2次元映像コンテンツを含む主情報を受信する主情報受信部と、上記2次元映像コンテンツを立体映像化するための補完情報を受信する補完情報受信部と、上記主情報受信部が受信した主情報、および、上記補完情報受信部が受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合部と、を備えることを特徴とする。
 本発明の情報統合方法は、上記課題を解決するために、2次元映像コンテンツを含む主情報と、上記2次元映像コンテンツを立体映像化するための補完情報とを立体映像情報として統合する情報統合装置により実行される情報統合方法であって、上記主情報を受信する主情報受信ステップと、上記補完情報を受信する補完情報受信ステップと、上記主情報受信ステップで受信した主情報、および上記補完情報受信ステップで受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合ステップとを実行することを特徴とする。
 ここで、主情報と補完情報のうち、少なくとも2次元映像コンテンツ(以下、2D映像コンテンツという)を含む主情報は、現行の2D映像コンテンツを伝送する放送形式(以下、2D放送形式と称する)を用いて伝送することが可能である。
 従って、上記構成または方法によれば、立体映像情報は、主情報受信部(主情報受信ステップ)で受信された主情報と、補完情報受信部(補完情報受信ステップ)で受信された補完情報とを統合して得られるので、情報統合装置まで伝送するのは、主情報と補完情報とでよく、立体映像情報そのものを直接伝送する必要は無い。
 これにより、現行の2D放送形式による伝送方式がそのまま使用できる。
 しかも、立体映像情報は、2D映像コンテンツを含む主情報を補完情報によって補完して得られるので、2D映像コンテンツの画質を維持した状態で立体映像の表示が可能な情報となる。つまり、この立体映像情報を用いれば、2D放送と同じ画質で3D映像の視聴が可能となる。
 以上のことから、現行の2D放送の放送形式を変更せずに、または、画質を落とすことなく3D映像の視聴を行うことが可能となる。
 ここで、「2D映像コンテンツ」の例としては、動画(音楽、音声データ、および字幕などのテキストデータなどを含む)の他、コマ送り再生用の画像などの静止画像なども含まれる。
 また、「補完情報」の例としては、2D映像コンテンツを擬似的に3次元映像化(3D化)するための擬似3D化情報や、2D映像コンテンツを右目用映像または左目用映像のいずれかとした場合の、左目用映像または右目用映像等が例示できる。
 すなわち、3D化を実現するための「補完情報」は実際の映像データである必要はなく、2D映像コンテンツ(右目用映像または右目用映像)に対しての差分情報でも良いし、そもそも映像データに関するものでなくてよく、2D映像の3D化を実現するための補完情報であれば良い。
 本発明の情報統合装置は、以上のように、2次元映像コンテンツを含む主情報を受信する主情報受信部と、上記2次元映像コンテンツを立体映像化するための補完情報を受信する補完情報受信部と、上記主情報受信部が受信した主情報、および、上記補完情報受信部が受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合部と、を備える構成である。
 また、本発明の情報統合方法は、以上のように、2次元映像コンテンツを含む主情報と、上記2次元映像コンテンツを立体映像化するための補完情報とを立体映像情報として統合する情報統合装置により実行される情報統合方法であって、上記主情報を受信する主情報受信ステップと、上記補完情報を受信する補完情報受信ステップと、上記主情報受信ステップで受信した主情報、および上記補完情報受信ステップで受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合ステップとを実行する方法である。
 それゆえ、現行の2D放送の放送形式を変更せずに、または、画質を落とすことなく3D映像の視聴を可能にするという効果を奏する。
 本発明の他の目的、特徴、および優れた点は、以下に示す記載によって十分分かるであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであろう。
本発明の一実施形態である立体映像統合装置の構成を示すブロック図である。 上記立体映像統合装置を備えた立体映像表示システムの構成を示すブロック図である。 上記立体映像表示システムに含まれる3Dディスプレイの構成を示すブロック図である。 上記立体映像表示システムに含まれる3Dメガネの構成をブロック図である。 本発明の他の実施形態である立体映像表示システムの構成を示すブロック図である。 上記立体映像表示システムに設けられた立体映像統合装置の構成を示すブロック図である。 本発明のさらに他の実施形態である立体映像表示システムの構成を示すブロック図である。 本発明のさらに他の実施形態である立体映像表示システムの構成を示すブロック図である。
 本発明の一実施形態について図1~図8に基づいて説明すれば、次の通りである。以下の特定の実施形態で説明する構成以外の構成については、必要に応じて説明を省略する場合があるが、他の実施形態で説明されている場合は、その構成と同じである。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
 〔実施の形態1〕
  (立体映像表示システム1001の構成)
 まず、図2に基づき、本発明の一実施形態である立体映像表示システム(情報表示装置、情報記録装置)1001の全体の構成について説明し、その後、図1に基づき、立体映像表示システム1001に設けられた立体映像統合装置(情報統合装置)100の構成について説明する。
 図2は、立体映像表示システム1001の構成を示すブロック図である。図2に示すように、立体映像表示システム1001は、3Dメガネ10、3Dディスプレイ(情報表示装置、情報記録装置)20および立体映像統合装置100を含む。
 立体映像統合装置100には、少なくとも2D映像コンテンツ(2次元映像コンテンツ)を含む主情報2を受信するための第1アンテナ30と、主情報2を立体映像化(3D化)するための補完情報3を受信するための第2アンテナ40とが接続されている。
 また、主情報2に含まれる2D映像コンテンツは、複数の左目用映像情報L(主フレーム)からなり、補完情報3は、複数の右目用映像情報R(補完フレーム)を含む。
 ここで、「2D映像コンテンツ」の例としては、動画(音楽、音声データ、および字幕などのテキストデータなどを含む)の他、コマ送り再生用の画像などの静止画像なども含まれる。
 「2D映像コンテンツ」のデータ形式としては、映像に関するFlash(マクロメディアが販売しているWeb用のアニメーション作成ソフト)、静止画像の圧縮に関するJPEG(Joint Photographic Experts Group)方式、動画の圧縮に関するMPEG(Moving Picture Experts Group)方式などが例示できる。
 なお、MPEG方式は、ITU-T(国際電気通信連合電気通信標準化部門)とISO(国際標準規格)によって標準技術として勧告された、動画や音声を圧縮・伸張する規格である。現在MPEG方式には、ビデオCDなどのメディアに使用されるMPEG1、DVD(Digital versatile disc)や放送メディアに使用されるMPEG2、ネットワーク配信、携帯端末向けのMPEG4などがある。
 さらに、「2D映像コンテンツ」の配信方法としては、Bluetooth(登録商標)、Felica、PLC(power line communication)、WirelessLAN(無線LAN:WLAN)、IrDA(赤外線無線)、IrSS(赤外線無線)、およびTransferJet、WCDMA(通信網)などの有線または無線通信による配信などが例示できる。
 また、「2D映像コンテンツ」のうち、「放送コンテンツ」の例としては、NTSC(national television system committee)方式、PAL(phase alternation by line)方式、SECAM(sequential couleur a memoire system)方式、HD-MAC(high definition-multiple analogue component)方式、ATV(advanced television)方式によるTV放送、二音声多重放送、ステレオホニック音声多重放送、放送衛星(broadcasting satellite:BS)若しくは通信衛星(communication satellite:CS)からの電波を利用した衛星放送、有線放送TV(cable television:CATV)、高画質テレビジョン(extended definition TV:EDTV)、高精細度テレビジョン(high definition TV:HDTV)、MUSE方式、ワンセグ、3セグ、および地上デジタル放送などの放送番組などが例示できる。
 「補完情報3」のその他の例としては、2D映像コンテンツを擬似的に3D化するための擬似3D化情報や、2D映像コンテンツを右目用映像情報Rまたは左目用映像情報Lのいずれかとした場合の、左目用映像情報Lまたは右目用映像情報R等が例示できる。
 すなわち、3D化を実現するための「補完情報3」は実際の映像データである必要はなく、2D映像コンテンツ(右目用映像情報Rまたは右目用映像情報L)に対しての差分情報でも良いし、そもそも映像データに関するものでなくてよく、2D映像の3D化を実現するための補完情報であれば良い。
 立体映像表示システム1001では、立体映像統合装置100によって、第1アンテナ30により受信された主情報2と、第2アンテナ40により受信された補完情報3とを統合して統合情報4(立体映像情報)を生成し、立体映像情報を3D映像として3Dディスプレイ20に出力する。この統合情報4は、複数の左目用映像情報Lと、複数の右目用映像情報Rとを1フレーム毎に交互に配列して同期をとったものである。
 3Dディスプレイ20では、入力された統合情報4から出力される左目用映像情報Lに対応する左目用映像6L(主フレーム)と、右目用映像情報Rに対応する右目用映像6R(補完フレーム)とを1フレーム毎に交互に表示する。
 3Dメガネ10は、アクティブシャッタ方式のメガネである。すなわち、3Dメガネ10は、3Dディスプレイ20において交互に表示されている右目用映像6Rと左目用映像6Lとに対応するように、右目用シャッタ11と左目用シャッタ12とを交互にシャッタが開放するようにして、視聴者の視差を利用して3D映像を見せている。
 ここで、3Dディスプレイ20に、右目用映像6Rが表示されているときには、3Dメガネ10の右目用シャッタ11が開き、左目用シャッタ12が閉じるように制御され、左目用映像6Lが表示されているときには、3Dメガネ10の左目用シャッタ12が開き、右目用シャッタ11が閉じる。このときのシャッタ開閉の同期は、3Dディスプレイ20から送信されるシャッタ開閉用の同期信号を、3Dメガネ10に設けられた同期信号受信部13が受信することで行う。また、シャッタ開閉制御は、後述するシャッタ制御部14(図4)によって行われる。
 以上説明した3D映像の表示方式は、タイムシーケンシャル方式であるが、3D映像の表示方式はこれに限られず、その他、偏光方式、レンチキュラー方式、パララックスバリア方式などを例示することができる。
 偏光方式では、偏光素子を3Dディスプレイ20の表示パネル(例えば、液晶ディスプレイ)上に位相差フィルムとして重ね合わせ、ライン(水平走査線)毎に直交する偏光で左目用映像6Lと右目用映像6Rを表示する。この偏光方向の異なるラインの映像を偏光メガネでライン毎に分離して立体映像を得る。
 レンチキュラー方式では、レンチキュラーレンズという特殊なレンズを3Dディスプレイ20の表示パネルの画素の上に置き、見る角度によって異なる映像が表示されるようにする。レンチキュラーレンズは1個が画素数個分の寸法のかまぼこ型の凸レンズを、多数アレイ状に敷き詰めたものである。表示パネルには左目用映像6Lと右目用映像6Rとを画素ごとに一度分解し、3Dディスプレイ20の画素に再び並べなおす(レンダリングする)。これを両目で見ると、右目と左目で見る角度が異なるため、3D映像に見える。この方式の特徴は、特殊なメガネをかけず裸眼で3D映像を視聴できることである。
 次に、パララックスバリア方式では、開口部を有するバリアを3Dディスプレイ20の表示パネル(例えば、液晶ディスプレイ)の前に置き、開口部を通過する視線角度が両眼で異なるので、この視差による視線分離現象を利用して3D映像を得る。この方式も、特殊なメガネをかけず裸眼で3D映像を視聴できる。
  (立体映像統合装置100の構成)
 図1は、立体映像統合装置100の構成を示すブロック図である。立体映像統合装置100は、図1に示すように、主情報2および補完情報3を受信する受信部101と、受信された主情報2および補完情報3から立体映像情報としての統合情報4を出力する統合部102とを備える。
 受信部101は、第1アンテナ30に接続されたチューナ111と、第2アンテナ40に接続されたチューナ112と、チューナ111に接続された圧縮データ解凍機構113と、チューナ112に接続された圧縮データ解凍機構114とを含む。
 第1アンテナ30に接続されたチューナ111と圧縮データ解凍機構113とで、主情報2としての2D映像コンテンツのTV放送(左目用映像情報L)を受信するための主情報受信部を構成し、第2アンテナ40に接続されたチューナ112と圧縮データ解凍機構114とで、補完情報3としての2D映像コンテンツを3D化させるための補完情報(右目用映像情報R)を受信するための補完情報受信部を構成する。
 すなわち、チューナ111は、コンテンツとして、第1アンテナ30を介して主情報2である左目用映像情報Lを受信する。また、チューナ112は、コンテンツとして、第2アンテナ40を介して補完情報3である右目用映像情報Rを受信する。
 なお、チューナ111とチューナ112とは別々に設けられており、チューナ112は、チューナ111が主情報2を受信するために使用しているチャンネルとは別のチャンネルから補完情報3を受信するようになっている。
 受信部101で受信した情報(左目用映像情報L、右目用映像情報R)は、所定の形式により圧縮されているので、後段の圧縮データ解凍機構113、114により解凍処理(伸張処理)が施された後、統合部102に出力される。
 すなわち、圧縮データ解凍機構113は、受信した主情報2の圧縮形式に応じて解凍処理を施した左目用映像情報Lを、後段の統合部102の同期状態確認部121に出力すると共に、圧縮データ解凍機構114は、受信した補完情報3の圧縮形式に応じて解凍処理を施した右目用映像情報Rを、後段の統合部102の同期状態確認部122に出力する。
 統合部102は、圧縮データ解凍機構113に接続された同期状態確認部121と、圧縮データ解凍機構114に接続された同期状態確認部122と、同期状態確認部121に接続されたメモリ123、同期状態確認部122に接続されたメモリ124、メモリ123およびメモリ124に接続された配列処理部125を含んでいる。
 同期状態確認部121、122は、それぞれ取得した情報に付随している同期情報を確認し、この同期情報に基づいて、配列する順番を確認し、左目用映像情報Lと右目用映像情報Rとをそれぞれメモリ123とメモリ124に一時的に記憶させる。
 「同期情報」としては、(1)伝送される情報「ビット」を確実に検出するために信号の受信タイミングを受信側に知らせる同期信号や、(2)3Dディスプレイ20上に3D映像(左目用映像6Lまたは右目用映像6R)を映し出す際に、走査線を表示するタイミングと、走査線を画面の下端まで表示した後、画面の上に戻って次の画面を表示し始めるタイミングを示す2つの信号などを例示することができる。また、その他、同期情報としては、2D映像コンテンツを構成する各フレームの総フレーム数や、補完情報に含まれる各補完フレームの総フレーム数などの情報が含まれていても良い。
 また、同期情報の通信方式としては、本実施形態のように、主情報2を伝送するチャンネルとは別に補完情報3を伝送するチャンネルを設け、主情報2および補完情報3のいずれか一方に同期情報を含めて送る「同期通信方式」を採用しても良いし、主情報2または補完情報3を伝送する信号の一まとまり毎(例えば、1フレーム毎)に、信号の始まりと終わりを表す特定パターンの同期用信号を付加して情報を送る「非同期通信」方式を採用しても良い。
 ここで、例えば、同期状態確認部121が、メモリ123に一時記録する左目用映像情報Lの配列順序を特定する方法としては、同期情報から左目用映像情報Lの総フレーム数を確認し、受信する順序で、左目用映像情報Lを総フレーム数の分だけメモリ123に格納し、左目用映像情報Lの先頭フレームまたは最終フレームの記録位置を特定することが考えられる。これにより、左目用映像情報Lの先頭フレームまたは最終フレームまでの配列順序を特定できるので、配列処理部125は、メモリ123からどの順序で左目用映像情報Lを読み出せば良いかが分かる。メモリ124に一時記録する右目用映像情報Rの配列も同様に特定できる。なお、1フレーム分の受信は、例えば、そのフレームの始まりと終わりを示す情報を各フレームに含めることにより実現できる。
 配列処理部125は、メモリ123に格納されている左目用映像情報Lと、メモリ124に格納されている右目用映像情報Rとを、特定された先頭フレームから最終フレームまでの左目用映像情報Lの配列順序と、特定された先頭フレームから最終フレームまでの右目用映像情報Rの配列順序に従って、先頭フレームから最終フレームまでの1フレーム毎に左目用映像情報Lと右目用映像情報Rとを交互に配列して、統合情報4として3D映像を出力する。
 すなわち、配列処理部125では、入力される左目用映像情報Lと右目用映像情報Rとの同期を、一時記録(メモリ123、メモリ124への格納)や、同期情報(データ放送にコマ1-R等で付随していることを想定)が付随されている場合はそれに基づいて同期を取り、左目用映像情報L(主フレーム)と右目用映像情報R(補完フレーム)とを一コマ(1フレーム)毎に交互に配列し、3D映像(立体映像)として3Dディスプレイ20に出力する。
 以上のように、統合部102は、主情報2に含まれる2D映像コンテンツを構成する複数の左目用映像情報Lと、補完情報3に含まれ、上記複数の左目用映像情報Lのそれぞれに対応する複数の右目用映像情報Rと、を1フレーム毎に交互に配列するための時間調整を行うことで、左目用映像情報Lと、該左目用映像情報Lに対応する右目用映像情報Rとの同期をとっても良い。
 このとき、チューナ(主情報受信部)111による主情報2(左目用映像情報L)の受信タイミング、チューナ(補完情報受信部)112による補完情報3(右目用映像情報R)の受信タイミング、主情報2および補完情報3の伝送レート、ならびに、主情報2および補完情報3が圧縮された情報である場合は、それらの解凍(伸長)時間などを考慮した上で、各左目用映像情報Lと、各左目用映像情報Lに対応する各右目用映像情報Rとを1フレーム毎に交互に配列するための時間調整を行う必要がある。
 ここで、上述したように、統合部102は、同期情報を用いて、左目用映像情報Lと、左目用映像情報Lに対応する右目用映像情報Rと、を1フレーム毎に交互に配列するための時間調整を行っても良い。これにより、同期情報を用いて各フレーム間の微妙な時間間隔を調整するなどのより細かな時間調整が可能となる。
 統合部102は、上述したように、左目用映像情報Lおよび左目用映像情報Lに対応する右目用映像情報Rの少なくとも一方を、メモリ(一時記録部)123、124に記録することで、左目用映像情報Lと、左目用映像情報Lに対応する右目用映像情報Rと、を1フレーム毎に交互に配列するための時間調整を行ってもよい。
 これにより、左目用映像情報Lおよび左目用映像情報Lに対応する右目用映像情報Rの少なくとも一方を、メモリ123、124に一時的に記録することで、左目用映像情報Lと、左目用映像情報Lに対応する右目用映像情報Rとを配列処理部125に入力するタイミングを調整できるので、上述した同期情報は必要ない。
 これにより、同期情報を用いた処理が不要になるので、別途そのような処理部を立体映像統合装置100に設ける必要がなく装置の簡略化を実現できる。また、同期情報の分だけ伝送される情報の伝送量を節約することができる。
  (3Dディスプレイ20の構成)
 図3は、3Dディスプレイ20の構成を示すブロック図である。3Dディスプレイ20は、図3に示すように、コンテンツ取得部210、復調部211、セレクタ部212、制御部213、映像処理部(表示制御部、記録制御部)214、フレームメモリ(記録部)215、表示部216、同期信号送信部217、音声処理部218、音声信号送信部219、音声アンプ220、スピーカ221、操作部222、リモコン受光部223を備えている。
 コンテンツ取得部210は、外部から供給される映像、音声などのコンテンツデータを取得する手段である。コンテンツ取得部210は、チューナ部201、202、衛星放送チューナ部203、IP放送チューナ部204、HDMIレシーバ205、および、外部入力部206を含んで構成される。なお、HDMIは、High Definition Multimedia Interfaceの略である。
 チューナ部201、202は、アナログ放送信号および地上波デジタル放送信号のコンテンツを取得する。チューナ部201、202は、取得したコンテンツの映像信号および音声信号をそれぞれ復調部211に供給する。
 衛星放送チューナ部203、衛星放送信号のコンテンツを取得し、取得したコンテンツの映像信号および音声信号をそれぞれ復調部211に供給する。
 IP放送チューナ部204は、ネットワークを介して接続された装置(例えば、サーバ装置)からコンテンツを取得し、取得したコンテンツの映像および音声をセレクタ部212に供給する。なお、ネットワークとしては、特に限定されるものではない。例えば、電話回線、LANなどを用いたネットワークを挙げることができる。
 HDMIレシーバ205は、HDMIケーブルを介してコンテンツを取得し、取得したコンテンツの映像および音声をセレクタ部212に供給する。
 外部入力部206は、3Dディスプレイ20に接続された外部機器にから供給されるコンテンツを取得し、取得したコンテンツの映像および音声をセレクタ部212に供給する。外部機器としては、HDD(Hard Disk Drive)、外部メモリ、BD(Blu-ray<登録商標> Disc)プレイヤ、DVD(Digital Versatile Disk)プレイヤ、CD(Compact Disc)プレイヤ、ゲーム機などが挙げられる。
 なお、上述した立体映像統合装置100は、上記HDMIレシーバ205に接続される。これにより、3Dディスプレイ20側でのリモコン等による操作を、立体映像統合装置100に連動させることができる。この立体映像統合装置100の連動動作については、後述する。
 復調部211は、チューナ部201、202および衛星放送チューナ部203から供給される映像信号および音声信号を復調し、復調された映像および音声をセレクタ部212に供給する。
 セレクタ部212は、制御部213からの指示に基づき、供給された映像および音声のうちから再生対象とする映像および音声を選択し、選択した映像を映像処理部214に供給し、選択した音声を音声処理部218に供給する。
 制御部213は、ユーザ指示に基づいて、後述するコンテンツ取得部210において取得される映像および音声のうち、いずれの映像を表示し、音声を出力するかを再生対象として決定し、セレクタ部212にいずれの映像および音声を再生対象とするかの指示を通知する。
 制御部213は、複数の異なる映像が再生対象として選択されている場合に、複数の異なる映像をそれぞれ表示部216に順に表示する切り替えタイミングを指示する切り替えタイミング信号を映像処理部214に供給する。
 また、制御部213は、表示部216に表示する複数の異なる映像(左目用映像6L、右目用映像6R)を、3Dメガネ10に区別させるため、表示部216に表示される映像の切り替えタイミングと同期した開閉シャッタ用の同期信号(映像判別信号)を送信するよう同期信号送信部217に指示する。
 さらに、制御部213は、音声を音声信号送信部219から出力するか、スピーカ221から出力するかを音声処理部218に指示する。
 また、制御部213は、3Dディスプレイ20が備える各構成を統括的に制御する。制御部213の機能は、例えばCPU(central processing unit)が、ROM(read only memory)等で実現された不図示の記憶装置に記憶されているプログラムを不図示のRAM(random access memory)等に読み出して実行することで実現できる。
 映像処理部214は、セレクタ部212から供給された映像をフレーム単位でフレームメモリ215に記憶する。映像処理部214は、複数の異なる映像がセレクタ部212から供給された場合には、それぞれの映像をフレームメモリ215の異なる領域に記憶し、制御部213から供給される切り替えタイミング信号に基づいて、それぞれの映像をフレーム単位でフレームメモリから読み出し、表示部216に供給する。表示部216は、映像処理部214から供給されるフレーム単位の映像を表示する。
 同期信号送信部217は、制御部213からの指示に基づいて、3Dメガネ10の同期信号受信部13に開閉シャッタ用の同期信号を送信する。なお、同期信号送信部217は、本実施形態では、無線通信によって同期信号を送信する構成を採用しているが、これに限定されるものではなく、LAN、HDMIなどの通信ケーブルを介して同期信号を送信しても良い。同期信号送信部217における無線通信は、例えば、赤外線通信、TransferJetなどによって実現することができる。
 音声処理部218は、制御部213からの指示に基づいて、セレクタ部212から供給された音声を音声信号送信部219または音声アンプ220に供給する。
 音声アンプ220は、音声処理部218から供給される音声をスピーカ221に供給すると共に、供給した音声を出力するようにスピーカ221を駆動する。これにより、スピーカ221は、音声アンプ220から供給された音声を出力する。
 また、操作部222は、操作部222を操作することによって行なわれるユーザ指示を受け付け、受け付けたユーザ指示を制御部213に供給する。リモコン受光部223は、不図示のリモートコントローラ(リモコン)を操作することによって行なわれるユーザ指示を取得し、取得したユーザ指示を制御部213に供給する。なお、ユーザ指示として、コンテンツ取得部210において取得される映像のうち、いずれの映像を表示部216に表示させるかを選択する選択指示などを挙げることができる。
 なお、本実施の形態の3Dディスプレイ20は、図3に示す映像処理部214が記録制御部に相当し、フレームメモリ215が記録部に相当するので、本発明の情報記録装置の一形態としての機能を具備している。しかしながら、本発明の情報記録装置はこのような情報表示装置の機能と情報記録装置の機能とを合わせもつ形態に限られず、3Dディスプレイ20と別体となっていても良い。
  (3Dメガネ10の構成)
 図4は、3Dメガネ10の構成を示すブロック図である。3Dメガネ10は、上述したように、アクティブシャッタ方式のメガネであり、右目用シャッタ11、左目用シャッタ12、同期信号受信部13、シャッタ制御部14を含む。
 同期信号受信部13は、3Dディスプレイ20の同期信号送信部217から送信された開閉シャッタ用の同期信号を受信し、受信した同期信号をシャッタ制御部14に供給する。
 シャッタ制御部14は、供給される同期信号に基づいて、右目用シャッタ11および左目用シャッタ12を交互に開閉する。具体的には、例えば、同期信号がハイレベル(Hレベル)とローレベル(Lレベル)との2値をとる信号であるとき、シャッタ制御部14は、供給される同期信号がHレベルであるときに右目用シャッタ11を開放し、左目用シャッタ12を閉じて、右目用シャッタ11にのみ映像を透過させるように制御し、一方、同期信号がLレベルであるときに右目用シャッタ11を閉じ、左目用シャッタ12を開放することで、左目用シャッタ12にのみ映像を透過させるように制御する。
 つまり、3Dディスプレイ20を視聴しているユーザは、3Dメガネ10の右目用シャッタ11が開いているときに3Dディスプレイ20に表示されている右目用映像6Rを右目で視ることができ、左目用シャッタ12が開いているときに3Dディスプレイ20に表示されている左目用映像6Lを左目で視ることができる。
 このときのユーザは、左右の目の視差により左右の映像を統合して3D映像として認識するようになる。
  (立体映像表示システム1001の基本的動作の説明)
 上記構成の立体映像表示システム1001における基本動作について、図1~図4を参照しながら以下に説明する。
 まず、3Dディスプレイ20側のリモコン等により、ユーザは3D放送を行っているTV局にTVのチャンネルを合わせると、3Dディスプレイ20に接続された立体映像統合装置100のチューナ111が連動してユーザが合わせたTV局の2D放送(2D映像コンテンツ)を主情報2として受信する。
 上記チューナ111による受信動作に連動して、同時に上記TV局が指定している補完情報3を放映しているチャンネルに合わせるべくチューナ112が連動し、チューナ111で受信した2D放送を3D化するための補完情報3を受信する。
 受信した信号はそれぞれの圧縮形式に応じて、圧縮データ解凍機構113、114により解凍(伸張)され、左目用映像情報Lと右目用映像情報Rとなり、統合部102にそれぞれ入力される。
 統合部102は、同期状態確認部121、122により、左目用映像情報Lと右目用映像情報Rとの同期状態を、主情報2および補完情報3のいずれか少なくとも一方に付随して配信された同期情報に基づき確認し、左目用映像6Lと右目用映像6Rの同期をとるために、上記同期情報から、遅らせたい側の映像情報を一時記録するためのメモリ123、124で記録する。このように同期をとった上で、配列処理部125は、左目用映像6Lと右目用映像6Rが交互に並ぶように配列し、3D映像として3Dディスプレイ20のHDMIレシーバ205を介して表示部216に出力する。
 ここで、左目用映像情報Lと右目用映像情報Rとを1フレーム毎に交互に配列させるように同期を取る場合、3Dディスプレイ20には、左目用映像情報Lから得られる左目用映像6Lと、右目用映像情報Rから得られる右目用映像6Rとが1フレーム毎に交互に表示されるので、ユーザは、上述した3Dメガネ10を用いて、右目用映像6Rが表示されているときには右目のみで見て、左目用映像6Lが表示されているときには左目のみで見ることで、立体映像として認識できる。
 なお、統合部102では、主情報2および補完情報3のいずれか少なくとも一方に付随して配信される同期情報に基づいて、主情報2と補完情報3との同期をとって、主情報2と補完情報3とを配列させて統合情報4として統合しているが、上記の同期の取り方はこれに限定されるものではない。
 例えば、左目用映像情報Lと右目用映像情報Rとが統合部102に入力されるタイミングで、主情報2に含まれる左目用映像情報Lと補完情報3に含まれる右目用映像情報Rとの同期をとって、左目用映像情報Lと右目用映像情報Rとを1フレーム毎に交互に配列させて統合情報4として統合するようにしてもよい。
 この場合、主情報2および補完情報3に付随して同期情報を配信する必要がないので、同期情報を用いた処理を行うための回路等を別途設ける必要がなくなり、その結果、装置の回路構成を簡略化できる。
 本実施の形態のように、主情報2と同様に、補完情報3もTV放送で配信される場合は、主情報2と補完情報3で同期を取るための同期用信号が、データ放送用の領域を使って記録することができるので、放送局側における主情報2と補完情報3とを送信する際に、緻密な同期を必要としなくなる。
 このように、本実施の形態1では、補完情報3を主情報2と同じ伝送形式(TV放送波に載せる形式)により伝送する例について説明したが、補完情報3の伝送は、主情報2と同じ伝送形式にする必要はなく、インターネットによる伝送であってもよい。以下の実施の形態では、補完情報3の伝送をインターネットによって行った例について説明する。
 〔実施の形態2〕
  (立体映像表示システム1002の構成)
 図5は、本実施の形態に係る立体映像表示システム(情報表示装置、情報記録装置)1002の構成を示すブロック図である。
 立体映像表示システム1002は、図5に示すように、前記実施の形態1における立体映像表示システム1001と相違するのは立体映像統合装置100の代わりに立体映像統合装置300を備えている点である。他の構成要素については、立体映像表示システム1002と立体映像表示システム1001とでは相違しないので、各構成要素について詳細な説明は省略する。
  (立体映像統合装置300の構成)
 図6は、立体映像統合装置300の構成を示すブロック図である。立体映像統合装置300は、図6に示すように、主情報2および補完情報3を受信する受信部(主情報受信部、補完情報受信部)301と、受信された主情報2および補完情報3から立体映像情報としての統合情報4を出力する統合部302とを備えている。
 受信部301は、第1アンテナ303に接続されたチューナ(主情報受信部)311と、インターネット304を介してウェブサーバー400に接続されたインターネット端末装置(補完情報受信部)312と、圧縮データ解凍機構313と、圧縮データ解凍機構314と、メモリ(一時記録部)315とを含んでいる。
 第1アンテナ303に接続されたチューナ311と圧縮データ解凍機構313とで、主情報2としての2D映像コンテンツのTV放送(左目用映像情報L)を受信するための主情報受信部を構成している。この点については、前記実施の形態1における立体映像統合装置100と同じである。異なるのは、補完情報3を取得する補完情報受信部の構成である。
 すなわち、補完情報受信部は、インターネット304を介してウェブサーバー400に接続されたインターネット端末装置312と圧縮データ解凍機構314とメモリ315とで構成されている。
 上記の構成の受信部301においても、前記実施の形態1と同様に、チューナ311は、コンテンツとして、第1アンテナ303を介して主情報2である左目用映像情報Lを受信する。
 一方、補完情報受信部では、補完情報3である右目用映像情報Rを、前記実施の形態1とは異なり、インターネット経由でインターネット端末装置312により受信する。
 受信部301で受信した情報(左目用映像情報L、右目用映像情報R)は、所定の形式により圧縮されているので、後段の圧縮データ解凍機構313、314により解凍処理(伸張処理)が施された後、主情報2側の圧縮データ解凍機構313からはそのまま統合部302に出力され、補完情報3側の圧縮データ解凍機構314からは一旦メモリ315に格納された後、所定のタイミングで統合部302に出力される。
 すなわち、圧縮データ解凍機構313は、取得した主情報2の圧縮形式に応じて解凍処理を施した左目用映像情報Lを、後段の統合部302の同期状態確認部321に出力する。
 一方、圧縮データ解凍機構314は、取得した補完情報3の圧縮形式に応じて解凍処理を施した右目用映像情報Rを、一旦メモリ315に格納して、所定のタイミングで後段の統合部302の同期状態確認部322に出力する。
 このように、補完情報3を一旦メモリ315に格納するのは、以下のような事態を避けるためである。
 すなわち、補完情報3をインターネットで配信する場合は、補完情報受信部が放送前にインターネット入手した補完情報3をメモリ315に記録しておくことで、インターネット回線が混雑し、放送に間に合わないような事態を避けることができる。
 統合部302は、圧縮データ解凍機構313に接続された同期状態確認部321と、メモリ315を介して圧縮データ解凍機構314に接続された同期状態確認部322と、同期状態確認部321に接続されたメモリ323、同期状態確認部322に接続されたメモリ324、メモリ323およびメモリ324に接続された配列処理部325を含んでいる。
 なお、統合部302は、前記実施の形態1における立体映像統合装置100の統合部102と同じ構成であるので、その詳細については省略する。
 配列処理部325では、入力される左目用映像情報Lと右目用映像情報Rとの同期を、一時記録(メモリ323、メモリ324への格納)や、同期用信号(データ放送にコマ1-R等で付随していることを想定)が付随されている場合はそれに基づいて取り、左目用映像情報L(主フレーム)と右目用映像情報R(補完フレーム)とを一コマ(1フレーム)毎に交互に配列して統合情報4を生成し、3D映像(立体映像情報)として3Dディスプレイ20に出力する。
 上記構成の立体映像表示システム1002のように、補完情報3を取得するための手段を、2D放送波を利用するのではなく、インターネット304を介してウェブサーバー400から配信されるようにしても、前記実施の形態1と同様の効果を奏する。
 すなわち、上記構成の立体映像統合装置300によっても、現行の放送形式を変更することなく、または、画質を落とすことなく3D映像の視聴を可能にする。
 また、補完情報3の取得をインターネット経由ではなく、ケーブルテレビによるテレビ信号を送信するケーブル経由であってもよい。この場合、立体映像統合装置300のインターネット端末装置312がケーブルテレビ用のセットボックスに置き換わるだけである。
 以上のように、実施の形態1および2の立体映像統合装置100、300によれば、何れも主情報および補完情報を受信する受信部101、301と、統合部102、302が設けられているので、主情報2(主放送)は通常の2D放送形式のまま放送した上で、別チャンネルまたはインターネットにより補完情報3を送信することにより、現状の2D画質を保持した状態での3D映像を視聴できる。そのため、TV局のリスクが低減されることになり、ひいては視聴者が3D映像を容易に入手することができるというメリットも有する。
 また、実施の形態1、2で説明した立体映像統合装置100、300は、何れもアンテナに直接接続された受信部101、301が統合部102、302とを設けた例について説明したが、受信部101、301を3Dディスプレイ20に内蔵させて、統合部102、302を3Dディスプレイ20の外付けとする構成としてもよい。
 以下の実施の形態3では、前記実施の形態1の立体映像統合装置100の受信部101を3Dディスプレイ20に設けた例について説明する。
 〔実施の形態3〕
  (立体映像表示システム1003の構成)
 図7は、本実施の形態に係る立体映像表示システム(情報表示装置、情報記録装置)1003の構成を示すブロック図である。立体映像表示システム1003は、図7に示すように、前記実施の形態1の図2に示す立体映像表示システム1001とほぼ同じ構成であり、立体映像統合装置100における受信部101が3Dディスプレイ20に内蔵されている点で異なる。
 受信部(主情報受信部、補完情報受信部)101は、第1アンテナ30に接続された第1受信部(主情報受信部)101aと、第2アンテナ40に接続された第2受信部(補完情報受信部)101bとを含んでいる。
 第1受信部101aは、図示しないが、チューナ111、圧縮データ解凍機構113で構成された主情報入力部を構成している。
 第2受信部101bは、図示しないが、チューナ112、圧縮データ解凍機構114で構成された補完情報入力部を構成している。
 なお、上記のように、受信部101を3Dディスプレイ20に内蔵する場合、チューナ111、112のみでよく、圧縮データ解凍機構113、114については、統合部102側に設けられてもよい。
 また、上記チューナ111、112は、3Dディスプレイ20に元々内蔵されたチューナを流用してもよい。
 上記構成の立体映像表示システム1003においても、他の実施の形態に記載の立体映像表示システム1001などと同じように、受信部101において取得した主情報2に含まれる左目用映像情報L、補完情報3に含まれる右目用映像情報Rを統合部102によって統合して統合情報4を生成し、3D映像として3Dディスプレイ20に出力するようになっている。
 上記構成の立体映像表示システム1003によっても、前記実施の形態1、2と同様の効果を奏する。すなわち、現行の放送形式を変更することなく、または、画質を落とすことなく3D映像を視聴することが可能となる。
 以上の実施の形態1~3では、3D表示方式として、フレームシーケンシャル方式の3Dディスプレイ20と、アクティブシャッタ方式の3Dメガネ10を用いた例について説明したが、これに限定されるものではなく、シャッタを3Dメガネ10側でなく、3Dディスプレイ20側に設けてもよい。
 以下の実施の形態4では、3Dディスプレイ側に左右の映像を切り替えるシャッタを備えた3D表示方式の例について説明する。
 〔実施の形態4〕
  (立体映像表示システム1004の構成)
 図8は、本実施の形態に係る立体映像表示システム1004の構成を示すブロック図である。立体映像表示システム(情報表示装置、情報記録装置)1004は、図8に示すように、立体映像統合装置100または立体映像統合装置300、3Dディスプレイ(情報表示装置)1010、偏光メガネ7を備える。立体映像統合装置100、300は、それぞれ前記実施の形態1、2で説明した立体映像統合装置(情報統合装置)である。
 3Dディスプレイ1010は、表示部1011と液晶シャッタ1012とで構成され、表示部1011と液晶シャッタ1012とは配線1011Aで接続され、表示部1011と偏光メガネ7とは配線1011Bで接続されている。
 表示部1011は、立体映像統合装置100、300により生成された統合情報4としての立体映像情報が入力され、3D映像の表示を行うようになっている。なお、表示部1011は、TVやプロジェクター等で構成される。
 液晶シャッタ1012は、液晶等で構成され2つの透過偏向光を切り替えることができるようになっている。
 偏光メガネ7は、液晶シャッタ1012を介した所定のフレーム順からなる左目用映像情報L、右目用映像情報Rを見るために左右それぞれに液晶シャッタ(または、左右それぞれに異なる偏向板が構成された)ものである。
 従って、立体映像表示システム1004では、人間の目の視差を利用し、偏光メガネ7によって左右に左目用映像6L、右目用映像6Rの映像情報を投影し、3D映像として視覚させるようになっている。
 また、図8に示すように、液晶等で構成される2つの透過偏向光を切り替えることができる液晶シャッタ1012は、透過する右目用映像6Rを例えば縦偏向、左目用映像6Lを横偏向とするように、液晶シャッタ1012を制御することでフィールド毎の光の偏向角を変えることができる。
 この場合、偏光メガネ7は、左右異なる偏向板(縦偏向と横偏向)を貼り付けたもので良く、配線1011Aを介して表示部1011が、液晶シャッタ1012を制御するタイミングに対応するフィールド同期信号を、表示部1011から偏光メガネ7に供給する配線1011Bが不要となる。
 一方、液晶シャッタ1012を用いない場合は、偏光メガネ7に液晶シャッタを設ける必要があり、フィールド同期信号用の配線1011Bが必要となる。
 本実施の形態に係る立体映像表示システム1004のように、3D表示方式として他の方式を利用した3Dディスプレイ1010を用いても、前記実施の形態1~3と同様の効果を奏することができる。
  (まとめ)
 以上、本発明の情報統合装置は、実施の形態1~4に記載した立体映像統合装置に限定されるものではなく、以下の構成を少なくとも有するものであれば、どのような構成であってもよい。
 (1)2D映像コンテンツのTV放送(左目用映像情報L)を取得できる主情報入力部として、アンテナに接続できる端子があるチューナが設けられていること。
 (2)上記2D映像コンテンツを3D化するための補完情報(右目用映像情報R)を取得できる補完情報用入力部として、上記の別チャンネルからの情報を入手するための別チューナが設けられていること。
 (3)入力される左目用映像情報Lと右目用映像情報Rの同期を一時記録や、同期用信号(データ放送部にコマ1-R等で付随していることを想定)が付随されている場合はそれに基づいて、一コマ(1フレーム)毎に主フレームと補完フレームを配列し、出力する統合部が設けられていること。
 さらに、前記実施の形態1~4に記載の主情報2は、2D映像コンテンツ(例えば左目用映像情報L)であればよく、TV放送波による配信に限定されず、ケーブルテレビのケーブルによる配信やインターネット等の外部ネットワークによる配信であってもよい。
 また、補完情報3は、2D映像コンテンツ(例えば右目用映像情報R)や主情報2を3D化するために必要な情報であればよく、TV放送波による配信に限定されず、ケーブルテレビのケーブルによる配信やインターネット等の外部ネットワークによる配信であってもよい。
 また、主情報2と補完情報3との同期を取るための同期信号の付随させる方法として、地上デジタル放送におけるデータ放送の領域において、1フレーム毎に『コマ1左』といったデータをつける方法や、画面の隅に実際に表示される形式(時報のように)で記録する方法であってもよい。
 なお、前記実施の形態1~4において、3Dメガネ10、偏光メガネ7を用いなければ、3D映像の放送を視聴することができない3Dディスプレイ20、3Dディスプレイ1010の例について説明したが、これに限定されるものではなく、3Dメガネ10、偏光メガネ7を用いない3Dディスプレイを用いても、本願発明を適用できる。
 この場合には、例えば、統合部102に、主情報2と補完情報3を基に、多視点映像情報を自動的に作製する映像製造部を、さらに設けるようにすればよい。
 なお、上記特許文献1に開示された技術は、主映像信号(主情報に類似)は、従来どおりに伝送し、副映像信号(補完情報に類似)を最小限になるように圧縮した上で、周波数帯域の隙間を用いて送信することで、2D放送と、3D放送を両立する3D映像伝送方法である。また、上記特許文献2に開示された技術は、現状の放送方式において、DFD(メガネを用いない3D表示方式)などに対応した3D放送を実現する3D映像の伝送方法であって、奥行き情報をRGB情報にプラスすることで対応する伝送方法である。
 しかしながら、これらの文献の技術では、現状の放送方式に適応させた上で、フルHD(full High definition)での3D放送とするのは困難であり、かつ実際に受信する際に必要となる具体的な構成については同文献には何も記載されていない。一方、本発明の情報統合装置は、上記の構成を採用することにより、現状の放送形式を変更することなく、2D放送と3D放送とを両立した上で、画質を落とすことなく3D放送が可能になるので、ユーザが高画質の立体映像を容易に入手できるというメリットがある。
 最後に、立体映像統合装置100および300の各ブロック、特に、受信部101および301、ならびに、統合部102および302は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
 後者の場合、立体映像統合装置100および300は、各機能を実現するプログラムの命令を実行するCPU(Central Processor Unit)、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。
 そして、本発明の目的は、上述した機能を実現するソフトウェアである立体映像統合装置100および300の制御プログラム(情報統合プログラムなど)のプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記立体映像統合装置100および300に供給し、そのコンピュータ(またはCPUやMPU<Micro Processor Unit>)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
 また、立体映像統合装置100および300を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。
 この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。
 また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、TransferJet、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
 なお、本発明は、コンピュータ読取可能媒体内に符号化されたコンピュータプログラムであって、前記情報統合装置が、前記読取可能媒体を備え、コンピュータによって実行されるときに、前記情報統合装置における前記各手段の機能を実現するコンピュータプログラムとして実現することもできる。
 また、本発明は、以下のようにも表現できる。
 すなわち、本発明の情報統合装置は、上記統合部は、上記主情報に含まれる2次元映像コンテンツを構成する複数の主フレームと、上記補完情報に含まれ、上記複数の主フレームのそれぞれに対応する複数の補完フレームと、を1フレーム毎に交互に配列するための時間調整を行うことで、上記主フレームと、該主フレームに対応する上記補完フレームとの同期をとっても良い。
 上記構成によれば、上記統合部は、上記主フレームと、該主フレームに対応する上記補完フレームとの同期をとる。より具体的には、2D映像コンテンツを構成する各主フレームと、各主フレームに対応する補完フレームのそれぞれとを1フレーム毎に交互に配列して同期をとる。
 このとき、主情報受信部による主情報(主フレーム)の受信タイミング、補完情報受信部による補完情報(補完フレーム)の受信タイミング、主情報および補完情報の伝送レート、ならびに、主情報および補完情報が圧縮された情報である場合は、それらの伸長時間などを考慮した上で、各主フレームと、各主フレームに対応する各補完フレームとを1フレーム毎に交互に配列するための時間調整を行う必要がある。よって、上記構成によれば、以上の時間調整を行うことで、適切に主フレームと、該主フレームに対応する補完フレームとの同期をとることができる。
 また、本発明の情報統合装置は、上記主情報および上記補完情報の少なくとも一方は、上記主フレームと、該主フレームに対応する上記補完フレームとの同期をとるための同期情報を含み、上記統合部は、上記同期情報を用いて、上記主フレームと、該主フレームに対応する上記補完フレームと、を1フレーム毎に交互に配列するための時間調整を行っても良い。
 上記構成によれば、同期情報を用いて各フレーム間の微妙な時間間隔を調整するなどのより細かな時間調整が可能となる。
 同期情報の例としては、2D映像コンテンツの伝送を行うとき、送信側から受信側に2D映像コンテンツの受信タイミングを伝えるために送られる同期信号や、所定の表示画面上に立体映像(主フレームまたは補完フレーム)を映し出す際に、走査線を表示するタイミングを示す信号と、走査線を画面の下端まで表示した後、画面の上に戻って次の画面を表示し始めるタイミングを示す信号などを例示することができる。
 また、本発明の情報統合装置は、上記統合部は、上記主フレームおよび該主フレームに対応する上記補完フレームの少なくとも一方を、所定の一時記録部に記録することで、上記主フレームと、該主フレームに対応する上記補完フレームと、を1フレーム毎に交互に配列するための時間調整を行ってもよい。
 上記構成によれば、主情報(主フレーム)および該主情報に対応する補完情報(補完フレーム)の少なくとも一方を、所定の一時記録部に一時的に記録することで、上記主フレームと、該主フレームに対応する上記補完フレームと、を統合部に入力するタイミングを調整できるので、上述した同期情報は必要ない。
 これにより、同期情報を用いた処理が不要になるので、別途そのような処理部を情報統合装置に設ける必要がなく装置の簡略化を実現できる。また、同期情報の分だけ伝送される情報の伝送量を節約することができる。
 また、本発明の表示制御装置は、上記情報統合装置によって統合された立体映像情報を表示する処理を行う表示制御部を備えていても良い。
 上記構成によれば、表示制御装置は、上述した情報統合装置を用いて統合された立体映像情報を表示するようになっているので、現行の2D放送の放送形式を変更せずに、または、画質を落とすことなく3D映像の視聴を行うことが可能となる。
 また、本発明の情報記録装置は、上記情報統合装置によって統合された立体映像情報を所定の記録部に記憶する処理を行う記録制御部を備えていてもよい。
 上記構成によれば、情報記録装置は、上述した情報統合装置を用いて生成された立体映像情報を所定の記録部に記録するようになっているので、ユーザの都合に合わせて所望の立体映像の視聴を素早く行うことができる。
 なお、前記情報統合装置および情報統合方法における各部における処理、ならびに、各ステップのそれぞれは、コンピュータによって実現してもよく、この場合には、コンピュータに前記各部の処理、または、前記各ステップを実行させることにより前記情報統合装置および情報統合方法を、コンピュータにて実現させる情報統合プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 〔付記事項〕
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、現行の2D放送や、現行のインターネット配信される2D映像コンテンツを受信装置、および該受信装置を備える情報表示装置、情報記録装置などに適用することができる。
2 主情報
3 補完情報
4 統合情報(立体映像情報)
6L 左目用映像(主フレーム)
6R 右目用映像(補完フレーム)
20 3Dディスプレイ(情報表示装置、情報記録装置)
100 立体映像統合装置(情報統合装置)
101 受信部(主情報受信部、補完情報受信部)
101a 第1受信部(主情報受信部)
101b 第2受信部(補完情報受信部)
102 統合部
111 チューナ(主情報受信部)
112 チューナ(補完情報受信部)
123 メモリ(一時記録部)
124 メモリ(一時記録部)
214 映像処理部(表示制御部、記録制御部)
215 フレームメモリ(記録部)
300 立体映像統合装置(情報統合装置)
301 受信部(主情報受信部、補完情報受信部)
302 統合部
311 チューナ(主情報受信部)
312 インターネット端末装置(補完情報受信部)
315 メモリ(一時記録部)
323 メモリ(一時記録部)
324 メモリ(一時記録部)
1001 立体映像表示システム(情報表示装置、情報記録装置)
1002 立体映像表示システム(情報表示装置、情報記録装置)
1003 立体映像表示システム(情報表示装置、情報記録装置)
1004 立体映像表示システム(情報表示装置、情報記録装置)
1010 3Dディスプレイ(情報表示装置)
L 左目用映像情報(主フレーム)
6L 左目用映像(主フレーム)
R 右目用映像情報(補完フレーム)
6R 右目用映像(補完フレーム)

Claims (9)

  1.  2次元映像コンテンツを含む主情報を受信する主情報受信部と、
     上記2次元映像コンテンツを立体映像化するための補完情報を受信する補完情報受信部と、
     上記主情報受信部が受信した主情報、および、上記補完情報受信部が受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合部と、を備えることを特徴とする情報統合装置。
  2.  上記統合部は、
     上記主情報に含まれる2次元映像コンテンツを構成する複数の主フレームと、上記補完情報に含まれ、上記複数の主フレームのそれぞれに対応する複数の補完フレームと、を1フレーム毎に交互に配列するための時間調整を行うことで、
     上記主フレームと、該主フレームに対応する上記補完フレームとの同期をとることを特徴とする請求項1に記載の情報統合装置。
  3.  上記主情報および上記補完情報の少なくとも一方は、上記主フレームと、該主フレームに対応する上記補完フレームとの同期をとるための同期情報を含み、
     上記統合部は、
     上記同期情報を用いて、上記主フレームと、該主フレームに対応する上記補完フレームと、を1フレーム毎に交互に配列するための時間調整を行うことを特徴とする請求項2に記載の情報統合装置。
  4.  上記統合部は、
     上記主フレームおよび該主フレームに対応する上記補完フレームの少なくとも一方を、所定の一時記録部に記録することで、上記主フレームと、該主フレームに対応する上記補完フレームと、を1フレーム毎に交互に配列するための時間調整を行うことを特徴とする請求項2に記載の情報統合装置。
  5.  請求項1から4までのいずれか1項に記載の情報統合装置によって統合された立体映像情報を表示する処理を行う表示制御部を備えることを特徴とする情報表示装置。
  6.  請求項1から4までのいずれか1項に記載の情報統合装置によって統合された立体映像情報を所定の記録部に記憶する処理を行う記録制御部を備えることを特徴とする情報記録装置。
  7.  2次元映像コンテンツを含む主情報と、上記2次元映像コンテンツを立体映像化するための補完情報とを立体映像情報として統合する情報統合装置により実行される情報統合方法であって、
     上記主情報を受信する主情報受信ステップと、
     上記補完情報を受信する補完情報受信ステップと、
     上記主情報受信ステップで受信した主情報、および上記補完情報受信ステップで受信した補完情報を用いて上記主情報と上記補完情報とを立体映像情報として統合する統合ステップとを実行することを特徴とする情報統合方法。
  8.  請求項7に記載の情報統合方法における各ステップをコンピュータに実行させるための情報統合プログラム。
  9.  請求項8に記載の情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2011/076012 2010-11-15 2011-11-10 情報統合装置、情報表示装置、情報記録装置、情報統合方法、情報統合プログラム、および、情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体 WO2012067021A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/881,454 US9270975B2 (en) 2010-11-15 2011-11-10 Information integrating device and information integrating method which integrates stereoscopic video information using main information and complementary information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010254929A JP5412404B2 (ja) 2010-11-15 2010-11-15 情報統合装置、情報表示装置、情報記録装置
JP2010-254929 2010-11-15

Publications (1)

Publication Number Publication Date
WO2012067021A1 true WO2012067021A1 (ja) 2012-05-24

Family

ID=46083954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076012 WO2012067021A1 (ja) 2010-11-15 2011-11-10 情報統合装置、情報表示装置、情報記録装置、情報統合方法、情報統合プログラム、および、情報統合プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US9270975B2 (ja)
JP (1) JP5412404B2 (ja)
WO (1) WO2012067021A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2822282B1 (en) * 2012-04-23 2018-11-07 LG Electronics Inc. Signal processing device and method for 3d service
KR102196473B1 (ko) * 2016-09-13 2020-12-29 삼성전자주식회사 송신 장치 및 그 송신 방법
WO2019069629A1 (ja) * 2017-10-06 2019-04-11 富士フイルム株式会社 画像処理装置及び学習済みモデル
US11848716B2 (en) 2021-08-06 2023-12-19 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using signal quality and packet errors to differentiate between duplicated services on different frequencies during scan
US11838680B2 (en) * 2021-08-06 2023-12-05 Sony Group Corporation Techniques for ATSC 3.0 broadcast boundary area management using complete service reception during scan to determine signal quality of frequencies carrying the duplicate service

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670344A (ja) * 1991-09-18 1994-03-11 Fujitsu Ltd 立体映像高能率符号化装置
JP2002142233A (ja) * 2000-11-01 2002-05-17 Hitoshi Ishida 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
JP2004266497A (ja) * 2003-02-28 2004-09-24 Rikogaku Shinkokai ステレオ映像放送受信用セットトップボックスおよびステレオ映像放送方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748879B2 (ja) 1987-04-14 1995-05-24 株式会社日立製作所 立体映像信号の伝送装置
US5032912A (en) * 1987-06-12 1991-07-16 Arnvid Sakariassen Self-contained monocscopic and stereoscopic television or monitor device
KR950006457B1 (ko) * 1988-03-31 1995-06-15 주식회사Lg 입체 텔레비젼 수상기
US5416510A (en) * 1991-08-28 1995-05-16 Stereographics Corporation Camera controller for stereoscopic video system
KR960702716A (ko) * 1994-03-28 1996-04-27 제임스 앨린 이반스 2차원 및 3차원 이미징장치(two-dimensional and three-dimensional imaging device)
JP3066298B2 (ja) 1995-11-15 2000-07-17 三洋電機株式会社 立体画像観察用眼鏡の制御方法
CN1183780C (zh) * 1996-12-04 2005-01-05 松下电器产业株式会社 光盘再现设备及光盘记录方法
JPH1141626A (ja) * 1997-07-16 1999-02-12 Matsushita Electric Ind Co Ltd 立体映像放送方法及び放送システム
EP1708487B1 (en) * 1997-08-29 2013-05-08 Panasonic Corporation Method and apparatus for reading a high-resolution optical video disc
KR20030036160A (ko) * 2000-05-22 2003-05-09 가부시키가이샤 소니 컴퓨터 엔터테인먼트 정보 처리 장치, 그래픽 처리 유닛, 그래픽 처리 방법,저장 매체 및 컴퓨터 프로그램
JP2004274642A (ja) 2003-03-12 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> 3次元映像情報の伝送方法
EP2326101B1 (en) * 2008-09-18 2015-02-25 Panasonic Corporation Stereoscopic video reproduction device and stereoscopic video display device
KR100972792B1 (ko) 2008-11-04 2010-07-29 한국전자통신연구원 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
KR20100050426A (ko) * 2008-11-04 2010-05-13 한국전자통신연구원 3차원 방송 서비스 송수신 방법 및 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670344A (ja) * 1991-09-18 1994-03-11 Fujitsu Ltd 立体映像高能率符号化装置
JP2002142233A (ja) * 2000-11-01 2002-05-17 Hitoshi Ishida 立体画像を提供するための画像提供装置および画像提供方法、受信装置および受信方法、並びに立体画像を提供するための立体画像提供システムおよび立体画像提供方法。
JP2004266497A (ja) * 2003-02-28 2004-09-24 Rikogaku Shinkokai ステレオ映像放送受信用セットトップボックスおよびステレオ映像放送方法

Also Published As

Publication number Publication date
JP5412404B2 (ja) 2014-02-12
JP2012109668A (ja) 2012-06-07
US9270975B2 (en) 2016-02-23
US20130222540A1 (en) 2013-08-29

Similar Documents

Publication Publication Date Title
US10051257B2 (en) 3D image reproduction device and method capable of selecting 3D mode for 3D image
JP4772928B2 (ja) 映像再生装置
US8854434B2 (en) Transmission device, receiving device, program, and communication system
EP2320669B1 (en) Stereoscopic image reproduction method in case of pause mode and stereoscopic image reproduction apparatus using same
US8994787B2 (en) Video signal processing device and video signal processing method
US9438895B2 (en) Receiving apparatus, transmitting apparatus, communication system, control method of the receiving apparatus and program
US20110149028A1 (en) Method and system for synchronizing 3d glasses with 3d video displays
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
WO2011132242A1 (ja) 3次元映像再生方法、および3次元映像再生装置
US20210344888A1 (en) Dual mode user interface system and method for 3d video
JP5412404B2 (ja) 情報統合装置、情報表示装置、情報記録装置
JP5390016B2 (ja) 映像処理装置
JPWO2011118216A1 (ja) 映像処理装置
JP2013021683A (ja) 映像信号処理装置及び映像信号処理方法、映像表示装置及び映像表示方法、並びに映像処理システム
KR20130076674A (ko) 복수의 컨텐츠를 처리하는 신호 처리 장치와 이를 디스플레이하는 디스플레이 장치 및 그 방법들

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11840963

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13881454

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11840963

Country of ref document: EP

Kind code of ref document: A1