WO2011024423A1 - 立体映像表示制御装置及び立体映像撮像装置 - Google Patents

立体映像表示制御装置及び立体映像撮像装置 Download PDF

Info

Publication number
WO2011024423A1
WO2011024423A1 PCT/JP2010/005162 JP2010005162W WO2011024423A1 WO 2011024423 A1 WO2011024423 A1 WO 2011024423A1 JP 2010005162 W JP2010005162 W JP 2010005162W WO 2011024423 A1 WO2011024423 A1 WO 2011024423A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
stereoscopic video
stereoscopic
cameras
camera
Prior art date
Application number
PCT/JP2010/005162
Other languages
English (en)
French (fr)
Inventor
忠義 奥田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2011024423A1 publication Critical patent/WO2011024423A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Definitions

  • the present invention relates to a stereoscopic video display control device that reproduces stereoscopic video data captured by a compound eye camera having two cameras. Furthermore, the present invention relates to a stereoscopic video imaging apparatus that captures stereoscopic video data using two cameras.
  • Patent Document 1 There is a technique disclosed in Patent Document 1 as a technique for reproducing stereoscopic video data.
  • Japanese Patent Application Laid-Open No. H10-228561 discloses changing the stereoscopic degree according to the display screen size in the stereoscopic video display device.
  • images reproduced by a stereoscopic image display device are obtained by intersecting the optical axis of the left-eye camera and the optical axis of the right-eye camera on the photographing symmetry plane to form a cross-point that is a convergence point, thereby forming a stereoscopic image of the subject. Taken with a compound eye camera.
  • the focal length of the left and right cameras may be adjusted.
  • stereoscopic image data may be recorded with a different angle of view from the viewing angle of the user in the compound eye camera.
  • the recorded stereoscopic video data is reproduced so as to be stereoscopically viewable based on the distance (fixed value) between the left and right cameras in the compound-eye camera and displayed on the stereoscopic video display device, the stereoscopic video viewed by the user is uncomfortable. It becomes a three-dimensional video with.
  • the present invention has been made to solve the above-described problem, and stereoscopic image display control that enables a user to reproduce a stereoscopic image that is not uncomfortable without being affected by a change in the focal length of the camera at the time of shooting.
  • An object of the present invention is to provide a device and a stereoscopic video imaging device.
  • a stereoscopic video stream including stereoscopic video information captured by a compound-eye camera including two cameras and information on focal lengths of the two cameras when the stereoscopic video information is captured. Based on the acquisition means for acquiring and information on the focal length included in the acquired stereoscopic video stream, an offset amount for determining the display position in the display screen of the left eye image and the right eye image included in the stereoscopic video information is determined.
  • a stereoscopic video display control device comprising adjusting means for adjusting and display control means for controlling stereoscopic video information so that the stereoscopic video information is displayed based on the adjusted offset amount.
  • the first acquisition means for acquiring a stereoscopic video stream including stereoscopic video information captured by a compound eye camera including two cameras, and the screen size of the display device for displaying the stereoscopic video information are set.
  • An offset for determining a display position in the display screen of the left-eye video and the right-eye video included in the stereoscopic video information based on the information indicating the acquired second screen and the acquired screen size There is provided a stereoscopic video display control device comprising adjusting means for adjusting the amount and display control means for controlling the stereoscopic video information so that the stereoscopic video information is displayed based on the adjusted offset amount.
  • the first camera the second camera having an optical axis parallel to or intersecting with the optical axis of the first camera, and images captured by the first and second cameras
  • a stereoscopic video imaging apparatus comprising recording means for recording video as video information.
  • the recording unit records information on the focal lengths of the first and second cameras for each frame as management information of video information.
  • the stereoscopic image of the present invention refers to a moving image or a still image that can be viewed stereoscopically.
  • the offset (parallax information) at the time of display on the display device is adjusted based on the focal length at the time of shooting, the user feels uncomfortable without being affected by the change in the focal length of the camera at the time of shooting. 3D images without noise can be displayed.
  • the figure which shows the structure of the three-dimensional-video display system of embodiment The figure which shows the structural example of a three-dimensional video display control apparatus.
  • (b) The figure for demonstrating the display method of a three-dimensional video The figure for demonstrating an example of the three-dimensional video data image
  • the figure for demonstrating the display method of a three-dimensional image The figure for demonstrating the display method of a three-dimensional image Diagram explaining that the offset at the time of stereoscopic image display changes depending on the focal length at the time of stereoscopic image shooting Diagram showing an example of a stereoscopic video stream
  • a flowchart showing an operation example of the stereoscopic video display control device The figure for demonstrating the display to the stereo image display apparatus of the image
  • FIG. 1 shows the configuration of the stereoscopic video display system of this embodiment.
  • the stereoscopic video display system includes a stereoscopic video display control device 1 and a stereoscopic video display device 2.
  • FIG. 2 shows a configuration example of the stereoscopic video display control device 1.
  • FIG. 3 shows a configuration example of the stereoscopic video display device 2.
  • the stereoscopic video display control device 1 is a device capable of reproducing video signals such as a DVD player, a BD player, a hard disk recorder, and a TV receiver.
  • the stereoscopic video display device 2 is a device capable of displaying video signals such as a display monitor, a TV receiver, and a head-mounted display.
  • a stereoscopic video display control device 1 includes a stereoscopic video display device 2 that displays a stereoscopic video, a server 3 in which a stereoscopic video stream is stored, an optical disk 4, an antenna 5, and a memory card 6. It is connected to the.
  • the stereoscopic video display control device 1 acquires a stereoscopic video stream for displaying a stereoscopic video or information for generating a stereoscopic video stream from the server 3, the optical disc 4, the antenna 5, or the memory card 6.
  • the configuration of the stereoscopic video display control device 1 will be specifically described with reference to FIG.
  • the stereoscopic video display control device 1 includes a disk drive 11, a tuner 12, a network communication interface 13, a memory device interface 14, a data transmission interface 15, a buffer memory 16, an HD drive 17, and an LSI 18 (system controller).
  • a disk drive 11 includes a disk drive 11, a tuner 12, a network communication interface 13, a memory device interface 14, a data transmission interface 15, a buffer memory 16, an HD drive 17, and an LSI 18 (system controller).
  • LSI 18 system controller
  • the disk drive 11 includes an optical pickup and reads a stereoscopic video stream from the optical disk 4.
  • the disk drive 11 is connected to the LSI 18.
  • the disc drive 11 reads a stereoscopic video stream from the optical disc 4 and transmits it to the LSI 18 in accordance with the control from the LSI 18.
  • the tuner 12 receives a broadcast wave including a stereoscopic video stream via the antenna 5.
  • the tuner 12 extracts a stereoscopic video stream having a frequency specified by the LSI 18 from the received broadcast wave.
  • the tuner 12 is connected to the LSI 18 and transmits the extracted stereoscopic video stream to the LSI 18.
  • the network communication interface 13 can be connected to the server 3 via a network.
  • the network communication interface 13 acquires the stereoscopic video stream transmitted from the server 3.
  • the memory device interface 14 is configured so that the memory card 6 can be mounted, and a stereoscopic video stream can be read from the mounted memory card 6.
  • the memory device interface 14 transmits the stereoscopic video stream read from the memory card 6 to the LSI 18.
  • the HD drive 17 incorporates a recording medium such as a hard disk, and transmits data read from the recording medium to the LSI 18.
  • the HD drive 17 records the data received from the LSI 18 on a recording medium.
  • the data transmission interface 15 is an interface for transmitting data transmitted from the LSI 18 to the external stereoscopic video display device 2.
  • the data transmission interface 15 is configured to be able to transmit and receive data signals and control signals to and from the stereoscopic video display device 2. Therefore, the LSI 18 can control the stereoscopic video display device 2 via the data transmission interface 15.
  • the data transmission interface 15 can be realized by an HDMI connector, for example.
  • the data transmission interface 15 may have any configuration as long as it can transmit a data signal to the stereoscopic video display device 2.
  • the buffer memory 16 functions as a work memory when the LSI 18 performs processing.
  • the buffer memory 16 can be realized by, for example, a DRAM or an SRAM.
  • the LSI 18 is a system controller that controls each part of the stereoscopic video display control apparatus 1.
  • the LSI 18 may be realized by a microcomputer or a hard wired circuit.
  • a CPU 181 In the LSI 18, a CPU 181, a stream controller 182, a decoder 183, an AV input / output circuit 184, a system bus 185, and a memory controller 186 are mounted.
  • the CPU 181 controls the entire LSI 18. Each part of the LSI 18 is configured to perform various controls based on the control from the LSI 18.
  • the CPU 181 also controls communication with the outside. For example, the CPU 181 can transmit a request signal to the stereoscopic video display device 2 via the data transmission interface 15 and acquire information regarding the screen size.
  • the CPU 181 records information regarding the acquired screen size in the buffer memory 16 via the memory controller 186.
  • the CPU 181 transmits a control signal to each of the disk drive 11, the tuner 12, the network communication interface 13, and the memory device interface 14 when acquiring a stereoscopic video stream from the optical disk 4, the antenna 5, the server 3, or the memory card 6. Accordingly, the disk drive 11, the tuner 12, the network communication interface 13, and the memory device interface 14 can acquire a stereoscopic video stream from a recording medium, a broadcasting station, or the like.
  • the stream controller 182 controls transmission / reception of data between the stereoscopic image display control device 1 and the server 3, the optical disk 4, the antenna 5, the memory card 6, and the active shutter glasses 7.
  • the CPU 181 transmits the stereoscopic video stream acquired from the server 3 to the memory controller 186.
  • the memory controller 186 writes the data transmitted from each part of the LSI 18 into the buffer memory 16. For example, the memory controller 186 records the stereoscopic video stream acquired from the stream controller 182 in the buffer memory 16. The memory controller 186 reads data recorded in the buffer memory 16 from the buffer memory 16. Then, the buffer memory 16 transmits the read data to each part of the LSI 18.
  • the decoder 183 When the decoder 183 acquires data from the memory controller 186, the decoder 183 decodes the acquired data.
  • the data input to the decoder 183 is based on the control of the CPU 181.
  • the CPU 181 controls the memory controller 186 to read the stereoscopic video stream recorded in the buffer memory 16.
  • the CPU 181 controls the memory controller 186 to transmit the read stereoscopic video stream to the decoder 183.
  • the stereoscopic video stream is input from the memory controller 186 to the decoder 183.
  • the decoder 183 separates the input stereoscopic video stream into stereoscopic video data and management information thereof. Then, the decoder 183 records management information in the buffer memory 16.
  • the decoder 183 decodes the compressed stereoscopic video data based on the decoding information included in the stereoscopic video data.
  • the decoder 183 transmits the decoded information to the memory controller 186.
  • the memory controller 186 records the received stereoscopic video data in the buffer memory 16.
  • the AV input / output circuit 184 reads out the stereoscopic video data, its management information, and information about the screen size from the buffer memory 16 and generates a display image to be displayed on the stereoscopic video display device 2. Then, the AV input / output circuit 184 transmits the generated display image to the stereoscopic video display device 2 via the data transmission interface 15.
  • a power source (not shown) is connected to each part of the stereoscopic video display control device 1, and power is supplied from the power source.
  • the configuration of the stereoscopic video display device 2 will be specifically described with reference to FIG.
  • the stereoscopic video display device 2 includes a display 24 and displays video data.
  • the display 24 is composed of, for example, a liquid crystal display, a plasma display, or an organic EL display.
  • the stereoscopic video display device 2 can display the video data transmitted from the stereoscopic video display control device 1.
  • the stereoscopic video display device 2 can transmit information related to the screen size to the stereoscopic video display control device 1 based on a request signal from the stereoscopic video display control device 1.
  • the stereoscopic video display device 2 includes a controller 22, a memory 23, a display 24, a data transmission interface 21, and a communication interface 25.
  • the memory 23 information related to the screen size of the stereoscopic video display device 2 is stored in advance.
  • the memory 23 can be realized by a flash memory or FRAM, for example.
  • the controller 22 When the controller 22 receives the request signal from the stereoscopic video display control device 1, the controller 22 reads out information related to the screen size stored in the memory 23 and transmits the information to the stereoscopic video display control device 1. Accordingly, the stereoscopic video display control device 1 can acquire information related to the screen size from the stereoscopic video display device 2.
  • the controller 22 can be realized by a microprocessor, for example.
  • the data transmission interface 21 is an interface for transmitting and receiving data to and from the stereoscopic video display control device 1.
  • the data transmission interface 21 can be realized by, for example, an HDMI (High Definition Multimedia Interface) connector or the like.
  • the communication interface 25 is an interface for communicating with the active shutter glasses 7.
  • the communication interface 25 establishes communication with the active shutter glasses 7 by wireless or wired such as infrared rays or Bluetooth, for example.
  • the server 3 is a network server in which stereoscopic video streams are accumulated.
  • the server 3 is connected to a network and can be connected to the stereoscopic video display control device 1 placed in the home.
  • the server 3 can transmit a stereoscopic video stream to the stereoscopic video display control device 1 (network communication interface 13) in response to an access request from the stereoscopic video display control device 1.
  • the optical disc 4 is a recording medium on which a stereoscopic video stream is recorded.
  • the optical disk 4 can be inserted into the disk drive 11 of the stereoscopic video display control device 1.
  • the stereoscopic video display control device 1 (disk drive 11) can read a stereoscopic video stream recorded on the optical disc 4.
  • the antenna 5 is an antenna for receiving a broadcast wave including a stereoscopic video stream broadcast from a broadcasting device of a broadcasting station.
  • the antenna 5 transmits a broadcast wave including the received stereoscopic video stream to the stereoscopic video display control device 1 (tuner 12).
  • the memory card 6 is a semiconductor memory card in which a stereoscopic video stream is recorded, or a recording medium having a semiconductor memory inside.
  • the memory card 6 can be inserted into the stereoscopic video display control device 1 (data transmission interface 15). Note that the stereoscopic video display control device 1 (data transmission interface 15) can read the stereoscopic video stream recorded on the memory card 6.
  • the AV input / output circuit 184 of the stereoscopic video display control apparatus 1 reads stereoscopic video data, management information, and information on the screen size, and manages information (between cameras). Based on the distance information and focal length information) 32 and information on the screen size, the display position (offset) of the stereoscopic video data in the screen is determined. Then, the AV input / output circuit 184 outputs the display screen data in which the display position of the stereoscopic video data is adjusted based on the determined offset to the stereoscopic video display device 2 via the data transmission interface 15.
  • the offset is information indicating the shift amount of the display position on the screen between the left eye image and the right eye image of the stereoscopic video data. Therefore, for example, if the offset is 30 pixels, the AV input / output circuit 184 generates a display screen so that the left and right eye images are displayed on the display device with the center of those images separated by 60 pixels. That is, the AV input / output circuit 184 shifts the left eye image by 30 pixels to the left with respect to the center of the display screen, and shifts the right eye image by 30 pixels to the right with respect to the center of the display screen, thereby generating a display screen. .
  • the AV input / output circuit 184 transmits data indicating the display screen generated in this way to the stereoscopic video display device 2 via the data transmission interface 15. Thereby, in the stereoscopic video display device 2, the display screen showing the left eye image and the display screen showing the right eye image are sequentially displayed.
  • the offset based on the focal length information that is, by adjusting the offset based on the focal length information
  • the user can view a stereoscopic image without a sense of incongruity.
  • a stereoscopic video to be processed by the stereoscopic video display system of the present embodiment is shot by the compound eye camera 50.
  • the compound-eye camera 50 includes a left-eye camera 51, a right-eye camera 52, and a stereoscopic video recording circuit 53.
  • the left-eye camera 51 and the right-eye camera 52 are arranged so that their optical axes are parallel or intersect.
  • the compound-eye camera 50 can adjust the focal length of both the cameras 51 and 52 when the left-eye camera 51 and the right-eye camera 52 capture a stereoscopic image.
  • the left and right cameras 51 and 52 alternately shoot still images.
  • the compound-eye camera 50 sequentially generates a left-eye image captured by the left-eye camera 51 and a right-eye image captured by the right-eye camera 52, which are necessary for displaying a stereoscopic image.
  • a left eye image 61 and a right eye image 62 as shown in FIG. 5 are generated.
  • the compound-eye camera 50 records the left-eye image and the right-eye image generated in this way on a recording medium (for example, an optical disk, a memory card, a hard disk) as stereoscopic video data by the stereoscopic video recording circuit 53. In this way, the compound-eye camera 50 can generate the stereoscopic video data necessary for displaying the stereoscopic video.
  • a recording medium for example, an optical disk, a memory card, a hard disk
  • the compound-eye camera 50 (stereoscopic video recording circuit 53) includes information on the distance between the left and right cameras 51 and 52 at the time of photographing stereoscopic video data, information on the focal length at the time of photographing, and the like.
  • the management information is added to the stereoscopic video data and recorded on the recording medium as a stereoscopic video stream. It should be noted that information on the distance between the cameras 51 and 52, information on the focal length at the time of photographing, and the like are preferably recorded for each frame.
  • “D” is added to the stereoscopic video data and recorded as distance information between the cameras.
  • “X (mm)” (or angle of view “L” degree) is added and recorded as focal length information.
  • the distance “K (m)” from the own device is added and recorded as a cross point (FIG. 5). In this way, the compound eye camera 50 generates a stereoscopic video stream. A specific configuration of the stereoscopic video stream will be described later.
  • the stereoscopic video display device 2 displays video for enabling viewing of stereoscopic video using active shutter glasses 7 as shown in FIG. Specifically, as illustrated in FIG. 6B, the stereoscopic video display control device 1 compares the stereoscopic image display device 2 with a left-eye image (left-eye image) and a right-eye image (right The screen data indicated by the eye image is output alternately. The stereoscopic video display device 2 sequentially displays the screen data received from the stereoscopic video display control device 1 on the screen of the display 24. The user can recognize the stereoscopic video by viewing the video displayed on the display 24 in this way through the active shutter glasses 7.
  • the stereoscopic video display control apparatus 1 of the present embodiment sets the display positions (offsets) in the display screen of the left eye image and the right eye image as the image. Adjust based on the focal length at the time of shooting. Details of the offset adjustment operation will be described later.
  • the active shutter glasses 7 are provided with a shutter that can block either the left or right visual field of the user.
  • the active shutter glasses 7 block the right eye field of view of the user's stereoscopic video display device 2, while the right eye image is displayed on the stereoscopic video display device 2. Then, the visual field of the left eye with respect to the stereoscopic video display device 2 of the user is blocked. That is, as shown in FIG. 6B, when a screen showing the left eye image is displayed on the stereoscopic video display device 2, the user views the video with the left eye, and the stereoscopic video display device 2. When the screen showing the right eye image is displayed on the screen, the user views the video with the right eye. Thereby, the user can recognize the screens sequentially displayed on the stereoscopic video display device 2 as a stereoscopic video.
  • Non-distortion condition With reference to FIG. 4, the no-distortion condition that allows the user to visually recognize a stereoscopic image in an optimal state will be described.
  • the unstrained condition includes the following three conditions. 1) The angle of view ( ⁇ c) when the compound-eye camera 50 captures a stereoscopic image and the angle of view ( ⁇ d) when the user views the stereoscopic image display device 2 match. 2) The offset (dc) between the left eye image and the right eye image when the compound-eye camera 50 captures the stereoscopic image, and the offset between the left eye image and the right eye image when the stereoscopic image is displayed on the stereoscopic image display device 2 ( dd) matches. 3) The optical axis of the taking lens is parallel.
  • stereoscopic video data is taken with a distance (dc) of 65 mm between the left and right cameras 51 and 52 and a focal length of 50 mm.
  • the distance (dc) of 65 mm between the left and right cameras is a value corresponding to the distance (de) between human left and right eyes (approximately 63 mm to 68 mm).
  • the focal length of 50 mm (angle of view: 46 degrees) is a value that is almost equal to the perspective that humans usually look at.
  • the horizontal screen size W and the optimum viewing distance L of the stereoscopic video display device 2 are adjusted to values that are substantially equal to the perspective of human beings. That is, an angle of view ( ⁇ c) of 46 degrees when the compound-eye camera 50 captures a stereoscopic image and an angle of view ( ⁇ d) obtained by the horizontal screen size W and the optimal viewing distance L of the stereoscopic image display device 2 are obtained. Will match.
  • the stereoscopic image display control device 2 adjusts the display position of the left eye image in the screen so as to move from the center of the screen to the left (dc / 2) mm, that is, 32.5 mm.
  • the stereoscopic image display control device 2 adjusts the display position of the right-eye image in the screen so as to move from the center of the screen to the right by (dc / 2) mm, that is, 32.5 mm.
  • the distance between the left and right cameras when shooting stereoscopic video data is matched with the positional relationship between the left eye image and right eye image when displaying stereoscopic video data. That is, the distance dc between the left and right cameras 51 and 52 at the time of shooting is matched with the relationship dd between the display positions of the left eye image and the right eye image in the screen.
  • the angle of view ⁇ c when the compound-eye camera 50 captures a stereoscopic image and the angle of view ⁇ d when the user views the stereoscopic image display device 2 can be matched, and the compound-eye camera 50 Can match the offset between the right-eye image and the left-eye image when the stereoscopic video is captured and the offset when displaying the stereoscopic video on the stereoscopic video display device 2.
  • the user can view more optimal stereoscopic video.
  • this embodiment can obtain conditions close to the above conditions when displaying a stereoscopic image even when the stereoscopic image is shot with the focal length changed by the compound eye camera 50. It is to make.
  • the stereoscopic image display device using the active shutter glasses 7 has been described.
  • the present invention is not limited to this configuration, and any left-eye image and right-eye image can be displayed by adjusting the display positions (offsets) of the left-eye image and right-eye image in the screen when displayed.
  • a simple display device may be used.
  • the focal lengths of the two cameras 51 and 52 are adjusted.
  • stereoscopic image data different from the viewing angle of the user is recorded in the compound eye camera 50. If such stereoscopic video data is displayed on the display device based on the distance (fixed value) between the left and right cameras 51 and 52 in the compound-eye camera 50, the stereoscopic video becomes uncomfortable for the user. .
  • this example will be specifically described with reference to FIG.
  • the stereoscopic image data in FIGS. 7A and 7B are different in the positional relationship (positional deviation) between the left eye image and the right eye image.
  • the focal length (viewing angle) at the time of shooting is different.
  • the left eye image when the left eye image and the right eye image are displaced on the wide side is the left eye image when the image is captured on the wide side.
  • the positional deviation of the right eye image is larger.
  • the stereoscopic image display control apparatus 1 adjusts the display positions (offsets) of the left eye image and the right eye image in the display screen based on the focal length at the time of image capture. (Details will be described later).
  • Stereoscopic Video Stream The stereoscopic video stream acquired from the outside by the stereoscopic video display control device 1 of the present embodiment will be described.
  • the stereoscopic video stream acquired by the stereoscopic video display control device 1 from the server 3, the optical disc 4, the antenna 5, or the memory card 6 is configured with stereoscopic video data and management information of the stereoscopic video data.
  • FIG. 8 shows a specific configuration example of the stereoscopic video stream.
  • the stereoscopic video stream includes management information (left eye image 1), left eye image 1, management information (right eye image 1), right eye image 1, management information (left eye image 2), left As in the eye image 2,...,
  • the management information of the stereoscopic video data and the stereoscopic video data are recorded for each frame.
  • the display method for the user can be adjusted for each frame based on the focal length information, it is possible to display a stereoscopic video that is more comfortable for the user.
  • the stereoscopic video data included in the stereoscopic video stream is information obtained by encoding video captured by the left and right cameras 51 and 52 of the compound-eye camera 50 using an arbitrary compression method.
  • MVC Multi-view Video Coding
  • MPEG4-AVC can be considered, but not limited thereto. Since the compressed stereoscopic video data is compressed by the above compression method, information (decoding information) necessary for decoding is added.
  • the management information of the stereoscopic video data includes information regarding the distance between the optical axis of the left-eye camera 51 and the optical axis of the right-eye camera 52 at the time of shooting (hereinafter referred to as “distance information between cameras”), and shooting.
  • Information on the focal lengths of the left and right cameras 51 and 52 at the time hereinafter referred to as “focal length information”
  • the main subject Information relating to the distance to a typical subject (hereinafter “main subject distance information”).
  • the cross point (convergence point) refers to a position where the optical axis of the camera 51 and the optical axis of the camera 52 intersect.
  • the distance to the main subject refers to the distance to the subject in focus.
  • management information A specific example of management information will be described.
  • distance information between cameras, cross point information, focal length information, and main subject distance information are recorded in this order. This is because of the configuration of the compound-eye camera 50, it is difficult to shoot with variable distances and cross points between the cameras, and it is easy to shoot with variable focal lengths and focal points.
  • the distance information between cameras in the management information is expressed in units of length (for example, 5 cm).
  • the present invention is not limited to this.
  • the distance information between the cameras may be expressed by the number of pixels of the image data corresponding to the distance between the cameras 51 and 52.
  • the operation of the stereoscopic video display control device 1 will be described with reference to the flowchart of FIG.
  • the case where the stereoscopic video stream included in the broadcast wave obtained by the antenna 5 is displayed on the stereoscopic video display device 2 will be described as an example.
  • the stereoscopic video display control device 1 is set to acquire a stereoscopic video stream from the antenna 5, it performs the following operation.
  • the LSI 18 transmits a request signal for requesting information on the screen size of the stereoscopic video display device 2 to the stereoscopic video display device 2, acquires information on the screen size, and stores the acquired information on the screen size in the buffer memory 16.
  • the LSI 18 controls the tuner 12 to acquire a stereoscopic video stream from the broadcast wave obtained via the antenna 5 (S2).
  • the LSI 18 records the acquired stereoscopic video stream in the buffer memory 16 (S3).
  • the LSI 18 reads the stereoscopic video stream recorded in the buffer memory 16 and separates the stereoscopic video stream into stereoscopic video data and management information (S4).
  • the LSI 18 records the separated management information in the buffer memory 16.
  • the LSI 18 decodes the separated stereoscopic video data, and records the decoded stereoscopic video data in the buffer memory 16 (S5).
  • the LSI 18 calculates an offset between the left eye image and the right eye image of the stereoscopic video data based on the screen size information and management information recorded in the buffer memory 16 (S6).
  • a method for calculating the offset between the left eye image and the right eye image based on information on the screen size and management information (inter-camera distance, cross point, focal length, main subject distance) will be described later.
  • the LSI 18 generates a display screen for the left eye image and the right eye image included in the decoded stereoscopic video data based on the calculated offset (S7).
  • the LSI 18 sequentially outputs the generated left-eye image and right-eye image display screen to the stereoscopic video display device 2 (S8).
  • the stereoscopic video shot on the tele side and the stereoscopic video shot on the wide side are:
  • the adjustment amount (offset amount) is different. That is, as shown in FIGS. 11A and 11B, the offset amount Lt of the stereoscopic video imaged on the tele side is larger than the offset amount Lw of the stereoscopic video imaged on the wide side. .
  • the stereoscopic video display control apparatus 1 can allow the user to view a stereoscopic video with a little uncomfortable feeling in the stereoscopic video stream.
  • Section 5.1.2 explains the difference in the direction and amount of offset according to the difference in the shooting environment.
  • the shooting target (main subject) A When the shooting target (main subject) A is located closer to the cross point, the left-eye image AL of the shooting target A shot by the left-eye camera 51 is displayed by the right-eye camera 52 on the virtual screen. It is located to the right of the right eye image AR of the subject A to be photographed.
  • the left-eye image BL of the imaging target B captured by the left-eye camera 51 is the right-eye camera 52 on the virtual screen. It is located to the left of the right eye image BR of the subject B to be photographed.
  • FIG. 17 is a diagram illustrating the direction and amount of offset adjusted based on management information (cross point information, focal length information, and main subject distance information).
  • the amount of parallax (solid arrow) changes depending on whether the focal length at the time of shooting is the wide side or the tele side. For example, when the image is taken on the wide side, the parallax amount of the main subject is small. On the other hand, when the image is taken on the tele side, the parallax amount of the main subject increases.
  • the difference in the amount of parallax varies depending on whether the distance between the cameras is narrow or wide. For example, when a picture is taken with a short distance between the cameras, the parallax amount of the main subject is small. On the other hand, when the image is taken with a wide distance between the cameras, the parallax amount of the main subject increases.
  • the amount of parallax changes depending on the shooting situation (focal length, distance between cameras, etc.), so if the change in the amount of parallax is canceled, a stereoscopic image closer to the undistorted condition is provided to the user. it can.
  • the stereoscopic image display control apparatus 1 adjusts the offset based on the amount of parallax that changes according to the shooting state. For example, when the main subject is closer to the cross point (FIG. 17A) and is shot on the wide side, the parallax amount close to the parallax amount at the reference focal length (50 mm) is obtained for the left eye image. Add an offset to the right to get it.
  • the wide side is adjusted so that the amount of parallax increases.
  • the tele side adjusts so that the amount of parallax becomes small. In this way, by adding an offset to the left-eye image and the right-eye image according to the focal length, it is possible to provide a user with a stereoscopic image that is closer to the undistorted condition.
  • the offset adjustment based on the management information is not performed.
  • the offset is adjusted so that the amount of parallax increases as the distance between the cameras decreases.
  • the offset is adjusted so that the amount of parallax decreases as the distance between the cameras increases.
  • the distance from the camera 51, 52 of the compound-eye camera to the cross point (the point where the optical axes intersect) is X, and between the camera 51 and the camera 52.
  • the distance (baseline length) is dc
  • the focal length is F
  • the horizontal width of the image sensor of the cameras 51 and 52 is D
  • the shooting distance is A
  • the horizontal width of the imaged screen is B
  • the convergence angle is ⁇
  • the horizontal angle of view is ⁇
  • X dc ⁇ 2 tan ( ⁇ / 2) ⁇ (1.1)
  • B 2Atan ( ⁇ / 2) or A ⁇ D / F (1.2)
  • the parallax (offset) dd on the screen of the stereoscopic video display device 2 is obtained by the following equation from the equations (1.2), (2), and (3).
  • the parallax (offset amount) on the screen of the stereoscopic image display device 2 using any of the above formulas (4), (6), and (9).
  • dd can be obtained based on the screen size W, the inter-camera distance dc, and the focal length F.
  • the parallax (dc) of the camera at the time of shooting is adjusted based on the focal length F and the screen size W.
  • Information such as the width D of the image sensor of the cameras 51 and 52, the shooting distance A, the distance X from the cameras 51 and 52 to the cross point, the convergence angle ⁇ , and the horizontal angle of view ⁇ are recorded in the management information of the stereoscopic video stream. Preferably it is done. However, such information is not necessarily recorded in the management information. For parameters that cannot be obtained from the management information, those values may be set to predetermined values, and the parallax (offset amount) on the screen of the stereoscopic video display device 2 may be calculated.
  • the above calculation formula is an example, and the parallax (offset amount) on the screen of the stereoscopic video display device 2 can be obtained using another calculation formula.
  • the parallax (offset amount) on the screen of the stereoscopic image display device 2 may be adjusted based only on either the focal length F or the screen size W, and both the screen size W and the inter-camera distance dc are considered simultaneously. You don't have to.
  • the offset (parallax information) at the time of display on the stereoscopic image display device 2 based on the focal length at the time of shooting, the user is not affected by the change in the focal length of the camera at the time of shooting and the user does not feel uncomfortable. 3D images can be displayed.
  • the angle of view of the user's field of view changes depending on the change in the screen size, and a stereoscopic video that is uncomfortable for the user may be displayed. Therefore, by considering only the screen size W and adjusting the parallax on the screen of the stereoscopic video display device 2, it is possible to display a stereoscopic video that does not feel uncomfortable for the user.
  • the stereoscopic image display control apparatus 1 relates to stereoscopic image information captured by the compound-eye camera 50 including the two cameras 51 and 52 and the focal length F of the two cameras when the stereoscopic image information is captured. And a display of the left eye image and the right eye image included in the stereoscopic video information on the display screen based on the LSI 18 that acquires the stereoscopic video stream including the information and the information on the focal length F included in the acquired stereoscopic video stream.
  • the LSI 18 that adjusts the offset amount for determining the position and the LSI 18 that controls the stereoscopic video information so that the stereoscopic video information is displayed based on the adjusted offset amount are provided.
  • the compound-eye camera 50 of the present embodiment is imaged by the left-eye camera 51, the right-eye camera 52 having an optical axis parallel to or intersecting with the optical axis of the left-eye camera 51, and the cameras 51 and 52.
  • the stereoscopic video recording circuit 53 records information regarding the focal length F of the cameras 51 and 52 for each frame as management information of video information.
  • the 3D video transmission method from the video source to the stereoscopic video display control device 1 may be either a side-by-side method or a top-and-bottom method. Other methods may be used.
  • the embodiment of the present invention is not limited to the above-described embodiment, and can be realized in various other modes.
  • the stereoscopic video display control device of the present invention can be applied to a television receiver equipped with an optical disk playback device such as a DVD player and a BD player, and a tuner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

立体映像表示制御装置は、2つのカメラを含む複眼カメラによって撮影された立体映像情報と、立体映像情報が撮影されたときの2つのカメラの焦点距離に関する情報とを含む立体映像ストリームを取得する取得手段と、取得した立体映像ストリームに含まれる焦点距離に関する情報に基づいて、立体映像情報に含まれる左眼画像と右眼画像の表示画面内の表示位置を決定するためのオフセット量を調整する調整手段と、調整されたオフセット量に基づいて立体映像情報が表示されるように、立体映像情報を制御する表示制御手段とを備える。

Description

立体映像表示制御装置及び立体映像撮像装置
 本発明は、2つのカメラを持つ複眼カメラによって撮影された立体映像データを再生する立体映像表示制御装置に関する。さらに、本発明は、2つのカメラを用いて立体映像データを撮像する立体映像撮像装置に関する。
 立体映像データを再生させる技術として特許文献1に開示されたものがある。特許文献1は、立体映像表示装置において、表示画面サイズに応じて立体度を変化させることを開示している。一般に立体映像表示装置により再生される映像は、左眼カメラの光軸と右眼カメラの光軸とを撮影対称面上で交差させ、収束点であるクロスポイントを形成して、被写体の立体映像を撮影する複眼カメラにより撮影される。
特開2004-180069号公報
 複眼カメラが立体映像を撮影する場合、左右のカメラの焦点距離が調整されることがある。カメラの焦点距離が変わると、複眼カメラにおいてユーザの視野角と異なる画角で立体映像データが記録されてしまうことがある。そのように記録された立体映像データを、複眼カメラにおける左右のカメラ間の距離(固定値)に基づいて立体視可能に再生し、立体映像表示装置に表示すると、ユーザが視認する立体映像は違和感のある立体映像になってしまう。
 本発明は、上記課題を解決するためになされたものであり、撮影時のカメラの焦点距離の変化の影響を受けずに、ユーザにとって違和感のない立体映像の再生を可能とする立体映像表示制御装置及び立体映像撮像装置を提供することを目的とする。
 本発明の第1の態様において、2つのカメラを含む複眼カメラによって撮影された立体映像情報と、立体映像情報が撮影されたときの2つのカメラの焦点距離に関する情報と、を含む立体映像ストリームを取得する取得手段と、取得した立体映像ストリームに含まれる焦点距離に関する情報に基づいて、立体映像情報に含まれる左眼画像と右眼画像の表示画面内の表示位置を決定するためのオフセット量を調整する調整手段と、調整されたオフセット量に基づいて前記立体映像情報が表示されるように、立体映像情報を制御する表示制御手段と、を備える立体映像表示制御装置が提供される。
 本発明の第2の態様において、2つのカメラを含む複眼カメラによって撮影された立体映像情報を含む立体映像ストリームを取得する第1の取得手段と、立体映像情報を表示する表示装置の画面サイズを示す情報を取得する第2の取得手段と、取得した画面サイズを示す情報に基づいて、立体映像情報に含まれる左眼映像と右眼映像との表示画面内の表示位置を決定するためのオフセット量を調整する調整手段と、調整されたオフセット量に基づいて立体映像情報が表示されるように、立体映像情報を制御する表示制御手段と、を備える、立体映像表示制御装置が提供される。
 本発明の第3の態様において、第1のカメラと、第1のカメラの光軸と平行なまたは交差する光軸を有する第2のカメラと、第1及び第2のカメラで撮像された映像を映像情報として記録する記録手段とを備える立体映像撮像装置が提供される。記録手段は、フレーム毎の第1及び第2のカメラの焦点距離に関する情報を、映像情報の管理情報として記録する。
 本発明の立体映像は、立体視可能な動画像又は静止画像を指す。
 本発明によれば、撮影時の焦点距離に基づいて表示装置での表示時のオフセット(視差情報)を調整するため、撮影時のカメラの焦点距離の変化の影響を受けずに、ユーザにとって違和感のない立体映像を表示できる。
実施の形態の立体映像表示システムの構成を示す図 立体映像表示制御装置の構成例を示す図 立体映像表示装置の構成例を示す図 (a)立体映像の撮影方法を説明するための図、(b)立体映像の表示方法を説明するための図 複眼カメラによって撮影された立体映像データの一例を説明するための図 立体映像の表示方法を説明するための図 立体映像の表示方法を説明するための図 立体映像の撮影時の焦点距離に依存して立体映像の表示時のオフセットが変化することを説明した図 立体映像ストリームの一例を示す図 立体映像表示制御装置の動作例を示すフローチャート 撮影された画像の立体映像表示装置への表示を説明するための図 左眼画像と右眼画像の表示例を説明した図 左眼画像と右眼画像のオフセット量の算出方法を説明するための図 (a)クロスポイント(輻輳点)を有するカメラにより撮影された映像の視差diを説明するための図、(b)平行なカメラにより撮影された映像の視差diを説明するための図 撮像素子の横幅(W)、立体映像表示装置2の画面上での視差(オフセット)ds、立体映像表示装置の画面の横幅(D)、撮影される画面の横幅(B)を説明した図 平行なカメラにより撮影された場合のオフセット量の算出方法を説明するための図 主要被写体とクロスポイントの関係を示す図 管理情報(クロスポイント情報、焦点距離情報、及び主要被写体距離情報)に基づいて調整されるオフセットの方向及び量を説明した図
実施の形態
 以下、添付の図面を参照して、立体映像表示制御装置の好ましい実施形態を説明する。
1.立体映像表示システム
 図1に、本実施形態の立体映像表示システムの構成を示す。立体映像表示システムは、立体映像表示制御装置1と立体映像表示装置2を含む。図2に、立体映像表示制御装置1の構成例を示す。図3に立体映像表示装置2の構成例を示す。立体映像表示制御装置1は、DVDプレーヤ、BDプレーヤ、ハードディスクレコーダ、TV受像機のような映像信号を再生可能な装置である。立体映像表示装置2は、ディスプレイモニタ、TV受像機、ヘッドマウントディスプレイのような映像信号を表示可能な装置である。
 図1に示すように、立体映像表示制御装置1は、立体映像を表示する立体映像表示装置2と、立体映像ストリームが蓄積されているサーバ3と、光ディスク4と、アンテナ5及びメモリカード6とに接続されている。立体映像表示制御装置1は、サーバ3、光ディスク4、アンテナ5、またはメモリカード6から、立体映像を表示するための立体映像ストリームまたは立体映像ストリームを生成するための情報を取得する。
 図2を参照し、立体映像表示制御装置1の構成を具体的に説明する。立体映像表示制御装置1は、ディスクドライブ11、チューナ12、ネットワーク通信インタフェース13、メモリデバイスインタフェース14、データ伝送インタフェース15、バッファメモリ16、HDドライブ17、及びLSI18(システムコントローラ)を備える。以下、各々の構成要素について具体的に説明する。
 ディスクドライブ11は、光ピックアップを含み、光ディスク4から立体映像ストリームを読み出す。ディスクドライブ11は、LSI18と接続されている。ディスクドライブ11は、LSI18からの制御に応じて、光ディスク4から立体映像ストリームを読み出し、LSI18に送信する。
 チューナ12は、アンテナ5を介して、立体映像ストリームを含む放送波を受信する。チューナ12は、受信した放送波の内、LSI18によって指定された周波数の立体映像ストリームを取り出す。チューナ12は、LSI18と接続されており、取り出した立体映像ストリームをLSI18に送信する。
 ネットワーク通信インタフェース13は、ネットワークを介してサーバ3と接続可能である。ネットワーク通信インタフェース13は、サーバ3から送信された立体映像ストリームを取得する。
 メモリデバイスインタフェース14は、メモリカード6を装着可能に構成されており、装着されたメモリカード6から立体映像ストリームを読み出すことが可能である。メモリデバイスインタフェース14は、メモリカード6から読み出された立体映像ストリームを、LSI18に送信する。
 HDドライブ17は、ハードディスクなどの記録媒体を内蔵し、記録媒体から読み出されたデータをLSI18に送信する。また、HDドライブ17は、LSI18から受信したデータを記録媒体に記録する。
 データ伝送インタフェース15は、LSI18から送信されたデータを、外部の立体映像表示装置2に送信するためのインタフェースである。データ伝送インタフェース15は、データ信号及びコントロール信号を、立体映像表示装置2との間で送受信可能に構成されている。したがって、LSI18は、データ伝送インタフェース15を介して、立体映像表示装置2を制御することが可能である。データ伝送インタフェース15は、例えば、HDMIコネクタ等で実現可能である。なお、データ伝送インタフェース15は、データ信号を立体映像表示装置2に送信できれば、どのような構成であってもかまわない。
 バッファメモリ16は、LSI18が処理を行う際に、ワークメモリとして機能する。バッファメモリ16は、例えば、DRAMやSRAMなどで実現可能である。
 LSI18は、立体映像表示制御装置1の各部を制御するシステムコントローラである。LSI18は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現してもよい。
 LSI18の内部には、CPU181、ストリームコントローラ182、デコーダ183、AV入出力回路184、システムバス185及びメモリコントローラ186が実装されている。
 CPU181はLSI18全体を制御する。LSI18の各部は、LSI18からの制御に基づいて各種制御を行なうように構成されている。また、CPU181は外部との通信も制御する。例えば、CPU181は、データ伝送インタフェース15を介して立体映像表示装置2に要求信号を送信し、画面サイズに関する情報を取得することが可能である。CPU181は、取得した画面サイズに関する情報を、メモリコントローラ186を介してバッファメモリ16に記録する。また、CPU181は、光ディスク4、アンテナ5、サーバ3またはメモリカード6から立体映像ストリームを取得する際、ディスクドライブ11、チューナ12、ネットワーク通信インタフェース13またはメモリデバイスインタフェース14それぞれに制御信号を送信する。これによって、ディスクドライブ11、チューナ12、ネットワーク通信インタフェース13及びメモリデバイスインタフェース14は、立体映像ストリームを記録メディアや放送局等から取得することができる。
 ストリームコントローラ182は、立体映像表示制御装置1と、サーバ3、光ディスク4、アンテナ5、メモリカード6及びアクティブシャッターメガネ7との間のデータの送受信を制御する。例えば、CPU181は、サーバ3から取得した立体映像ストリームを、メモリコントローラ186に送信する。
 メモリコントローラ186は、LSI18の各部から送信されたデータを、バッファメモリ16に書き込む。例えば、メモリコントローラ186は、ストリームコントローラ182から取得した立体映像ストリームを、バッファメモリ16に記録する。また、メモリコントローラ186は、バッファメモリ16に記録されたデータを、バッファメモリ16から読み出す。そして、バッファメモリ16は、読み出したデータをLSI18の各部に送信する。
 デコーダ183は、メモリコントローラ186からデータを取得すると、取得したデータをデコードする。ここで、デコーダ183に入力されるデータは、CPU181の制御に基づいている。具体的には、CPU181は、メモリコントローラ186を制御して、バッファメモリ16に記録された立体映像ストリームを読み出させる。そして、CPU181は、読み出した立体映像ストリームをデコーダ183に送信するようメモリコントローラ186を制御する。これによって、メモリコントローラ186からデコーダ183に立体映像ストリームが入力される。
 具体的にデコーダ183は、入力された立体映像ストリームを立体映像データとその管理情報とに分離する。そして、デコーダ183は、管理情報をバッファメモリ16に記録する。
 また、デコーダ183は、立体映像データに含まれるデコード情報に基づいて、圧縮された立体映像データをデコードする。なお、デコーダ183は、デコードした情報をメモリコントローラ186に送信する。メモリコントローラ186は、受信した立体映像データをバッファメモリ16に記録する。
 AV入出力回路184は、バッファメモリ16から、立体映像データ及びその管理情報、並びに画面サイズに関する情報を読み出して、立体映像表示装置2に表示させる表示画像を生成する。そして、AV入出力回路184は、生成した表示画像を、データ伝送インタフェース15を介して立体映像表示装置2に送信する。
 なお、立体映像表示制御装置1の各部には電源(図示せず)が接続されており、電源から電力が供給されている。
 図3を参照し、立体映像表示装置2の構成を具体的に説明する。立体映像表示装置2はディスプレイ24を備え、映像データを表示する。ディスプレイ24は例えば、液晶ディスプレイ、プラズマディスプレイ又は有機ELディスプレイで構成される。立体映像表示装置2は、立体映像表示制御装置1から送信された映像データを表示可能である。立体映像表示装置2は、立体映像表示制御装置1からの要求信号に基づき、画面サイズに関する情報を立体映像表示制御装置1に送信可能である。
 より具体的に、立体映像表示装置2は、コントローラ22、メモリ23、ディスプレイ24、データ伝送インタフェース21および通信インタフェース25で構成されている。
 メモリ23には、立体映像表示装置2の画面サイズに関する情報が予め記憶されている。メモリ23は例えばフラッシュメモリやFRAMで実現可能である。
 コントローラ22は、立体映像表示制御装置1から要求信号を受け付けると、メモリ23に記憶された画面サイズに関する情報を読み出して、立体映像表示制御装置1に送信する。これによって、立体映像表示制御装置1は、立体映像表示装置2から画面サイズに関する情報を取得できる。なお、コントローラ22は、例えば、マイクロプロセッサで実現できる。
 また、データ伝送インタフェース21は、立体映像表示制御装置1とデータの送受信を行なうためのインタフェースである。データ伝送インタフェース21は、例えば、HDMI(High Definition Multimedia Interface)コネクタ等で実現できる。
 通信インタフェース25は、アクティブシャッターメガネ7と通信を行なうためのインタフェースである。通信インタフェース25は、例えば、赤外線やBluetoothなどの無線又は有線により、アクティブシャッターメガネ7との通信を確立する。
 図1に戻り、サーバ3は、立体映像ストリームが蓄積されているネットワークサーバである。サーバ3は、ネットワークに接続されており、家庭内におかれた立体映像表示制御装置1と接続可能である。サーバ3は、立体映像表示制御装置1からのアクセス要求に対応して、立体映像ストリームを立体映像表示制御装置1(ネットワーク通信インタフェース13)に送信することが可能である。
 光ディスク4は、立体映像ストリームが記録された記録メディアである。光ディスク4は、立体映像表示制御装置1のディスクドライブ11に挿入可能である。立体映像表示制御装置1(ディスクドライブ11)は、光ディスク4に記録された立体映像ストリームを読み出すことが可能である。
 アンテナ5は、放送局の放送装置から放送された立体映像ストリームを含む放送波を受信するためのアンテナである。アンテナ5は、立体映像表示制御装置1(チューナ12)に対して受信した立体映像ストリームを含む放送波を送信する。
 メモリカード6は、立体映像ストリームが記録された半導体メモリカード、又は半導体メモリを内部に有した記録媒体である。メモリカード6は、立体映像表示制御装置1(データ伝送インタフェース15)に挿入可能である。なお、立体映像表示制御装置1(データ伝送インタフェース15)は、メモリカード6に記録された立体映像ストリームを読み出すことが可能である。
 以上のように構成される立体映像表示システムにおいて、特に、立体映像表示制御装置1のAV入出力回路184は、立体映像データ及び管理情報、並びに画面サイズに関する情報を読み出し、管理情報(カメラ間の距離情報及び焦点距離情報)32及び画面サイズに関する情報に基づいて、立体映像データを画面内の表示位置(オフセット)を決定する。そして、AV入出力回路184は、決定されたオフセットに基づいて、立体映像データの表示位置を調整した表示画面のデータを、データ伝送インタフェース15を介して立体映像表示装置2に出力する。
 なお、オフセットは、立体映像データの左眼画像と右眼画像との画面内での表示位置のずれ量を示す情報である。したがって、例えばオフセットが30ピクセルであれば、AV入出力回路184は、左右の眼画像がそれらの画像の中心が60ピクセル離れて表示装置に表示されるように表示画面を生成する。つまり、AV入出力回路184は、左眼画像を表示画面の中心に対して左へ30ピクセルずらし、右眼画像を表示画面の中心に対して右へ30ピクセルずらして、それぞれ表示画面を生成する。AV入出力回路184は、このようにして生成した表示画面を示すデータを、データ伝送インタフェース15を介して立体映像表示装置2に送信する。これによって、立体映像表示装置2では、左眼画像を示す表示画面及び右眼画像を示す表示画面が順次表示される。
 以上のように、焦点距離情報に基づいてオフセットを求めることで(すなわち、オフセットを焦点距離情報に基づいて調整することで)、立体映像データに対する、より最適なオフセットを求めることができる。これによって、ユーザは、より違和感のない立体映像を視聴することができる。
2.立体映像の撮影及び表示
 本実施の形態の映像表示システムが処理対象とする立体映像データの撮影方法及び表示方法について説明する。
 2.1 立体映像の撮影方法
 図4(a)を参照して、立体映像の撮影方法について説明する。本実施の形態の立体映像表示システムが処理対象とする立体映像は複眼カメラ50で撮影される。複眼カメラ50は、左眼用カメラ51と、右眼用カメラ52と、立体映像記録回路53とを含む。左眼用カメラ51と右眼用カメラ52は、それらの光軸が平行または交差するように配置される。複眼カメラ50は、左眼用カメラ51と右眼用カメラ52により立体映像の撮影を行う際、両カメラ51、52の焦点距離を調整できる。
 複眼カメラ50において、立体映像を撮影する場合、左右のカメラ51、52で交互に静止画像を撮影する。このようにして、複眼カメラ50は、立体映像を表示するのに必要な、左眼用カメラ51で撮影された左眼画像と、右眼用カメラ52で撮影された右眼画像を順次生成する。例えば、図5に示すような左眼画像61と右眼画像62が生成される。
 複眼カメラ50は、このようにして生成された左眼画像と右眼画像を、立体映像記録回路53により立体映像データとして記録メディア(例えば、光ディスク、メモリカード、ハードディスク)に記録する。このようにして複眼カメラ50は、立体映像を表示する際に必要な立体映像データを生成できる。
 特に、本実施の形態では、複眼カメラ50(立体映像記録回路53)は、立体映像データ撮影時における左右のカメラ51、52間の距離の情報、及び、撮影時における焦点距離の情報等を含む管理情報を、立体映像データに付加して、立体映像ストリームとして記録メディアに記録する。なお、カメラ51、52間の距離の情報及び撮影時における焦点距離の情報等はフレーム毎に記録されるのが好ましい。
 例えば、図5の例では、カメラ間の距離情報として”D”を立体映像データに付加して記録する。また、焦点距離情報として、”X(mm)”(又は、画角”L”度)を付加して記録する。さらに、クロスポイントとして、自装置からの距離“K(m)”を付加して記録する(図5)。このようにして、複眼カメラ50は立体映像ストリームを生成する。立体映像ストリームの具体的な構成は後述する。
 2.2 立体映像の表示方法
 立体映像の表示方法について説明する。本実施の形態の立体映像表示装置2は、図6(a)に示すようなアクティブシャッターメガネ7を用いて立体映像を視聴可能にするための映像を表示する。具体的には、図6(b)に示すように、立体映像表示制御装置1は、立体映像表示装置2に対して、左眼用の画像(左眼画像)と右眼用の画像(右眼画像)が示す画面データを交互に出力する。立体映像表示装置2は、立体映像表示制御装置1から受信した画面データをディスプレイ24の画面上に順次表示する。ユーザは、このようにしてディスプレイ24に表示された映像を、アクティブシャッターメガネ7を介して視認することで立体映像を認識できる。
 特に、この表示動作において、本実施形態の立体映像表示制御装置1は、図4(b)に示すように、左眼画像と右眼画像の表示画面内の表示位置(オフセット)を、画像の撮影時の焦点距離に基づいて調整する。このオフセットの調整動作の詳細は後述する。
 アクティブシャッターメガネ7は、ユーザの左右の何れかの視野を遮ることが可能なシャッタを備えている。アクティブシャッターメガネ7は、立体映像表示装置2に左眼画像が表示されると、ユーザの立体映像表示装置2に対する右眼の視野を遮る一方で、立体映像表示装置2に右眼画像が表示されると、ユーザの立体映像表示装置2に対する左眼の視野を遮る。つまり、図6(b)に示すように、立体映像表示装置2に左眼画像を示す画面が表示されている場合は、ユーザは、左眼で映像を見ることになり、立体映像表示装置2に右眼画像を示す画面が表示されている場合は、ユーザは、右眼で映像を見ることになる。これによって、ユーザは、立体映像表示装置2に順次表示された画面を立体映像として認識できる。
3.無歪み条件
 図4を参照して、ユーザが立体映像を最適な状態で視認することができる無歪み条件を説明する。無歪み条件は下記の3つの条件を含む。
 1)複眼カメラ50が立体映像を撮影した際の画角(θc)と、ユーザが立体映像表示装置2を視聴する際の画角(θd)とが一致。
 2)複眼カメラ50が立体映像を撮影した際の左眼画像と右眼画像のオフセット(dc)と、立体映像表示装置2に立体映像を表示する際の左眼画像と右眼画像のオフセット(dd)とが一致。
 3)撮影レンズの光軸が平行であること
 例えば、立体映像データが、左右のカメラ51、52間の距離(dc)65mm、焦点距離50mmで撮影された場合を想定する。左右のカメラ間の距離(dc)65mmは、人間の左右の目の間の距離(de)(約63mm~68mm)に相当する値である。焦点距離50mm(画角46度)は、人間が普段見ている遠近感とほぼ等しい値である。このような立体映像データを立体映像表示装置2に表示する場合、以下のようにして、左眼画像及び右眼画像の画面内の表示位置を調整する。ここで、立体映像表示装置2の横方向の画面サイズWおよび最適な視聴距離Lは人間の遠近感にほぼ等しくなる値に調整されているものとする。つまり、複眼カメラ50が立体映像を撮影した際の画角(θc)46度と、立体映像表示装置2の横方向の画面サイズWおよび最適な視聴距離Lによって得られる画角(θd)とが一致することになる。
 このような場合、立体映像表示制御装置2は、左眼画像の画面内の表示位置を、画面の中心から左へ(dc/2)mm、つまり、32.5mm分移動するよう調整する。また、立体映像表示制御装置2は、右眼画像の画面内の表示位置を、画面の中心から右へ(dc/2)mm、つまり、32.5mm分移動するよう調整する。このようにして、立体映像データを撮影する際の左右のカメラ間の距離と、立体映像データを表示する際の左眼画像と右眼画像の位置関係を一致させる。つまり、撮影時の左右のカメラ51、52間の距離dcと、左眼画像と右眼画像の画面内の表示位置の関係ddとを一致させる。
 上記のようにすれば、複眼カメラ50が立体映像を撮影した際の画角θcと、ユーザが立体映像表示装置2を視聴する際の画角θdを一致させることができ、かつ、複眼カメラ50が立体映像を撮影した際の右眼画像と左眼画像のオフセットと、立体映像表示装置2に立体映像を表示する際のオフセットを一致させることができる。このような状況で立体映像を視聴した場合、ユーザはより最適な立体映像を視聴することができる。
 すなわち、本実施の形態は、複眼カメラ50で焦点距離が変更された状態で立体映像が撮影された場合であっても、立体映像を表示する際に、上記条件に近い条件を得ることを可能にするものである。
 なお、上記の例では、アクティブシャッターメガネ7を使用する立体映像表示装置を説明した。しかし、この構成に限られず、左眼画像と右眼画像をディスプレイに表示する際、左眼画像と右眼画像の画面内の表示位置(オフセット)を調整して表示するものであればどのような表示装置でもよい。
 上記のとおり、本実施の形態では、複眼カメラ50が立体映像を撮影する場合、2つのカメラ51、52の焦点距離が調整される。しかし、カメラ51、52の焦点距離が変わると、複眼カメラ50においてユーザの視野角と異なる立体映像データが記録される。このような立体映像データを、複眼カメラ50における左右のカメラ51、52間の距離(固定値)に基づいて表示装置に表示してしまうと、立体映像はユーザにとって違和感のあるものになってしまう。以下、図7を用いてこの例を具体的に説明する。
 例えば、図7(a)に示すように、ズーム側の焦点距離で立体映像が撮影され、図7(b)に示すように、ワイド側の焦点距離で立体映像が撮影されたとする。この場合、図7(a)と図7(b)の立体映像データは、左眼画像と右眼画像の位置関係(位置のずれ)が異なる。これは、撮影時の焦点距離(視野角)が異なるからである。例えば、図7(a)と図7(b)に示すように、ズーム側で撮影した場合の左眼画像と右眼画像の位置のずれの方が、ワイド側で撮影した場合の左眼画像と右眼画像の位置のずれよりも大きい。
 このため、立体映像表示制御装置1において、左右のカメラ51、52間の距離だけに基づき、左眼画像と右眼画像の表示画面内の表示位置(オフセット)を調整した場合、ズーム側の立体映像データで調整される画面内の表示位置と、ワイド側の立体映像データで調整される画面内の表示位置とが同じになってしまう。この場合、ユーザは表示装置に表示された立体映像に違和感を覚える。この課題を解決するために、本実施形態の立体映像表示制御装置1は、画像の撮影時の焦点距離に基づいて、左眼画像と右眼画像の表示画面内の表示位置(オフセット)を調整する(詳細は後述)。
4.立体映像ストリーム
 本実施の形態の立体映像表示制御装置1が外部から取得する立体映像ストリームについて説明する。本実施の形態において、立体映像表示制御装置1が、サーバ3、光ディスク4、アンテナ5またはメモリカード6などから取得する立体映像ストリームは、立体映像データと、立体映像データの管理情報とで構成される。
 図8に立体映像ストリームの具体的な構成例を示す。同図に示すように、立体映像ストリームは、管理情報(左眼画像1)、左眼画像1、管理情報(右眼画像1)、右眼画像1、管理情報(左眼画像2)、左眼画像2、・・・のように、1フレーム毎に立体映像データの管理情報と、立体映像データ(左眼画像、右眼画像)とを記録するようにする。この構成によれば、1フレーム毎に、焦点距離情報に基づいて、ユーザに対する表示のさせ方を調整できるので、ユーザにとってより違和感のない立体映像を表示することができる。
 立体映像ストリームに含まれる立体映像データは、複眼カメラ50の左右のカメラ51、52で撮影された映像を任意の圧縮方式で符号化した情報である。圧縮方式には、MVC(Multi-view Video Coding)やMPEG4-AVCが考えられるが、これらに限られない。なお、圧縮された立体映像データには、上記圧縮方式で圧縮されているため、デコードするために必要な情報(デコード情報)が付加されている。
 立体映像データの管理情報は、撮影時における左眼用カメラ51の光軸と右眼用カメラ52の光軸との間の距離に関する情報(以下「カメラ間の距離情報」という。)と、撮影時における左右のカメラ51、52の焦点距離に関する情報(以下「焦点距離情報」という。)と、カメラ51、52からクロスポイントまでの距離に関する情報「以下「クロスポイント情報」」と、主要被写体(代表的な撮影対象)までの距離に関する情報(以下「主要被写体距離情報」)と、を含む。クロスポイント(輻輳点)は、カメラ51の光軸とカメラ52の光軸とが交差する位置を指す。主要被写体までの距離は、焦点が合っている被写体までの距離を指す。
 管理情報の具体例を説明する。管理情報において、カメラ間の距離情報、クロスポイント情報、焦点距離情報及び主要被写体距離情報は、この順序で記録される。これは、複眼カメラ50の構成上、カメラ間の距離及びクロスポイントを可変にして撮影することは難しく、焦点距離及び焦点を可変にして撮影することは容易なためである。
 なお、本実施の形態では、管理情報におけるカメラ間の距離情報は、長さ(例えば、5cm)の単位で表現する。しかし、これに限られず、例えば、カメラ間の距離情報を、カメラ51、52間の距離に対応する画像データのピクセル数で表現してもよい。
5.立体映像表示制御装置の動作
 図9のフローチャートを参照し、立体映像表示制御装置1の動作を説明する。以下、アンテナ5で得られた放送波に含まれる立体映像ストリームを立体映像表示装置2に表示させる場合を例にして説明を行なう。立体映像表示制御装置1は、アンテナ5から立体映像ストリームを取得するように設定されると、以下の動作を行う。
 まず、LSI18は、立体映像表示装置2に、立体映像表示装置2の画面サイズに関する情報を要求する要求信号を送信し、画面サイズに関する情報を取得し、取得した画面サイズに関する情報をバッファメモリ16に記憶する(S1)。そして、LSI18は、チューナ12を制御して、アンテナ5を介して得られた放送波から、立体映像ストリームを取得する(S2)。LSI18は、取得した立体映像ストリームをバッファメモリ16に記録する(S3)。LSI18は、バッファメモリ16に記録された立体映像ストリームを読み出し、立体映像ストリームを立体映像データ及び管理情報に分離する(S4)。LSI18は、分離した管理情報をバッファメモリ16に記録する。一方でLSI18は、分離した立体映像データをデコードし、デコードした立体映像データをバッファメモリ16に記録する(S5)。LSI18は、バッファメモリ16に記録された画面サイズに関する情報と管理情報に基づいて、立体映像データの左眼画像と右眼画像のオフセットを算出する(S6)。画面サイズに関する情報と管理情報(カメラ間距離、クロスポイント、焦点距離、主要被写体距離)に基づいた左眼画像と右眼画像のオフセットの算出方法については後述する。
 LSI18は、算出されたオフセットに基づいて、デコードされた立体映像データに含まれる左眼画像と右眼画像の表示画面を生成する(S7)。LSI18は、生成した左眼画像と右眼画像の表示画面を立体映像表示装置2に順次出力する(S8)。
 例えば、図10のように、左眼画像と右眼画像を立体映像表示装置2の表示画面に表示させる場合、テレ側で撮影された立体映像と、ワイド側で撮影された立体映像とでは、調整量(オフセット量)が異なる。つまり、図11(a)及び図11(b)に示すように、テレ側で撮影された立体映像のオフセット量Ltの方が、ワイド側で撮影された立体映像のオフセット量Lwよりも大きくなる。
 これによって立体映像表示制御装置1は、立体映像ストリームを違和感の少ない立体映像をユーザに視聴させることができる。
 なお、上記動作例は、本実施の形態の動作を理解しやすくするために動作順序を規定して説明しているが、実際には、それぞれの処理が並列に動作するよう構成されている。
 5.1 管理情報(カメラ間距離、クロスポイント、焦点距離、主要被写体距離)に基づくオフセットの方向及び量の違い
 以下、まず、セクション5.1.1で撮影環境の違いに応じた視差量の違いを説明した後、セクション5.1.2で撮影環境の違いに応じたオフセットの方向及び量の違いを説明する。
 5.1.1 撮影環境の違いに応じた視差量の違い
 視差量の違いを説明する前に、図16を用いて、カメラに対して、クロスポイントよりも近い被写体と遠い被写体の間での、撮影される位置の違いを説明する。
 撮影対象(主要被写体)Aがクロスポイントよりも近くに位置する場合において、仮想スクリーン上では、左眼用のカメラ51で撮影する撮影対象Aの左眼画像ALが、右眼用のカメラ52で撮影する撮影対象Aの右眼画像ARよりも、右に位置する。
 一方、撮影対象Bがクロスポイントよりも遠くに位置する場合において、仮想スクリーン上では、左眼用のカメラ51で撮影する撮影対象Bの左眼画像BLの方が、右眼用のカメラ52で撮影する撮影対象Bの右眼画像BRよりも、左に位置する。
 このような前提の下、図17を用いて、撮影環境の違いに応じた視差量の違いを説明する。図17は、管理情報(クロスポイント情報、焦点距離情報、及び主要被写体距離情報)に基づいて調整されるオフセットの方向及び量を説明した図である。
 図17を見て分かるように視差量(実線矢印)は、撮影時点の焦点距離がワイド側かテレ側かに応じて変化する。例えば、ワイド側で撮影された場合、主要被写体の視差量は小さくなる。一方、テレ側で撮影された場合、主要被写体の視差量は大きくなる。
 なお、図示しないが、視差量の違いは、カメラ間の距離が狭いか広いかに応じても変化する。例えば、カメラ間の距離が狭い状態で撮影された場合、主要被写体の視差量は小さくなる。一方、カメラ間の距離が広い状態で撮影された場合、主要被写体の視差量は大きくなる。
 つまり、上記のように撮影状況(焦点距離、カメラ間距離、等)に応じて視差量が変化するので、この視差量の変化をキャンセルすれば、より無歪み条件に近い立体映像をユーザに提供できる。
 5.1.2 オフセット方向及び量
 本実施形態の立体映像表示制御装置1は、撮影状況に応じて変化する視差量に基づき、オフセットを調整する。例えば、主要被写体が、クロスポイントよりも近く(図17(A))、かつ、ワイド側で撮影された場合、左眼画像については、基準の焦点距離(50mm)における視差量に近い視差量が得られるよう、右方向にオフセットをつける。
 また、主要被写体がクロスポイントよりも近く(図17(A))、かつ、テレ側で撮影された場合、左眼画像については、基準の焦点距離における視差量に近い視差量が得られるよう、左方向にオフセットをつける。
 一方、主要被写体がクロスポイントよりも遠く(図17(C))、かつ、ワイド側で撮影された場合、左眼画像については、基準の焦点距離における視差量に近い視差量が得られるよう、左方向のオフセットをつける。
 また、主要被写体がクロスポイントよりも遠く(図17(C))、かつ、テレ側で撮影された場合、左眼画像については、基準の焦点距離における視差量に近い視差量が得られるよう、右方向のオフセットをつける。
 つまり、ワイド側は、視差量が大きくなるように調整する。一方、テレ側は、視差量が小さくなるよう調整する。このように焦点距離に応じて左眼画像及び右眼画像にオフセットをつけることで、より無歪み条件に近い立体映像をユーザに提供できる。
 なお、右眼画像については、左眼画像と反対方向に、左眼画像と同量のオフセットをつける。また、主要被写体までの距離とクロスポイントまでの距離が等しい場合(図17(B))、管理情報に基づく、オフセットの調整は行わない。また、カメラ間の距離の変化に対しては、カメラ間の距離が狭くなれば、視差量が大きくなるように、オフセットを調整する。一方、カメラ間の距離が広くなれば、視差量が小さくなるようにオフセットを調整する。
 5.1 焦点距離に基づいたオフセットの算出
 以下、画面サイズに関する情報と管理情報(クロスポイントまでの距離、カメラ間距離、焦点距離)に基づいた左眼画像と右眼画像のオフセットの量の算出方法について説明する。
 以下の説明では、図12(a)、12(b)に示すように、複眼カメラのカメラ51、52からクロスポイント(光軸が交差する点)までの距離をX、カメラ51とカメラ52間の距離(基線長)をdc、焦点距離をF、カメラ51、52の撮像素子の横幅をD、撮影距離をA、撮像された画面の横幅をB、輻輳角をα、水平画角をθとすると、以下の関係が成り立つ。
  X=dc{2tan(α/2)}          (1.1)
  B=2Atan(θ/2) または A・D/F  (1.2)
(1)カメラ51、52が輻輳角を有する場合
 1-1)撮影距離A>カメラからクロスポイントまでの距離Xの場合
 図13(a)を参照し、カメラ51、52で撮影された映像の視差dbは次式で与えられる。
  db=dc(A-X)/X   (2)
 また、立体映像表示装置2の画面上での視差(オフセット)dd(図14参照)は、カメラで撮影された映像の視差dbに、撮影された画面の横幅Bと、立体映像表示装置2の画面横幅Wとから次式で表される。
  dd=(撮影時の視差)×(立体映像表示装置2で表示する場合の倍率)
    =db(W/B)       (3)
 よって、式(1.2)、(2)、(3)より立体映像表示装置2の画面上での視差(オフセット)ddは次式で得られる。
  dd=dc(A-X)/X×(W/B)
    =dc(A-X)/X×W/{2Atan(θ/2)}
    =dc(A-X)W/{2XAtan(θ/2)}または
     dc(A-X)W・F/(X・D・A)        (4)
 1-2)撮影距離A<カメラからクロスポイントまでの距離Xの場合
 図13(b)を参照し、カメラ51、52で撮影された映像の視差dbは次式で得られる。
  db=dc(X-A)/X   (5)
 よって、立体映像表示装置2の画面上での視差ddは次式で表される。
  dd=dc(X-A)/X×(W/B)
    =dc(X-A)/X×W/{2Atan(θ/2)}
    =dc(X-A)W/{2XAtan(θ/2)}または
     dc(X-A)W・F/(X・D・A)        (6)
(2)カメラ51、52が平行に配置されている場合
 図15を参照し、カメラ51、52で撮影された映像の視差dbは次式となる。
  db=dc        (7)
  dd=dc(W/B)   (8)
 よって、式(1.2)、(7)、(8)より、立体映像表示装置2の画面上での視差ddは次式で表される。
  dd=dc(W/B)
    =dc・W/{2Atan(θ/2)}または
     dc・W・F/(D・A)         (9)
 したがって、輻輳角を有するカメラ及び平行なカメラの場合において、上式(4)、(6)、(9)のいずれかを用いて、立体映像表示装置2の画面上での視差(オフセット量)ddを、画面サイズW、カメラ間距離dc、焦点距離Fに基づき求めることができる。換言すれば、本実施形態では、撮影時のカメラの視差(dc)を、焦点距離F及び画面サイズWに基づき調整している。
 なお、カメラ51、52の撮像素子の幅D、撮影距離A、カメラ51、52からクロスポイントまでの距離X、輻輳角α、水平画角θ等の情報は、立体映像ストリームの管理情報に記録されるのが好ましい。しかし、必ずしもこれらの情報が管理情報に記録される必要はない。管理情報から得られないパラメータについては、それらの値を所定値に設定して、立体映像表示装置2の画面上での視差(オフセット量)を計算してもよい。
 また、上述の算出式は一例であり、他の算出式を用いて立体映像表示装置2の画面上での視差(オフセット量)を求めることも可能である。
 また、焦点距離F及び画面サイズWのいずれかのみに基づき立体映像表示装置2の画面上での視差(オフセット量)を調整してもよく、画面サイズW及びカメラ間距離dcの双方を同時に考慮しなくてもよい。撮影時の焦点距離に基づいて立体映像表示装置2での表示時のオフセット(視差情報)を調整することで、撮影時のカメラの焦点距離の変化の影響を受けずに、ユーザにとって違和感のない立体映像を表示できる。また、画面サイズの変化によってもユーザの視野の画角が変化し、ユーザにとって違和感のある立体映像が表示される場合がある。よって、画面サイズWのみを考慮し、立体映像表示装置2の画面上での視差を調整することでも、ユーザにとって違和感のない立体映像を表示できる。
6.まとめ
 本実施形態の立体映像表示制御装置1は、2つのカメラ51、52を含む複眼カメラ50によって撮影された立体映像情報と、立体映像情報が撮影されたときの2つのカメラの焦点距離Fに関する情報と、を含む立体映像ストリームを取得するLSI18と、取得した立体映像ストリームに含まれる焦点距離Fに関する情報に基づいて、立体映像情報に含まれる左眼画像と右眼画像の表示画面内の表示位置を決定するためのオフセット量を調整するLSI18と、調整されたオフセット量に基づいて立体映像情報が表示されるように、立体映像情報を制御するLSI18と、を備える。
 この構成により、複眼カメラで撮影された際の焦点距離の情報に応じて、左眼映像及び右眼映像を表示する際の表示画面内の表示位置を調整でき、撮影時のカメラの焦点距離の変化の影響を受けずに、ユーザにとって違和感のない立体映像を表示できる。
 また、本実施形態の複眼カメラ50は、左眼用カメラ51と、左眼用カメラ51の光軸と平行なまたは交差する光軸を有する右眼用カメラ52と、カメラ51、52で撮像された映像を映像情報として記録する立体映像記録回路53とを備える。立体映像記録回路53は、フレーム毎のカメラ51、52の焦点距離Fに関する情報を映像情報の管理情報として記録する。
 なお、映像ソースから立体映像表示制御装置1への3D映像の伝送方式は、サイドバイサイド方式及びトップアンドボトム方式のいずれでもよい。また、それ以外の方式でもよい。
 本発明の実施形態は上述の実施の形態に限定されず、その他様々な態様で実現可能である。
 本発明の立体映像表示制御装置は、DVDプレーヤやBDプレーヤなどの光ディスク再生装置やチューナを備えたテレビ受像機に適用することが可能である。
1 立体映像表示制御装置
2 立体映像表示装置
3 サーバ
4 光ディスク
5 アンテナ
6 メモリカード
7 アクティブシャッターメガネ
11 ディスクドライブ
12 チューナ
13 ネットワーク通信インタフェース
14 メモリデバイスインタフェース
15 データ伝送インタフェース
16 バッファメモリ
17 HDドライブ
18 LSI
50 複眼カメラ
51 左眼用カメラ
52 右眼用カメラ
181 CPU
182 ストリームコントローラ
183 デコーダ
184 AV入出力回路
185 システムバス
186 メモリコントローラ
21 データ伝送インタフェース
22 コントローラ
23 メモリ
24 ディスプレイ
25 通信インタフェース

Claims (9)

  1.  2つのカメラを含む複眼カメラによって撮影された立体映像情報と、前記立体映像情報が撮影されたときの前記2つのカメラの焦点距離に関する情報と、を含む立体映像ストリームを取得する取得手段と、
     前記取得した立体映像ストリームに含まれる焦点距離に関する情報に基づいて、前記立体映像情報に含まれる左眼画像と右眼画像の表示画面内の表示位置を決定するためのオフセット量を調整する調整手段と、
     前記調整されたオフセット量に基づいて前記立体映像情報が表示されるように、前記立体映像情報を制御する表示制御手段と、
    を備える立体映像表示制御装置。
  2.  前記立体映像ストリームは、前記2つのカメラの光軸が交差する点であるクロスポイントに関する情報をさらに含み、
     前記調整手段は、前記焦点距離に関する情報と、前記クロスポイントに関する情報とに基づいて前記オフセット量を調整する、
    請求項1に記載の立体映像表示制御装置。
  3.  前記立体映像ストリームは、前記カメラ間の距離に関する情報をさらに含み、
     前記調整手段は、前記焦点距離に関する情報と、前記クロスポイントに関する情報と、前記カメラ間の距離に関する情報とに基づいて前記オフセット量を調整する、
    請求項2に記載の立体映像表示制御装置。
  4.  前記立体映像ストリームは、前記カメラ間の距離に関する情報をさらに含み、
     前記調整手段は、前記焦点距離に関する情報と、前記カメラ間の距離に関する情報とに基づいて前記オフセット量を調整する、
    請求項1に記載の立体映像表示制御装置。
  5.  2つのカメラを含む複眼カメラによって撮影された立体映像情報を含む立体映像ストリームを取得する第1の取得手段と、
     前記立体映像情報を表示する表示装置の画面サイズを示す情報を取得する第2の取得手段と、
     前記取得した画面サイズを示す情報に基づいて、前記立体映像情報に含まれる左眼映像と右眼映像との表示画面内の表示位置を決定するためのオフセット量を調整する調整手段と、
     前記調整されたオフセット量に基づいて前記立体映像情報が表示されるように、前記立体映像情報を制御する表示制御手段と、
    を備える立体映像表示制御装置。
  6.  前記立体映像ストリームは、前記2つのカメラ間の距離に関する情報をさらに含み、
     前記調整手段は、前記画面サイズに関する情報と、前記距離に関する情報とに基づいて、前記オフセット量を調整する、
    請求項5に記載の立体映像表示制御装置。
  7.  第1のカメラと、
     前記第1のカメラの光軸と平行なまたは交差する光軸を有する第2のカメラと、
     前記第1及び第2のカメラで撮像された映像を映像情報として記録する記録手段とを備え、
     前記記録手段は、フレーム毎の前記第1及び第2のカメラの焦点距離に関する情報を、前記映像情報の管理情報として記録する、
    立体映像撮像装置。
  8.  前記第2のカメラが前記第1のカメラの光軸と交差する光軸を有する場合に、前記記録手段は、さらに、前記第1のカメラの光軸と前記第2のカメラの光軸が交差する点であるクロスポイントに関する情報を前記映像情報の管理情報として記録する、
    請求項7記載の立体映像撮像装置。
  9.  前記記録手段は、さらに、前記第1及び第2のカメラ間の距離に関する情報を前記映像情報の管理情報として記録する、
    請求項7記載の立体映像撮像装置。
PCT/JP2010/005162 2009-08-28 2010-08-23 立体映像表示制御装置及び立体映像撮像装置 WO2011024423A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-197825 2009-08-28
JP2009197825 2009-08-28

Publications (1)

Publication Number Publication Date
WO2011024423A1 true WO2011024423A1 (ja) 2011-03-03

Family

ID=43627545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005162 WO2011024423A1 (ja) 2009-08-28 2010-08-23 立体映像表示制御装置及び立体映像撮像装置

Country Status (1)

Country Link
WO (1) WO2011024423A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013031392A1 (ja) * 2011-08-30 2013-03-07 富士フイルム株式会社 立体撮像装置
WO2013128847A1 (ja) * 2012-03-02 2013-09-06 パナソニック株式会社 視差量調整装置、3次元画像生成装置、および視差量調整方法
WO2017075687A1 (en) * 2015-11-03 2017-05-11 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
CN114900680A (zh) * 2022-07-06 2022-08-12 广东欧谱曼迪科技有限公司 3d摄像系统、视野矫正方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2005117193A (ja) * 2003-10-03 2005-04-28 Ntt Docomo Inc 撮像端末、画像表示端末、及び画像表示システム
JP2006115246A (ja) * 2004-10-15 2006-04-27 Canon Inc 立体表示のための画像処理プログラム、画像処理装置および立体表示システム
JP2006173919A (ja) * 2004-12-14 2006-06-29 Matsushita Electric Ind Co Ltd 撮像装置および画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084560A1 (ja) * 2003-03-20 2004-09-30 Seijiro Tomita 立体映像撮影表示システム
JP2005117193A (ja) * 2003-10-03 2005-04-28 Ntt Docomo Inc 撮像端末、画像表示端末、及び画像表示システム
JP2006115246A (ja) * 2004-10-15 2006-04-27 Canon Inc 立体表示のための画像処理プログラム、画像処理装置および立体表示システム
JP2006173919A (ja) * 2004-12-14 2006-06-29 Matsushita Electric Ind Co Ltd 撮像装置および画像処理プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013031392A1 (ja) * 2011-08-30 2013-03-07 富士フイルム株式会社 立体撮像装置
WO2013128847A1 (ja) * 2012-03-02 2013-09-06 パナソニック株式会社 視差量調整装置、3次元画像生成装置、および視差量調整方法
WO2017075687A1 (en) * 2015-11-03 2017-05-11 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
GB2559090A (en) * 2015-11-03 2018-07-25 Synaptive Medical Barbados Inc Duel zoom and duel field-of-view microscope
GB2559090B (en) * 2015-11-03 2020-10-07 Synaptive Medical Barbados Inc Dual zoom and dual field-of-view microscope
CN114900680A (zh) * 2022-07-06 2022-08-12 广东欧谱曼迪科技有限公司 3d摄像系统、视野矫正方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
US8077964B2 (en) Two dimensional/three dimensional digital information acquisition and display device
US20150358539A1 (en) Mobile Virtual Reality Camera, Method, And System
JP3157384B2 (ja) 立体映像装置
JP5891424B2 (ja) 立体映像作成装置および立体映像作成方法
JP5328082B2 (ja) 映像送信及び受信方法と装置、及びその伝送ストリーム構造
KR101824439B1 (ko) 모바일 스테레오 카메라 장치 및 그 촬영방법
US20050207486A1 (en) Three dimensional acquisition and visualization system for personal electronic devices
WO2010092823A1 (ja) 表示制御装置
KR20110039537A (ko) 3d 비디오 신호들을 위한 멀티 표준 코딩 장치
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
US9654762B2 (en) Apparatus and method for stereoscopic video with motion sensors
KR20150068299A (ko) 다면 영상 생성 방법 및 시스템
JP2006128818A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
WO2011024423A1 (ja) 立体映像表示制御装置及び立体映像撮像装置
JP2006128816A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2012089906A (ja) 表示制御装置
JP5638791B2 (ja) 撮像装置
EP2852149A1 (en) Method and apparatus for generation, processing and delivery of 3D video
JP2012134885A (ja) 画像処理装置及び画像処理方法
JP2014022947A (ja) 立体視映像伝送装置、立体視映像伝送方法及び立体視映像処理装置
JP5297899B2 (ja) 立体映像調整装置、立体映像調整システム、及びプログラム
KR20140030202A (ko) 기록 장치, 기록 방법, 재생 장치, 재생 방법, 프로그램 및 기록 재생 장치
KR100703713B1 (ko) 3차원 영상 획득 및 디스플레이가 가능한 3차원 모바일 장치
WO2022269967A1 (ja) 1枚の撮像素子の1台のカメラの映像を既存のすべての3d型式にエンコードする
JPH11103473A (ja) 立体映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10811482

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10811482

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP