WO2011033706A1 - 映像信号処理装置、及び、映像信号処理方法 - Google Patents

映像信号処理装置、及び、映像信号処理方法 Download PDF

Info

Publication number
WO2011033706A1
WO2011033706A1 PCT/JP2010/004113 JP2010004113W WO2011033706A1 WO 2011033706 A1 WO2011033706 A1 WO 2011033706A1 JP 2010004113 W JP2010004113 W JP 2010004113W WO 2011033706 A1 WO2011033706 A1 WO 2011033706A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye image
image
video signal
eye
unit
Prior art date
Application number
PCT/JP2010/004113
Other languages
English (en)
French (fr)
Inventor
中村毎良
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN2010800099765A priority Critical patent/CN102342122A/zh
Publication of WO2011033706A1 publication Critical patent/WO2011033706A1/ja
Priority to US13/192,930 priority patent/US20110285819A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size

Definitions

  • the present invention relates to a video signal processing device, and more particularly to a video signal processing device that processes a three-dimensional video signal.
  • a video signal processing apparatus that processes a 3D video signal including a left eye image and a right eye image in order to display a 3D video that a viewer feels stereoscopically (for example, a patent Reference 1).
  • the image for the left eye and the image for the right eye have parallax with each other, and are, for example, images generated by two cameras arranged at different positions.
  • the video signal processing device performs format conversion processing on the input 3D video signal, for example.
  • the format conversion processing includes, for example, frame rate conversion processing, image size conversion processing, and conversion processing to a scanning method.
  • the video signal processing device outputs the 3D video signal subjected to the format conversion process to the 3D video display device.
  • the 3D image display device displays a 3D image that the viewer feels stereoscopically by displaying a left eye image and a right eye image in a predetermined manner.
  • the 3D video display device alternately displays a left-eye image and a right-eye image for each frame.
  • the present invention has been made to solve the above problems, and an object thereof is to provide a video signal processing device and a video signal processing method capable of suppressing an increase in processing amount.
  • a video signal processing apparatus is a video signal processing apparatus that processes a 3D video signal including a left-eye image and a right-eye image, the left-eye image and An information acquisition unit that acquires information used when performing a predetermined process from one of the images for the right eye, and the information for the left eye and the right eye using the information acquired by the information acquisition unit An image processing unit that performs the predetermined process on both images.
  • the left-eye image and the right-eye image are usually images obtained by photographing the same subject from different viewpoints, predetermined processing is performed on each of the left-eye image and the right-eye image. In this case, since the processing results are often the same, the results can be shared.
  • the information acquisition unit may detect whether the 3D video signal is a video signal generated from a film video by performing film detection on one of the left-eye image and the right-eye image. Film information may be acquired.
  • Film detection is an example of image feature detection processing, and is processing for detecting whether or not a 3D video signal is a video signal generated from a film video.
  • the same detection result is usually obtained for the left-eye image and the right-eye image. Therefore, by sharing the result of film detection, duplication of processing can be avoided and increase in processing amount can be suppressed.
  • the information acquisition unit may further select a picture generated from the same frame among a plurality of frames included in the film video when the 3D video signal is a video signal generated from a film video.
  • the image processing unit acquires the left eye image as the predetermined processing.
  • each of the right-eye image and the right-eye image may be subjected to at least one of scanning method conversion and frame rate conversion using the picture information.
  • the information acquisition unit includes the specific image by detecting whether one of the left-eye image and the right-eye image includes a specific image having a constant luminance value. Specific image information indicating a region may be acquired.
  • the specific image is an image having a constant luminance value, for example, and is an image added to the original image for the purpose of adjusting the aspect ratio. Since the image for the left eye and the image for the right eye are usually added to the same region, it is only necessary to detect a specific image from either the image for the left eye or the image for the right eye, and avoid duplication of processing. .
  • the information acquisition unit detects whether the specific image is included in the left side and the right side of the image with respect to one of the left-eye image and the right-eye image. May be obtained.
  • the information acquisition unit detects whether the specific image is included in an upper side and a lower side of the image for one of the left-eye image and the right-eye image. Information may be acquired.
  • the image processing unit may calculate an average luminance value of an effective image area other than the area indicated by the specific image information for both the left-eye image and the right-eye image.
  • the average luminance value of the original image can be calculated by calculating the average luminance value of the effective image area other than the specific image area. This is because the detected specific image is not the original image, and therefore when the average luminance value of the entire area of the image is calculated, a value different from the average luminance value of the original image is calculated.
  • the video signal processing apparatus further includes a dividing unit that divides the 3D video signal into the left-eye image and the right-eye image, and the image processing unit adds the left-eye image to the left-eye image.
  • a left-eye image processing unit that performs predetermined processing; and a right-eye image processing unit that performs the predetermined processing on the right-eye image, wherein the information acquisition unit is divided by the dividing unit.
  • the information may be acquired from one of the left-eye image and the right-eye image, and the acquired information may be output to the left-eye image processing unit and the right-eye image processing unit.
  • the present invention can be realized not only as the video signal processing apparatus described above, but also as a method using the processing units constituting the video signal processing apparatus as steps. Moreover, you may implement
  • a communication network such as the Internet.
  • each of the video signal processing devices may be configured by one system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically includes a microprocessor, ROM, RAM (Random Access Memory), and the like. Computer system.
  • an increase in processing amount can be suppressed.
  • FIG. 1 is a block diagram showing a configuration of a video signal processing system including a video signal processing device according to the first embodiment.
  • 2A is a diagram showing an example of an arrangement pattern of 3D video signals according to Embodiment 1.
  • FIG. 2B is a diagram showing an example of an arrangement pattern of 3D video signals according to Embodiment 1.
  • FIG. 3 is a block diagram showing a configuration of the video signal processing apparatus according to the first embodiment.
  • FIG. 4 is a flowchart showing an example of the operation of the video signal processing apparatus according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the flow of a 3D video signal by the video signal processing apparatus according to the first embodiment.
  • FIG. 6 is a block diagram illustrating an example of a configuration of the conversion processing unit according to the first embodiment.
  • FIG. 7 is a flowchart illustrating an example of the operation of the conversion processing unit according to the first embodiment.
  • FIG. 8 is a diagram illustrating an example of a film image and an input 3D image signal.
  • FIG. 9 is a diagram illustrating a processing example when the IP conversion unit according to Embodiment 1 performs IP conversion from 60i video to 60p video.
  • FIG. 10A is a block diagram illustrating an example of a configuration of an input selection unit according to the second embodiment.
  • FIG. 10B is a block diagram illustrating another example of the configuration of the input selection unit according to the second embodiment.
  • FIG. 11A is a diagram illustrating an example of a side panel image.
  • FIG. 11A is a diagram illustrating an example of a side panel image.
  • FIG. 11B is a diagram illustrating an example of a letterbox image.
  • FIG. 12 is a diagram illustrating an example of the operation of the input selection unit according to the second embodiment.
  • FIG. 13 is an external view showing an example of a digital video recorder and a digital television provided with the video signal processing apparatus according to the present invention.
  • the video signal processing apparatus is a video signal processing apparatus that processes a 3D video signal including a left-eye image and a right-eye image, and is one of a left-eye image and a right-eye image. From the information acquisition unit that acquires information used when performing the predetermined process, and the information acquired by the information acquisition unit, the predetermined process is performed on both the left-eye image and the right-eye image. And an image processing unit.
  • the information acquisition unit performs film detection, which is an example of image feature amount detection processing, and uses the detection result to obtain left-eye video data including a left-eye image and Scanning type conversion or frame rate conversion is performed on both the right-eye video data including the right-eye image.
  • FIG. 1 is a block diagram showing a configuration of a video signal processing system 10 including a video signal processing apparatus 100 according to the first embodiment.
  • the video signal processing system 10 shown in FIG. 1 includes a digital video recorder 20, a digital television 30, and shutter glasses 40.
  • the digital video recorder 20 and the digital television 30 are connected by an HDMI (High Definition Multimedia Interface) cable 41.
  • HDMI High Definition Multimedia Interface
  • the digital video recorder 20 converts the format of the 3D video signal recorded on the recording medium 42 and outputs the converted 3D video signal to the digital television 30 via the HDMI cable 41.
  • the recording medium 42 is, for example, an optical disk such as a BD (Blu-ray Disc), a magnetic disk such as an HDD (Hard Disk Drive), or a nonvolatile memory.
  • the digital television 30 converts the format of the 3D video signal input from the digital video recorder 20 via the HDMI cable 41 or the 3D video signal included in the broadcast wave 43, and is included in the converted 3D video signal. 3D images are displayed.
  • the broadcast wave 43 is, for example, terrestrial digital television broadcast, satellite digital television broadcast, or the like.
  • the shutter glasses 40 are glasses worn by a viewer to view a 3D image, for example, liquid crystal shutter glasses.
  • the shutter glasses 40 include a left-eye liquid crystal shutter and a right-eye liquid crystal shutter, and can control opening and closing of the shutter in synchronization with an image displayed on the digital television 30.
  • the digital video recorder 20 may convert the format of the 3D video signal included in the broadcast wave 43 or the 3D video signal acquired via a communication network such as the Internet.
  • the digital video recorder 20 may convert the format of the 3D video signal input from an external device via an external input terminal (not shown).
  • the digital television 30 may convert the format of the 3D video signal recorded on the recording medium 42.
  • the digital television 30 may convert the format of a 3D video signal input from an external device other than the digital video recorder 20 via an external input terminal (not shown).
  • the digital video recorder 20 and the digital television 30 may be connected by a standard cable other than the HDMI cable 41 or may be connected by a wireless communication network.
  • the digital video recorder 20 includes an input unit 21, a decoder 22, a video signal processing device 100, and an HDMI communication unit 23.
  • the input unit 21 acquires the 3D video signal 51 recorded on the recording medium 42.
  • the 3D video signal 51 is, for example, MPEG-4 AVC / H.
  • An encoded 3D image that is compression-encoded based on a standard such as H.264 is included.
  • the decoder 22 generates the input 3D video signal 52 by decoding the 3D video signal 51 acquired by the input unit 21.
  • the video signal processing apparatus 100 generates an output 3D video signal 53 by processing the input 3D video signal 52 generated by the decoder 22.
  • the detailed configuration and operation of the video signal processing apparatus 100 will be described later.
  • the HDMI communication unit 23 outputs the output 3D video signal 53 generated by the video signal processing device 100 to the digital television 30 via the HDMI cable 41.
  • the digital video recorder 20 may store the generated output 3D video signal in a storage unit (such as an HDD and a nonvolatile memory) included in the digital video recorder 20.
  • recording may be performed on a recording medium (such as an optical disk) that is detachable from the digital video recorder 20.
  • the digital video recorder 20 when the digital video recorder 20 is connected to the digital television 30 by means other than the HDMI cable 41, the digital video recorder 20 may include a communication unit corresponding to the means instead of the HDMI communication unit 23.
  • the digital video recorder 20 includes a wireless communication unit when the connection unit is a wireless communication network, and a communication unit corresponding to the standard when the connection unit is a cable according to another standard.
  • the digital video recorder 20 may include a plurality of communication units and switch between the plurality of communication units.
  • the digital television 30 includes an input unit 31, a decoder 32, an HDMI communication unit 33, a video signal processing device 100, a display panel 34, and a transmitter 35.
  • the input unit 31 acquires a 3D video signal 54 included in the broadcast wave 43.
  • the 3D video signal 54 is, for example, MPEG-4 AVC / H.
  • An encoded 3D image that is compression-encoded based on a standard such as H.264 is included.
  • the decoder 32 generates the input 3D video signal 55 by decoding the 3D video signal 54 acquired by the input unit 31.
  • the HDMI communication unit 33 acquires the output 3D video signal 53 output from the HDMI communication unit 23 of the digital video recorder 20 and outputs it to the video signal processing device 100 as the input 3D video signal 56.
  • the video signal processing apparatus 100 generates the output 3D video signal 57 by processing the input 3D video signals 55 and 56. The detailed configuration and operation of the video signal processing apparatus 100 will be described later.
  • the display panel 34 displays the 3D video included in the output 3D video signal 57.
  • the transmitter 35 controls the opening and closing of the shutter of the shutter glasses 40 using wireless communication.
  • a communication unit corresponding to the means is provided instead of the HDMI communication unit 33. You may have.
  • the 3D video includes a left-eye image and a right-eye image that have parallax with each other.
  • the left eye image is selectively incident on the viewer's left eye and the right eye image is selectively incident on the viewer's right eye, so that the viewer can feel the image three-dimensionally.
  • FIG. 2A is a diagram illustrating an example of a 3D video signal arrangement pattern according to Embodiment 1.
  • the output 3D video signal 57 shown in FIG. 2A includes left-eye images 57L and right-eye images 57R alternately for each frame.
  • the frame rate of the output 3D video signal 57 is 120 fps, and the scanning method is a progressive method.
  • Such a video signal is also referred to as a 120p video signal.
  • the display panel 34 receives the output 3D video signal 57 shown in FIG. 2A and alternately displays the left-eye image 57L and the right-eye image 57R for each frame.
  • the transmitter 35 opens the left-eye liquid crystal shutter of the shutter glasses 40 and closes the right-eye liquid crystal shutter while the display panel 34 displays the left-eye image 57L.
  • the transmitter 35 opens the shutter glasses 40 so that the right eye liquid crystal shutter of the shutter glasses 40 is opened and the left eye liquid crystal shutter is closed during the period in which the display panel 34 displays the right eye image 57R. Control.
  • the left eye image 57L and the right eye image 57R are selectively incident on the viewer's left eye and the right eye, respectively.
  • the display panel 34 displays the left-eye image 57L and the right-eye image 57R by switching over time.
  • the left-eye image 57L and the right-eye image 57R are switched for each frame, but may be switched for a plurality of frames.
  • the method of selectively causing the left eye image and the right eye image to enter the viewer's left eye and right eye, respectively, is not limited to the above method, and other methods may be used.
  • the video signal processing apparatus 100 included in the digital television 30 may generate an output 3D video signal 58 as shown in FIG. 2B.
  • the generated output 3D video signal 58 is output to the display panel 34.
  • FIG. 2B is a diagram illustrating an example of an arrangement pattern of the 3D video signal according to Embodiment 1.
  • the output 3D video signal 58 shown in FIG. 2B includes a left-eye image 58L and a right-eye image 58R in different regions within one frame. Specifically, the left-eye image 58L and the right-eye image 58R are arranged in a checkered pattern.
  • the frame rate of the output 3D video signal 58 is 60 fps
  • the scanning method is a progressive method.
  • Such a video signal is also referred to as a 60p video signal.
  • the display panel 34 receives the output 3D video signal 58 shown in FIG. 2B and displays an image in which the left-eye image 58L and the right-eye image 58R are arranged in a checkered pattern.
  • the display panel 34 includes a left-eye polarizing film formed on the pixel on which the left-eye image 58L is displayed and a right-eye polarizing film formed on the pixel on which the right-eye image 58R is displayed. With. Thereby, different polarized light (linearly polarized light, circularly polarized light, etc.) is applied to the left eye image 58L and the right eye image 58R.
  • the viewer wears polarized glasses including a left-eye polarization filter and a right-eye polarization filter that respectively correspond to polarized light included in the display panel 34.
  • the left-eye image 58L and the right-eye image 58R can be selectively incident on the viewer's left eye and right eye, respectively.
  • the display panel 34 displays a video in which the left-eye image 58L and the right-eye image 58R are arranged in spatially different areas within one frame.
  • the left-eye image 58L and the right-eye image 58R are arranged for each pixel, but the left-eye image 58L and the right-eye image 58R are arranged for each of a plurality of pixels. May be. Further, the left eye image 58L and the right eye image 58R may be arranged for each horizontal line or each vertical line.
  • the video signal processing apparatus 100 processes a 3D video signal including a left-eye image and a right-eye image. Specifically, the video signal processing apparatus 100 performs format conversion processing on the input 3D video signal. For example, the video signal processing apparatus 100 included in the digital video recorder 20 converts the input 3D video signal 52 in the first format into the output 3D video signal 53 in the second format.
  • the format conversion process performed by the video signal processing apparatus 100 is at least one process of conversion of an arrangement pattern, a frame rate, a scanning method, and an image size. Note that the video signal processing apparatus 100 may perform processes other than these.
  • the conversion of the arrangement pattern is to convert a temporal arrangement or a spatial arrangement of the left eye image and the right eye image included in the 3D video signal.
  • the video signal processing apparatus 100 converts the 3D video signal shown in FIG. 2A into the 3D video signal shown in FIG. 2B.
  • the frame rate conversion is to convert the frame rate of the 3D video signal.
  • the video signal processing apparatus 100 performs frame interpolation or frame copy processing to convert a 3D video signal with a low frame rate (eg, 60 fps) into a 3D video signal with a high frame rate (eg, 120 fps). Convert.
  • the video signal processing apparatus 100 generates a frame obtained by thinning out a frame or by averaging a plurality of frames in time, thereby converting a 3D video signal having a high frame rate into a 3D video having a low frame rate. Convert to signal.
  • the scanning method conversion is conversion from the interlace method to the progressive method, or conversion from the progressive method to the interlace method.
  • the interlace method is a method in which a frame is divided into a top field composed of odd-numbered lines and a bottom field composed of even-numbered lines.
  • the conversion of the image size is to enlarge and reduce the image.
  • the video signal processing apparatus 100 enlarges an image by performing interpolation or copying of pixels.
  • the video signal processing apparatus 100 reduces an image by thinning out pixels or calculating an average value of a plurality of pixels.
  • the image size includes VGA (640 ⁇ 480), high-definition image (1280 ⁇ 720), and full high-definition image (1920 ⁇ 1080).
  • FIG. 3 is a block diagram showing the configuration of the video signal processing apparatus 100 according to the first embodiment.
  • the video signal processing apparatus 100 shown in FIG. 3 includes an input selection unit 110, a first processing unit 120, a second processing unit 130, and a synthesis unit 140.
  • the input selection unit 110 divides the input 3D video signal into a left-eye image 210L and a right-eye image 210R, outputs the left-eye image 210L to the first processing unit 120, and the right-eye image 210R 2 to the processing unit 130. Specifically, the input selection unit 110 converts the input 3D video signal from the left-eye image data including only the left-eye image out of the left-eye image and the right-eye image, and only the right-eye image. It is divided into video data for the right eye including it. Then, the input selection unit 110 outputs the left-eye video data to the first processing unit 120 and outputs the right-eye video data to the second processing unit 130. The input selection unit 110 outputs the input 3D video signal to the first processing unit 120 and the second processing unit 130, respectively, and the first processing unit 120 extracts the left-eye video data, and the second processing unit. 130 may extract right-eye video data.
  • the first processing unit 120 processes the left-eye video data input from the input selection unit 110. Specifically, the first processing unit 120 performs format conversion of the left-eye video data. At this time, the first processing unit 120 acquires information used when performing a predetermined process from the left-eye video data, and outputs the acquired information to the second processing unit 130. For example, the first processing unit 120 obtains predetermined information as a feature detection result by performing an image feature detection process on the input left-eye video data.
  • the image feature detection process is, for example, film detection. Details of film detection will be described later.
  • the second processing unit 130 processes the right-eye video data input from the input selection unit 110. Specifically, the second processing unit 130 performs format conversion of the right-eye video data. At this time, the second processing unit 130 receives information acquired from the left-eye video data by the first processing unit 120. Then, the second processing unit 130 performs predetermined processing on the right-eye video data using the received information.
  • the combining unit 140 combines the converted left-eye image 250L generated by the first processing unit 120 and the converted right-eye image 250R generated by the second processing unit 130, thereby combining the combined image.
  • 260 is generated.
  • the video signal including the generated composite image 260 is output as an output 3D video signal.
  • the detailed configuration of the first processing unit 120 is as follows.
  • the first processing unit 120 includes a first horizontal resizing unit 121, a conversion processing unit 122, a vertical resizing unit 123, and a second horizontal resizing unit 124.
  • the first horizontal resizing unit 121 resizes, that is, enlarges or reduces the horizontal image size of the input left-eye image 210L. For example, the first horizontal resizing unit 121 reduces the left-eye image 210L in the horizontal direction by thinning out pixels or by calculating an average value of a plurality of pixels. The reduced left-eye image 220L is output to the conversion processing unit 122.
  • the conversion processing unit 122 performs IP conversion on the input reduced left eye image 220L.
  • the IP conversion is an example of the conversion of the scanning method, and is to convert the scanning method of the reduced left-eye image 220L from the interlace method to the progressive method.
  • the left-eye image 230L after the IP conversion is output to the vertical resizing unit 123.
  • the conversion processing unit 122 acquires information used for the predetermined processing from the left-eye image 220L, and outputs the acquired information to the second processing unit 130. Further, the conversion processing unit 122 may perform noise reduction processing (NR processing). The detailed configuration and operation of the conversion processing unit 122 will be described later with reference to FIG. Further, the predetermined processing and information used for the processing will be described later.
  • NR processing noise reduction processing
  • the vertical resizing unit 123 resizes, that is, enlarges or reduces the image size in the vertical direction of the image for left eye 230L IP-converted by the conversion processing unit 122.
  • the resized left-eye image 240L is output to the second horizontal resize unit 124.
  • the second horizontal resizing unit 124 resizes, that is, enlarges or reduces the image size in the horizontal direction of the resized left-eye image 240L.
  • the second horizontal resizing unit 124 enlarges the resized left-eye image 240L in the horizontal direction by interpolating pixels or copying pixels.
  • the enlarged left-eye image 250L is output to the synthesis unit 140.
  • the detailed configuration of the second processing unit 130 is as follows.
  • the second processing unit 130 includes a first horizontal resizing unit 131, a conversion processing unit 132, a vertical resizing unit 133, and a second horizontal resizing unit 134.
  • the first horizontal resizing unit 131 resizes, that is, enlarges or reduces the horizontal image size of the input right-eye image 210R. For example, the first horizontal resizing unit 131 reduces the right-eye image 210R in the horizontal direction by thinning out pixels or by calculating an average value of a plurality of pixels.
  • the reduced right-eye image 220R is output to the conversion processing unit 132.
  • the conversion processing unit 132 performs IP conversion on the input reduced right-eye image 220R.
  • the IP conversion is to convert the scanning method of the reduced right-eye image 220R from the interlace method to the progressive method.
  • the right-eye image 230R after the IP conversion is output to the vertical resizing unit 133.
  • the conversion processing unit 132 acquires information used for a predetermined process from the conversion processing unit 122 of the first processing unit 120. Further, the conversion processing unit 132 may perform noise reduction processing (NR processing).
  • NR processing noise reduction processing
  • the vertical resizing unit 133 resizes, that is, enlarges or reduces the vertical image size of the right-eye image 230R IP-converted by the conversion processing unit 132.
  • the resized right-eye image 240R is output to the second horizontal resize unit 134.
  • the second horizontal resizing unit 134 resizes, that is, enlarges or reduces the horizontal image size of the right-eye image 240R after resizing. For example, the second horizontal resizing unit 134 enlarges the resized right-eye image 240R in the horizontal direction by interpolating pixels or copying pixels. The enlarged right-eye image 250R is output to the synthesis unit 140.
  • the input selection unit 110 may output the left eye image 210L to the second processing unit 130 and output the right eye image 210R to the first processing unit 120. Further, when two video signals of a left eye video signal indicating only the left eye image and a right eye video signal indicating only the right eye image are input as the input 3D video signal, the input selection unit 110 may output the left-eye video signal to the first processing unit 120 and the right-eye video signal to the second processing unit 130 without performing the division process.
  • the video signal processing apparatus 100 acquires information from one of the left-eye image and the right-eye image, and uses the acquired information for the left-eye image and the right-eye. Process both images.
  • FIG. 4 is a flowchart showing an example of the operation of the video signal processing apparatus 100 according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of the flow of a 3D video signal by the video signal processing apparatus 100 according to the first embodiment.
  • the input selection unit 110 divides the input 3D video signal 52 into a left-eye image 210L and a right-eye image 210R (S110).
  • the input 3D video signal 52 according to the first embodiment is an interlace video signal, for example, a full high-definition video.
  • the left-eye image 210L includes a left-eye top field 210Lt and a left-eye bottom field 210Lb.
  • the right eye image 210R includes a right eye top field 210Rt and a right eye bottom field 210Rb.
  • Each field is composed of 1920 ⁇ 540 pixels.
  • the first horizontal resizing units 121 and 131 respectively reduce the left-eye image 210L and the right-eye image 210R in the horizontal direction (S120).
  • the first horizontal resizing units 121 and 131 are reduced by a factor of 1/2 in the horizontal direction.
  • a reduced left-eye image 220L and a reduced right-eye image 220R are generated.
  • the reduction rate is not limited to 1/2.
  • the first horizontal resizing units 121 and 131 may enlarge the left-eye image 210L and the right-eye image 210R in the horizontal direction, respectively.
  • the reduced left-eye image 220L includes a reduced left-eye top field 220Lt and a reduced left-eye bottom field 220Lb.
  • the reduced right eye image 220R includes a reduced right eye top field 220Rt and a reduced right eye bottom field 220Rb. Each field is composed of 960 ⁇ 540 pixels.
  • the first horizontal resizing units 121 and 131 may shift the start positions in order to generate a checkered image as shown in FIG. 2B. Specifically, the first horizontal resizing unit 121 extracts the even-numbered pixels (0, 2, 4, 6...) Included in the left-eye top field 210Lt, thereby reducing the left-eye top field after reduction. 220Lt is generated. Further, the first horizontal resizing unit 121 generates a reduced left-eye bottom field 220Lb by extracting odd-numbered pixels (1, 3, 5, 7,...) Included in the left-eye bottom field 210Lb. To do.
  • the first horizontal resizing unit 131 generates the reduced right-eye top field 220Rt by extracting odd-numbered pixels (1, 3, 5, 7,...) Included in the right-eye top field 210Rt. To do. Further, the first horizontal resizing unit 131 extracts the even-numbered pixels (0, 2, 4, 6%) Included in the right-eye bottom field 210Rb, thereby generating a reduced right-eye bottom field 220Rb. To do.
  • the conversion processing unit 122 and the conversion processing unit 132 respectively perform IP conversion on the reduced left eye image 220L and the reduced right eye image 220R (S130).
  • Each of the conversion processing unit 122 and the conversion processing unit 132 performs IP conversion to generate a progressive left-eye image 230L and a right-eye image 230R. Details of the IP conversion will be described later.
  • the vertical resizing units 123 and 133 resize the left-eye image 230L and the right-eye image 230R in the vertical direction, that is, enlarge or reduce (S140).
  • the vertical resizing units 123 and 133 output the left eye image 240L and the right eye image 240R without performing the resizing in the vertical direction.
  • the second horizontal resizing units 124 and 134 enlarge the left-eye image 240L and the right-eye image 240R in the horizontal direction (S150).
  • the second horizontal resizing unit 124 generates the left-eye image 250L that is doubled by copying each pixel included in the left-eye image 240L.
  • the second horizontal resizing unit 134 generates a right-eye image 250R that is doubled by copying each pixel included in the right-eye image 240R.
  • the enlargement rate is, for example, the reciprocal of the reduction rate of the reduction processing in the first horizontal resizing units 121 and 131.
  • the second horizontal resizing units 124 and 134 may respectively reduce the image for left eye 240L and the image for right eye 240R in the horizontal direction.
  • the synthesizing unit 140 generates the synthesized image 260 by synthesizing the left-eye image 250L and the right-eye image 250R (S160).
  • the composite image 260 is an image in which pixels included in the left-eye image 250L and pixels included in the right-eye image 250R are arranged in a checkered pattern.
  • a synthesized image 260 obtained by the synthesis is output as an output 3D video signal 53.
  • the video signal processing apparatus 100 generates the output 3D video signal 53 by processing the input 3D video signal 52.
  • the conversion processing unit 122 performs film detection before performing IP conversion.
  • Film detection is an example of image feature detection processing, and is processing for detecting whether video data is video data generated from film video.
  • the conversion processing unit 122 detects, as film detection, whether or not left-eye video data including only the left-eye image is video data generated from a film video.
  • the conversion processing unit 122 outputs the film detection result to the conversion processing unit 132.
  • the conversion processing unit 132 performs IP conversion on right-eye video data including only the right-eye image.
  • a specific configuration and operation of the conversion processing unit 122 will be described.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the conversion processing unit 122 according to the first embodiment. As shown in FIG. 6, the conversion processing unit 122 includes a film detection unit 310 and an IP conversion unit 320.
  • the film detection unit 310 is an example of an information acquisition unit according to the present invention, and performs film detection on the image for the left eye. Specifically, the film detection unit 310 performs film detection on the left-eye video data including the left-eye image, thereby determining whether the input 3D video signal is a video signal generated from the film video. And film information indicating the picture generated from the same frame among a plurality of frames included in the film video when the input 3D video signal is a video signal generated from the film video To do.
  • the film detection unit 310 acquires IP conversion information indicating a field to be combined as an example of picture information.
  • the IP conversion unit 320 is an example of an image processing unit for the left eye according to the present invention, and converts the left-eye video data from the interlace method to the progressive method using the film information and the IP conversion information. Specifically, the IP conversion unit 320 interlaces the left-eye video data using the IP conversion information when the film information indicates that the input 3D video signal is a video signal generated from a film video. To progressive format. Further, when the film information indicates that the input 3D video signal is not a video signal generated from a film video, the IP conversion unit 320 synthesizes two adjacent fields, for example, so that the video data for the left eye Is converted from interlaced to progressive.
  • the conversion processing unit 132 is an example of an image processing unit for the right eye according to the present invention, and performs predetermined processing on the video data for the right eye. Specifically, the conversion processing unit 132 receives film information and IP conversion information as a result of film detection from the film detection unit 310. Then, the conversion processing unit 132 converts the video data for the right eye from the interlace method to the progressive method using the film information and the IP conversion information in the same manner as the IP conversion unit 320.
  • FIG. 7 is a flowchart showing an example of the operation of the conversion processing unit 122 according to the first embodiment.
  • the film detection unit 310 performs film detection on the video data for the left eye (S131).
  • the film detection unit 310 may perform film detection on the right-eye video data by inputting the right-eye video data to the first processing unit 120.
  • Film information and IP conversion information which are the results of film detection, are output to the IP conversion unit 320 and the conversion processing unit 132.
  • the IP conversion unit 320 and the conversion processing unit 132 use the film information and the IP conversion information to convert the left-eye video data and the right-eye video data from the interlace format to the progressive format (S132). Specific processing of film detection and IP conversion will be described below with examples of film video and 3D video.
  • FIG. 8 is a diagram illustrating an example of a film image and an input 3D image signal.
  • the film video is a 24 frames / second (24 fps) progressive video (24p video).
  • the input 3D video signal is a signal indicating an interlace video (60i video) having a frame rate of 60 fps, for example. That is, the input 3D video signal includes 60 top fields and bottom fields in one second (the frame rate of only the top field or the bottom field is 30 fps).
  • a frame A included in the 24p video is used for a top field (A top ), a bottom field (A btm ), and a top field ( A top ) is read three times.
  • the frame B included in the 24p video is read twice for the bottom field (B btm ) and the top field (B top ).
  • the frame C included in the 24p video is read three times for the bottom field (C btm ), the top field (C top ), and the bottom field (C btm ).
  • 60i video can be generated from 24p video by alternately repeating 3 times and 2 times of frame reading (3-2 pull-down processing).
  • the number of readings may be determined according to the ratio between the frame rate before conversion and the frame rate after conversion.
  • the 60i video (input 3D video signal) generated as shown in FIG. 8 is IP-converted into a 60p video (output 3D video signal).
  • the 60p video is a 60 fps progressive video.
  • the film detection unit 310 calculates a difference between two fields as film detection. For example, the film detection unit 310 calculates the difference between the target field and the previous field. As shown in FIG. 8, an input 3D video signal including a 60i video generated from a film video that is a 24p video includes two identical fields in five fields (for example, the first and third fields). Th A top , sixth and eighth C btm ).
  • one set of five fields includes a set of fields in which the difference is almost zero. Accordingly, the film detection unit 310 can detect that the input 3D video signal includes an image that is 3-2 pulled down by detecting the ratio at which the difference is substantially zero. That is, when it is detected that the ratio at which the difference is almost zero is one set of five fields, the film detection unit 310 determines that the input 3D video signal is a video signal generated from a film video. Is output to the IP conversion unit 320.
  • FIG. 9 is a diagram illustrating a processing example when the IP conversion unit 320 according to the first embodiment performs IP conversion from a 60i video to a 60p video.
  • the IP conversion unit 320 includes two images for each field among the 60i input video, the first delayed video obtained by delaying the input video by one frame, and the second delayed video obtained by delaying the 60i input video by two frames. Select and compose. At this time, which video is to be selected, that is, which top field and which bottom field is to be selected is determined according to the IP conversion information that is the result of film detection by the film detection unit 310.
  • the film detection unit 310 detects that the input 3D video signal is a 3-2 pull-down video signal, information indicating a field generated from the same frame included in the film video is displayed. Output as IP conversion information. Then, the IP conversion unit 320 selects and combines the fields generated from the same frame according to the received IP conversion information.
  • the IP converter 320 generates an image of one frame by synthesizing two fields surrounded by a square indicated by a dotted line in FIG.
  • the IP conversion unit 320 synthesizes A top of the first delayed video and A btm of the 60i video at time T2. Further, at time T3, the IP conversion unit 320 synthesizes the first delayed video A btm and the 60 i video A top . At time T3, A btm of the first delayed video and A top of the second delayed video may be combined.
  • the IP conversion unit 320 synthesizes A top of the first delayed video and A btm of the second delayed video.
  • the IP conversion unit 320 combines B top of the 60i video and A btm of the first delayed video.
  • the first two images of the three consecutive fields generated from the same frame are combined with the first delay video and the input video.
  • the remaining one image may be synthesized with the first delayed video and the second delayed video.
  • the middle one may combine the first delayed video and the second delayed video.
  • the first frame combines the first delayed video and the input video
  • the second frame combines the first delayed video and the second delayed video. What is necessary is just to synthesize.
  • the IP conversion unit 320 selects and synthesizes the fields generated from the same frame included in the film video, thereby synthesizing the same frame from the interlaced input 3D video signal having a predetermined frame rate. A rate progressive output 3D video signal is generated.
  • the IP conversion unit 320 sequentially outputs adjacent 3D video signals by combining the adjacent fields. Is generated.
  • the IP conversion unit 320 When the input 3D video signal is a video signal generated from a film video, the IP conversion unit 320 does not detect the film and simply synthesizes adjacent fields in order. For example, A top and B btm Are combined, and the image quality deteriorates. Therefore, by performing the film detection as described above, the IP conversion unit 320 according to the present embodiment can synthesize fields generated from the same frame included in the film video, so that the image quality is deteriorated. Can be prevented.
  • the conversion processing unit 122 performs film detection on the video data for the left eye and outputs the result to the conversion processing unit 132.
  • the conversion processing unit 132 uses the film detection result input from the conversion processing unit 122 to perform IP conversion on the right-eye video data.
  • the left-eye image and the right-eye image are originally images obtained by photographing the same subject from different viewpoints, or images generated by shifting the same image by a predetermined amount of parallax. Therefore, the same result can be obtained regardless of whether film detection is performed on either the left-eye video data or the right-eye video data.
  • video signal processing apparatus 100 can avoid redundant processing, reduce power consumption, and improve processing speed.
  • the conversion processing units 122 and 132 perform IP conversion based on different detection results, an unnatural video is generated when the combining unit 140 combines the left-eye image and the right-eye image. May be generated.
  • the video signal processing apparatus 100 since the video signal processing apparatus 100 according to the present embodiment processes both the left-eye video data and the right-eye video data using the same detection result, it is unnatural as described above. This can reduce the possibility that an image is generated.
  • the film detection is performed on the interlaced input 3D video signal.
  • the film detection may be performed on the progressive input 3D video signal.
  • a 60p video signal (AAABBCCC ...) as shown in FIG. 9 generated from a 24p film video (ABC ...) as shown in FIG. 8 is used as an input 3D video signal according to the present embodiment. Assume that the signal is input to the signal processing apparatus 100.
  • the film detection unit 310 calculates a difference between two frames included in the left-eye video data. For example, the film detection unit 310 calculates the difference between two temporally adjacent frames, so that the difference becomes “small, large, small, large, small, large, large and large. As a result, the film detection unit 310 outputs film information indicating that the input 3D video signal includes a 3-2 pulled-down video to the IP conversion unit 320.
  • the film detection unit 310 outputs frame information indicating a frame generated from the same frame included in the film video to the IP conversion unit 320 and the conversion processing unit 132 as an example of picture information. For example, when the difference between two temporally adjacent frames is almost zero, the film detection unit 310 determines that these two frames are frames generated from the same frame included in the film video. As a result, frame information is output.
  • the IP conversion unit 320 receives the film information and the frame information, and converts the frame rate of the input 3D video signal that is the left-eye video data based on the received film information and the frame information. For example, when the film information indicates that the input 3D video signal includes video that has been 3-2 pulled down, the IP conversion unit 320 determines the frame to be output and the number of frames using the frame information.
  • the IP conversion unit 320 outputs a video signal (AABBCC%) Having a frame rate of 48 fps by selecting and outputting two identical frames.
  • This video signal includes two identical frames.
  • the IP conversion unit 320 may output a video signal (AAAAABBBBBBCCCC%) Having a frame rate of 120 fps by selecting and outputting five identical frames.
  • This video signal includes five identical frames.
  • the conversion processing unit 132 performs the same processing as the IP conversion unit 320 on the video data for the right eye.
  • film detection may be performed on a progressive input 3D video signal. Also in this case, since the film detection results match between the left-eye video data and the right-eye video data, an increase in the processing amount can be suppressed by performing film detection only on one side.
  • the IP conversion unit 320 may perform both scanning method conversion and frame rate conversion. For example, the IP conversion unit 320 converts an interlaced video signal (60i video signal) into a progressive video signal (60p video signal) and converts the frame rate of the converted video signal as described above. . Thereby, for example, the IP conversion unit 320 can generate a 48p or 120p video signal from the 60i video signal.
  • the film detection unit 310 can detect that the input 3D video signal is a video signal obtained by pulling down 2-2 by judging the tendency of the detected difference.
  • the film detection performed by the film detection unit 310 is not limited to the above method, and may be another method.
  • the video signal processing apparatus 100 describes a configuration in which the left eye video data and the right eye video data are processed in parallel using the first processing unit 120 and the second processing unit 130.
  • the input selection unit 110 may input both the left-eye video data and the right-eye video data to the first processing unit 120.
  • Each processing unit included in the first processing unit 120 processes the left-eye video data and the right-eye video data sequentially. For example, after the left-eye video data is processed, the right-eye video data is processed (or vice versa). At this time, film information and IP conversion information acquired from the left-eye video data may be stored in a memory or the like.
  • film detection is performed on the left-eye image, but film detection is performed on the right-eye image, and the detection result may be used for both the left-eye image and the right-eye image. Good.
  • the video signal processing apparatus 100 acquires information used to acquire information used when performing predetermined processing such as IP conversion from one of the left-eye image and the right-eye image.
  • a film detection unit 310 which is an example of a unit.
  • the video signal processing apparatus 100 uses the information acquired by the film detection unit 310, which is an example of the information acquisition unit, to perform IP conversion or frame rate conversion on both the left eye image and the right eye image.
  • An IP conversion unit 320 and a conversion processing unit 132 which are examples of image processing units to be performed, are provided.
  • film detection which is an example of the process for acquiring the information, may be performed on only one of the left-eye image and the right-eye image. , Avoid duplication of processing. Therefore, an increase in processing amount can be suppressed.
  • the video signal processing apparatus includes an information acquisition unit that acquires information used when performing predetermined processing from one of the left-eye image and the right-eye image. And an image processing unit that performs the processing on both the left-eye image and the right-eye image using the information acquired by the information acquisition unit. More specifically, in the second embodiment, the information acquisition unit detects whether one of the left-eye image and the right-eye image includes a specific image with a constant luminance value, Specific image information indicating an area including the specific image is acquired.
  • the video signal processing apparatus according to the second embodiment is substantially the same as the video signal processing apparatus 100 shown in FIG. 3 of the first embodiment, except that an input selection unit 410 is provided instead of the input selection unit 110. .
  • an input selection unit 410 is provided instead of the input selection unit 110.
  • the structure of the input selection part 410 with which the video signal processing apparatus which concerns on Embodiment 2 is provided is demonstrated first.
  • FIGS. 10A and 10B are block diagrams illustrating an example of the configuration of the input selection unit 410 included in the video signal processing device according to the second embodiment.
  • the input selection unit 410 includes a division unit 411, a specific image detection unit 412, and APL calculation units 413 and 414.
  • the dividing unit 411 divides the input 3D video signal into a left-eye image and a right-eye image.
  • the left-eye image is output to the specific image detection unit 412, and the right-eye image is output to the APL calculation unit 414. Note that the left-eye image may be output to the APL calculation unit 414 and the right-eye image may be output to the specific image detection unit 412.
  • the input selection unit 410 may not include the dividing unit 411.
  • the left-eye image is directly input to the specific image detection unit 412, and the right-eye image is input to the APL calculation unit 414.
  • the specific image detection unit 412 is an example of an information acquisition unit according to the present invention, and detects whether a specific image with a constant luminance value is included in one of the left-eye image and the right-eye image. Then, specific image information indicating an area including the specific image is acquired.
  • the specific image detection unit 412 detects whether or not the specific image is included in the image for the left eye. Specifically, the specific image detection unit 412 performs side panel detection and letterbox detection.
  • the specific image detection unit 412 includes a side panel detection unit 412a and a letterbox detection unit 412b.
  • the side panel detection unit 412a detects whether one of the left eye image and the right eye image includes a specific image on the left side and the right side of the image (side panel detection or pillar box detection). Here, since the image for the left eye is input, the side panel detection unit 412a detects whether or not the specific image is included on the left side and the right side of the image for the left eye.
  • the specific image is an image having a constant luminance value, for example, a black image.
  • the side panel detection unit 412a acquires specific image information indicating a region including the specific image by performing side panel detection.
  • the specific image information is information indicating, for example, how many pixels the area including the specific image is from the left or right side of the image.
  • the letterbox detection unit 412b detects whether a specific image is included in the upper and lower sides of one of the left-eye image and the right-eye image (letterbox detection). Here, since the image for the left eye is input, the letterbox detection unit 412b detects whether or not the specific image is included in the upper side and the lower side of the image for the left eye.
  • the letterbox detection unit 412b acquires specific image information indicating an area including the specific image by performing letterbox detection.
  • the specific image information is information indicating, for example, how many pixels the area including the specific image is from the upper side or the lower side of the image.
  • the specific image detection unit 412 may perform only one of side panel detection and letterbox detection. When both detections are performed, the specific image detection unit 412 combines the specific image information acquired by the side panel detection unit 412a and the specific image information acquired by the letterbox detection unit 412b to obtain a specific image. The specific image information indicating the included area is output to the APL calculation units 413 and 414.
  • the APL calculation units 413 and 414 are an example of an image processing unit according to the present invention.
  • the average luminance value (Average) of the effective image region other than the region indicated by the specific image information (Picture Level) is calculated.
  • the APL calculation unit 413 calculates the average luminance value of the effective image area other than the area indicated by the specific image information in the left eye image.
  • the APL calculation unit 414 calculates an average luminance value of an effective image area other than the area indicated by the specific image information in the right eye image.
  • the effective image area is an area where an original image is displayed.
  • FIG. 11A is a diagram illustrating an example of the side panel image 500.
  • FIG. 11B shows an example of a letterbox image 600.
  • the side panel image 500 specific images 520 are added to the left and right sides of the original image 510, respectively. Specifically, when displaying an original image 510 with an aspect ratio of 4: 3 on a screen with an aspect ratio of 16: 9, the specific image 520 is added to the original image 510.
  • the side panel is also called a pillar box.
  • the side panel detection unit 412a detects whether or not the specific image 520 as shown in FIG. 11A is added to the original image 510. For example, the side panel detection unit 412a determines the luminance values of the pixels included in both the left region (region for several pixel columns) and the right region (region for several pixel columns) of the input left-eye image. Are all the same predetermined value (black).
  • the side panel detection unit 412a determines that the input left eye image is the side panel image 500. It is determined that Then, the side panel detection unit 412a outputs specific image information indicating the area of the specific image 520 to the APL calculation unit 413.
  • the APL calculation unit 413 calculates an average luminance value of the original image 510, that is, an area (effective image area) excluding the specific image 520 in the side panel image 500.
  • the average luminance value of the side panel image 500 When the average luminance value of the side panel image 500 is calculated, the average luminance value including the specific image 520 having a constant luminance value is calculated. That is, a value different from the average brightness value of the original image 510 is calculated. Therefore, when correcting the image using the average luminance value, the average luminance value is different, so that the image cannot be corrected correctly. In contrast, in the present embodiment, accurate correction processing or the like can be performed by performing side panel detection and specifying a specific image region.
  • specific images 620 are added to the upper side and the lower side of the original image 610, respectively. Specifically, when displaying an original image 610 having an aspect ratio of 16: 9 on a screen having an aspect ratio of 4: 3, the specific image 620 is added to the original image 610.
  • the letterbox detection unit 412b detects whether or not the specific image 620 as shown in FIG. 11B is added to the original image 610. For example, the letterbox detection unit 412b determines the luminance of pixels included in both the upper region (region for several pixel rows) and the lower region (region for several pixel rows) of the input right-eye image. It is determined whether or not all the values are the same predetermined value (black).
  • the letterbox detection unit 412b determines that the input right-eye image is a letterbox image. 600 is determined. Then, the letterbox detection unit 412b outputs specific image information indicating the area of the specific image 520 to the APL calculation unit 413.
  • the APL calculation unit 413 calculates an average luminance value of the original image 610, that is, an area (effective image area) of the letterbox image 600 excluding the specific image 620.
  • the APL calculation unit 414 calculates the average luminance value of the right eye image. Normally, only one of the left-eye image and the right-eye image does not include the specific image, and the specific image is not included in different areas. Therefore, the specific image information detected from the left-eye image and the specific image information detected from the right-eye image are approximately the same.
  • the process of acquiring specific image information from both the left-eye image and the right-eye image is redundant, and only one of them as in the present embodiment.
  • the side panel detection unit 412a and the letter box detection unit 412b may perform side panel detection and letter box detection for each of the left eye image and the right eye image. .
  • the input selection unit 410 may not include the APL calculation unit 414. That is, the average luminance value calculated from the left eye image by the APL calculation unit 413 may be used as the average luminance value of the right eye image. This is because the average luminance value of the left eye image and the average luminance value of the right eye image often have the same value.
  • the APL calculation unit 413 at this time is an example of an information acquisition unit according to the present invention.
  • the operation of the input selection unit 410 will be described with reference to FIG.
  • the operation of the video signal processing apparatus according to the second embodiment is almost the same as the operation of the video signal processing apparatus 100 according to the first embodiment (see FIG. 4), and the operation of the input selection unit 110 (S110) is the same. Is different.
  • FIG. 12 is a flowchart illustrating an example of the operation of the input selection unit 410 included in the video signal processing device according to the second embodiment.
  • FIG. 12 corresponds to the operation (S110) of the input selection unit 110 shown in FIG.
  • the dividing unit 411 divides the input 3D video signal into a left-eye image and a right-eye image (S210).
  • the left-eye image is output to the specific image detection unit 412, and the right-eye image is output to the APL calculation unit 414.
  • the specific image detection unit 412 performs side panel detection and letterbox detection on the image for the left eye (S220). Note that only one of the side panel detection and the letterbox detection may be executed. For example, when a specific image is detected by side panel detection, letterbox detection may not be performed. Conversely, when a specific image is detected by letterbox detection, side panel detection may not be performed.
  • the specific image information that is the detection result is output to both the APL calculation unit 413 and the APL calculation unit 414.
  • the APL calculation unit 413 calculates the average luminance value of the image for the left eye using the specific image information
  • the APL calculation unit 414 calculates the average luminance value of the image for the right eye using the specific image information. Calculate (S230).
  • the input selection unit 410 detects the specific image by performing the side panel detection and the letterbox detection on the left eye image, and the detection result is obtained.
  • the average luminance value is calculated for both the left-eye image and the right-eye image.
  • the increase in the processing amount is suppressed by acquiring the specific image information from only one of the left-eye image and the right-eye image. Can do.
  • the input selection unit 410 performs side panel detection and letterbox detection.
  • the conversion processing unit 122 performs these detections on the image for the left eye. Also good. Then, the conversion processing unit 122 may output the obtained detection result to the conversion processing unit 132.
  • the calculation of the average luminance value may be performed by the conversion processing units 122 and 132 instead of the input selection unit 410. Or you may perform by the other process part which is not illustrated.
  • the video signal processing device is a 3D video signal processing device including a left-eye image and a right-eye image, and one of the left-eye image and the right-eye image.
  • a predetermined process is performed on both the left-eye image and the right-eye image using the information acquired from the above. This is because the left-eye image and the right-eye image are images obtained by photographing the same subject from different viewpoints, and there are many common points.
  • the film detection result, the side panel detection result, the letterbox detection result, and the like are common to the left-eye image and the right-eye image. Therefore, by performing only one of the processes for obtaining a common result, it is possible to avoid duplication of processes and to suppress an increase in the processing amount.
  • the same result should normally be obtained, but if different results are obtained, an unnatural image may be generated when the left-eye image and the right-eye image are combined. Since the video signal processing apparatus according to the present invention uses a common result, it is possible to prevent the generation of such an unnatural image.
  • CM detection may be performed on one of the left-eye image and the right-eye image.
  • CM detection is processing for determining whether the input image for the left eye or the image for the right eye is a CM such as advertisement information included in the video or a content such as a movie. Since it is usually impossible that only one of the left-eye image and the right-eye image at the same display time is a CM, the CM detection result is also the same for the left-eye image and the right-eye image.
  • CM detection is performed on either the left-eye image or the right-eye image, and the obtained result can be used as the CM detection result for both the left-eye image and the right-eye image.
  • the input selection unit 110 or 410 performs CM detection. For example, whether the input image for the left eye or the image for the right eye is a CM by detecting an identifier indicating that the image is a CM, or detecting a difference in resolution between the CM and the content. Determine.
  • the first horizontal resizing units 121 and 131 reduce the image for the left eye and the image for the right eye with a high reduction ratio, so that the subsequent processing amount Can be reduced.
  • motion is detected from one of the left-eye video data including the left-eye image and the right-eye video data including the right-eye image. May be.
  • the frame or field reference relationship may be determined.
  • the video signal processing apparatus 100 is mounted on a digital video recorder 20 and a digital television 30 as shown in FIG.
  • Each of the above devices is specifically a computer system including a microprocessor, ROM, RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • each of the above devices may be configured from an IC card that can be attached to and detached from each device or a single module.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of a computer program.
  • the present invention also provides a computer program or a recording medium that can read a digital signal, such as a flexible disk, hard disk, CD-ROM, MO (Magneto-Optical Disk), DVD (Digital Versatile Disc), DVD-ROM, DVD.
  • a digital signal such as a flexible disk, hard disk, CD-ROM, MO (Magneto-Optical Disk), DVD (Digital Versatile Disc), DVD-ROM, DVD.
  • -It may be recorded in RAM, BD, semiconductor memory or the like. Further, it may be a digital signal recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory.
  • the memory may store the above computer program, and the microprocessor may operate according to the computer program.
  • program or digital signal may be recorded on a recording medium and transferred, or the program or digital signal may be transferred via a network or the like, and may be implemented by another independent computer system.
  • the video signal processing device and the video signal processing method according to the present invention have the effect of suppressing an increase in processing amount, and can be applied to, for example, digital televisions and digital video recorders.
  • Video signal processing system 20 Digital video recorder 21, 31 Input part 22, 32 Decoder 23, 33 HDMI communication part 30 Digital television 34 Display panel 35 Transmitter 40 Shutter glasses 41 HDMI cable 42 Recording medium 43 Broadcast wave 51, 54 Three-dimensional video Signals 52, 55, 56 Input 3D video signals 53, 57, 58 Output 3D video signals 57L, 58L, 210L, 220L, 230L, 240L, 250L Left-eye images 57R, 58R, 210R, 220R, 230R, 240R, 250R Right-eye image 100 Video signal processing device 110, 410 Input selection unit 120 First processing unit 121, 131 First horizontal resizing unit 122, 132 Conversion processing unit 123, 133 Vertical resizing unit 124, 134 Second horizontal resizing unit 130 Second process Unit 140 combining unit 210Lb, 220Lb left eye bottom field 210Lt, 220Lt left eye top field 210Rb, 220R

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 処理量の増大を抑制することができる映像信号処理装置を提供する。 左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理装置(100)であって、左眼用画像及び右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部の一例であるフィルム検出部(310)と、情報取得部によって取得された情報を用いて、左眼用画像及び右眼用画像の両方に上記所定の処理を行う画像処理部の一例であるIP変換部(320)とを備える。

Description

映像信号処理装置、及び、映像信号処理方法
 本発明は、映像信号処理装置に関し、特に、三次元映像信号を処理する映像信号処理装置に関する。
 従来、視聴者が立体的に感じる三次元映像を表示するために、左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理装置が知られている(例えば、特許文献1参照)。左眼用画像と右眼用画像とは、互いに視差を有しており、例えば、異なる位置に配置された2台のカメラによって生成される画像である。
 映像信号処理装置は、例えば、入力された三次元映像信号にフォーマット変換処理を行う。フォーマット変換処理は、例えば、フレームレートの変換処理、画像サイズの変換処理、及び走査方式への変換処理などである。映像信号処理装置は、フォーマット変換処理を行った三次元映像信号を三次元映像表示装置に出力する。
 三次元映像表示装置は、左眼用画像と右眼用画像とを所定の方式で表示させることで、視聴者が立体的に感じる三次元映像を表示する。例えば、三次元映像表示装置は、左眼用画像と右眼用画像とを1フレーム毎に交互に表示する。
特開平4-241593号公報
 しかしながら、上記従来技術には、三次元映像信号の処理に関わる処理量が増大するという課題がある。
 三次元映像を二次元映像と同等の画質及び同等のフレームレートで表示させるためには、二次元映像の2倍の処理が必要である。なぜなら、三次元映像では、1フレームの三次元画像は左眼用画像と右眼用画像との2つの二次元画像から構成されているためである。したがって、映像信号処理装置は、2つの二次元画像を処理しなければならず、処理量が増大してしまう。
 そこで、本発明は、上記課題を解決するためになされたものであって、処理量の増大を抑制することができる映像信号処理装置及び映像信号処理方法を提供することを目的とする。
 上記目的を達成するため、本発明に係る映像信号処理装置は、左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理装置であって、前記左眼用画像及び前記右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部と、前記情報取得部によって取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記所定の処理を行う画像処理部とを備える。
 これにより、左眼用画像及び右眼用画像のいずれか一方から取得した情報を、左眼用画像及び右眼用画像の両方の処理に利用することで、処理の重複を避けることができ、処理量の増大を抑制することができる。左眼用画像と右眼用画像とは通常、同一の被写体を異なる視点から撮影して得られた画像であるので、左眼用画像及び右眼用画像のそれぞれに対して所定の処理を行った場合、処理の結果が同じになることが多いため、結果を共用することができる。
 また、前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方にフィルム検出を行うことで、前記三次元映像信号がフィルム映像から生成された映像信号であるか否かを示すフィルム情報を取得してもよい。
 これにより、フィルム検出の結果を左眼用画像と右眼用画像とで共用することができる。フィルム検出は、画像の特徴検出処理の一例であり、三次元映像信号がフィルム映像から生成された映像信号であるか否かを検出する処理である。フィルム検出を行うことで、左眼用画像と右眼用画像とでは通常、同一の検出結果が得られる。したがって、フィルム検出の結果を共用することで、処理の重複を避けることができ、処理量の増大を抑制することができる。
 また、前記情報取得部は、さらに、前記三次元映像信号がフィルム映像から生成された映像信号である場合に、前記フィルム映像に含まれる複数のフレームのうちの同一のフレームから生成されたピクチャを示すピクチャ情報を取得し、前記画像処理部は、前記三次元映像信号がフィルム映像から生成された映像信号であることを前記フィルム情報が示す場合に、前記所定の処理として、前記左眼用画像及び前記右眼用画像の両方にそれぞれ、前記ピクチャ情報を用いて、走査方式の変換及びフレームレートの変換の少なくとも一方を行ってもよい。
 これにより、フィルム映像を元に生成された映像信号に、走査方式の変換又はフレームレートの変換を行う際に、処理量の増大を抑制することができる。
 また、前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方に輝度値が一定の特定画像が含まれているか否かを検出することで、当該特定画像が含まれている領域を示す特定画像情報を取得してもよい。
 これにより、特定画像の検出結果を左眼用画像と右眼用画像とで共用することができる。特定画像は、例えば、輝度値が一定の画像であり、アスペクト比の調整などを目的として本来の画像に付加される画像である。左眼用画像と右眼用画像とで通常同じ領域に付加されるので、左眼用画像及び右眼用画像のいずれか一方から特定画像を検出すればよく、処理の重複を避けることができる。
 また、前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方について、画像の左側と右側とに前記特定画像が含まれているか否かを検出することで、前記特定画像情報を取得してもよい。
 これにより、いわゆるサイドパネル(ピラーボックス)を検出することができる。
 また、前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方について、画像の上側と下側とに前記特定画像が含まれているか否かを検出することで、前記特定画像情報を取得してもよい。
 これにより、いわゆるレターボックスを検出することができる。
 また、前記画像処理部は、前記左眼用画像及び前記右眼用画像の両方について、前記特定画像情報が示す領域以外の有効画像領域の平均輝度値をそれぞれ算出してもよい。
 これにより、特定画像の領域以外の有効画像領域の平均輝度値を算出することで、本来の画像の平均輝度値を算出することができる。これは、検出した特定画像は本来の画像ではないので、画像の全領域の平均輝度値を算出した場合、本来の画像の平均輝度値と異なる値が算出されてしまうためである。
 また、前記映像信号処理装置は、さらに、前記三次元映像信号を前記左眼用画像と前記右眼用画像とに分割する分割部を備え、前記画像処理部は、前記左眼用画像に前記所定の処理を行う左眼用画像処理部と、前記右眼用画像に前記所定の処理を行う右眼用画像処理部とを有し、前記情報取得部は、前記分割部によって分割された前記左眼用画像及び前記右眼用画像の一方から前記情報を取得し、取得した情報を前記左眼用画像処理部と前記右眼用画像処理部とに出力してもよい。
 これにより、左眼用画像と右眼用画像とを並列処理で処理することが可能になるので、処理速度を向上させることができる。
 なお、本発明は、上記に示す映像信号処理装置として実現できるだけではなく、当該映像信号処理装置を構成する処理部をステップとする方法として実現することもできる。また、これらステップをコンピュータに実行させるプログラムとして実現してもよい。さらに、当該プログラムを記録したコンピュータ読み取り可能なCD-ROM(Compact Disc-Read Only Memory)などの記録媒体、並びに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、それらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信してもよい。
 また、上記の各映像信号処理装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されていてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。
 本発明に係る映像信号処理装置及び映像信号処理方法によれば、処理量の増大を抑制することができる。
図1は、実施の形態1に係る映像信号処理装置を含む映像信号処理システムの構成を示すブロック図である。 図2Aは、実施の形態1に係る三次元映像信号の配置パターンの一例を示す図である。 図2Bは、実施の形態1に係る三次元映像信号の配置パターンの一例を示す図である。 図3は、実施の形態1に係る映像信号処理装置の構成を示すブロック図である。 図4は、実施の形態1に係る映像信号処理装置の動作の一例を示すフローチャートである。 図5は、実施の形態1に係る映像信号処理装置による三次元映像信号の流れの一例を示す図である。 図6は、実施の形態1に係る変換処理部の構成の一例を示すブロック図である。 図7は、実施の形態1に係る変換処理部の動作の一例を示すフローチャートである。 図8は、フィルム映像と入力三次元映像信号との一例を示す図である。 図9は、実施の形態1に係るIP変換部による、60iの映像を60pの映像にIP変換する際の処理例を示す図である。 図10Aは、実施の形態2に係る入力選択部の構成の一例を示すブロック図である。 図10Bは、実施の形態2に係る入力選択部の構成の別の一例を示すブロック図である。 図11Aは、サイドパネル画像の一例を示す図である。 図11Bは、レターボックス画像の一例を示す図である。 図12は、実施の形態2に係る入力選択部の動作の一例を示す図である。 図13は、本発明に係る映像信号処理装置を備えるデジタルビデオレコーダ及びデジタルテレビの一例を示す外観図である。
 以下では、本発明に係る映像信号処理装置及び映像信号処理方法について、実施の形態に基づいて図面を参照しながら詳細に説明する。
 (実施の形態1)
 実施の形態1に係る映像信号処理装置は、左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理装置であって、左眼用画像及び右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部と、情報取得部によって取得された情報を用いて、左眼用画像及び右眼用画像の両方に上記所定の処理を行う画像処理部とを備えることを特徴とする。より具体的には、本実施の形態では、情報取得部は、画像特徴量検出処理の一例であるフィルム検出を行い、その検出結果を用いて、左眼用画像を含む左眼用映像データと右眼用画像を含む右眼用映像データとの両方にそれぞれ走査方式の変換又はフレームレートの変換を行う。
 まず、実施の形態1に係る映像信号処理装置を含む映像信号処理システムの構成について説明する。
 図1は、実施の形態1に係る映像信号処理装置100を含む映像信号処理システム10の構成を示すブロック図である。
 図1に示す映像信号処理システム10は、デジタルビデオレコーダ20と、デジタルテレビ30と、シャッタメガネ40とを備える。また、デジタルビデオレコーダ20とデジタルテレビ30とは、HDMI(High Definition Multimedia Interface)ケーブル41によって接続されている。
 デジタルビデオレコーダ20は、記録媒体42に記録されている三次元映像信号のフォーマットを変換し、変換した三次元映像信号を、HDMIケーブル41を介してデジタルテレビ30に出力する。なお、記録媒体42は、例えば、BD(Blu-ray Disc)などの光ディスク、HDD(Hard Disk Drive)などの磁気ディスク、又は、不揮発性メモリなどである。
 デジタルテレビ30は、デジタルビデオレコーダ20からHDMIケーブル41を介して入力される三次元映像信号、又は、放送波43に含まれる三次元映像信号のフォーマットを変換し、変換した三次元映像信号に含まれる三次元映像を表示する。なお、放送波43は、例えば、地上デジタルテレビ放送、及び衛星デジタルテレビ放送などである。
 シャッタメガネ40は、三次元映像を見るために視聴者が装着するメガネであって、例えば、液晶シャッタメガネである。シャッタメガネ40は、左眼用液晶シャッタと右眼用液晶シャッタとを備え、デジタルテレビ30が表示する映像と同期してシャッタの開閉を制御することができる。
 なお、デジタルビデオレコーダ20は、放送波43に含まれる三次元映像信号、又は、インターネットなどの通信網を介して取得した三次元映像信号のフォーマットを変換してもよい。また、デジタルビデオレコーダ20は、外部の装置から外部入力端子(図示せず)を介して入力された三次元映像信号のフォーマットを変換してもよい。
 同様に、デジタルテレビ30は、記録媒体42に記録されている三次元映像信号のフォーマットを変換してもよい。また、デジタルテレビ30は、デジタルビデオレコーダ20以外の外部の装置から、外部入力端子(図示せず)を介して入力された三次元映像信号のフォーマットを変換してもよい。
 また、デジタルビデオレコーダ20とデジタルテレビ30とは、HDMIケーブル41以外の規格のケーブルによって接続されていてもよく、あるいは、無線通信網により接続されていてもよい。
 以下では、デジタルビデオレコーダ20、及びデジタルテレビ30の詳細な構成について説明する。まず、デジタルビデオレコーダ20について説明する。
 図1に示すように、デジタルビデオレコーダ20は、入力部21と、デコーダ22と、映像信号処理装置100と、HDMI通信部23とを備える。
 入力部21は、記録媒体42に記録されている三次元映像信号51を取得する。三次元映像信号51は、例えば、MPEG-4 AVC/H.264などの規格に基づいて圧縮符号化された符号化三次元映像を含んでいる。
 デコーダ22は、入力部21によって取得された三次元映像信号51を復号することで、入力三次元映像信号52を生成する。
 映像信号処理装置100は、デコーダ22によって生成された入力三次元映像信号52を処理することで、出力三次元映像信号53を生成する。映像信号処理装置100の詳細な構成及び動作については、後で説明する。
 HDMI通信部23は、映像信号処理装置100によって生成された出力三次元映像信号53を、HDMIケーブル41を介してデジタルテレビ30に出力する。
 なお、デジタルビデオレコーダ20は、生成した出力三次元映像信号を、当該デジタルビデオレコーダ20が備える記憶部(HDD及び不揮発性メモリなど)に記憶してもよい。あるいは、当該デジタルビデオレコーダ20に着脱可能な記録媒体(光ディスクなど)に記録してもよい。
 また、デジタルビデオレコーダ20は、HDMIケーブル41以外の手段によってデジタルテレビ30と接続されている場合は、HDMI通信部23の代わりに、当該手段に対応した通信部を備えていてもよい。例えば、デジタルビデオレコーダ20は、接続手段が無線通信網である場合は無線通信部を、接続手段が他の規格に従ったケーブルである場合は、当該規格に対応する通信部を備える。なお、デジタルビデオレコーダ20は、これら複数の通信部を備え、複数の通信部を切り替えて利用してもよい。
 続いて、デジタルテレビ30について説明する。
 図1に示すように、デジタルテレビ30は、入力部31と、デコーダ32と、HDMI通信部33と、映像信号処理装置100と、表示パネル34と、トランスミッタ35とを備える。
 入力部31は、放送波43に含まれる三次元映像信号54を取得する。三次元映像信号54は、例えば、MPEG-4 AVC/H.264などの規格に基づいて圧縮符号化された符号化三次元映像を含んでいる。
 デコーダ32は、入力部31によって取得された三次元映像信号54を復号することで、入力三次元映像信号55を生成する。
 HDMI通信部33は、デジタルビデオレコーダ20のHDMI通信部23から出力された出力三次元映像信号53を取得し、入力三次元映像信号56として映像信号処理装置100に出力する。
 映像信号処理装置100は、入力三次元映像信号55及び56を処理することで、出力三次元映像信号57を生成する。映像信号処理装置100の詳細な構成及び動作については、後で説明する。
 表示パネル34は、出力三次元映像信号57に含まれる三次元映像を表示する。
 トランスミッタ35は、無線通信を用いて、シャッタメガネ40のシャッタの開閉を制御する。
 なお、デジタルテレビ30は、デジタルビデオレコーダ20と同様に、HDMIケーブル41以外の手段によってデジタルビデオレコーダ20と接続されている場合は、HDMI通信部33の代わりに、当該手段に対応した通信部を備えていてもよい。
 ここで、表示パネル34が表示する三次元映像について説明し、表示パネル34とシャッタメガネ40との同期をとる方法について説明する。
 三次元映像は、互いに視差を有する左眼用画像と右眼用画像とを含んでいる。左眼用画像が視聴者の左眼に、右眼用画像が視聴者の右眼にそれぞれ選択的に入射されることで、視聴者は、映像を立体的に感じることが可能となる。
 デジタルテレビ30が備える映像信号処理装置100によって生成された出力三次元映像信号57の一例を図2Aに示す。なお、図2Aは、実施の形態1に係る三次元映像信号の配置パターンの一例を示す図である。
 図2Aに示す出力三次元映像信号57は、左眼用画像57Lと右眼用画像57Rとを1フレーム毎に交互に含んでいる。例えば、出力三次元映像信号57のフレームレートは120fpsであり、走査方式はプログレッシブ方式である。なお、このような映像信号を120pの映像信号とも記載する。
 表示パネル34は、図2Aに示す出力三次元映像信号57を受け取り、1フレーム毎に左眼用画像57Lと右眼用画像57Rとを交互に表示する。このとき、トランスミッタ35は、表示パネル34が左眼用画像57Lを表示している期間に、シャッタメガネ40の左眼用液晶シャッタを開き、かつ、右眼用液晶シャッタを閉じるようにシャッタメガネ40を制御する。また、トランスミッタ35は、表示パネル34が右眼用画像57Rを表示している期間に、シャッタメガネ40の右眼用液晶シャッタを開き、かつ、左眼用液晶シャッタを閉じるようにシャッタメガネ40を制御する。これにより、視聴者の左眼には左眼用画像57Lが、右眼には右眼用画像57Rがそれぞれ選択的に入射される。
 このように、表示パネル34は、左眼用画像57Lと右眼用画像57Rとを時間的に切り替えて表示する。なお、図2Aに示す例では、1フレーム毎に左眼用画像57Lと右眼用画像57Rとを切り替えたが、複数フレーム毎に切り替えてもよい。
 なお、視聴者の左眼と右眼とにそれぞれ選択的に左眼用画像と右眼用画像とを入射させる方法は、上記の方法に限らず、他の方法を用いてもよい。
 例えば、デジタルテレビ30が備える映像信号処理装置100は、図2Bに示すような出力三次元映像信号58を生成してもよい。生成した出力三次元映像信号58は、表示パネル34に出力される。なお、図2Bは、実施の形態1に係る三次元映像信号の配置パターンの一例を示す図である。
 例えば、図2Bに示す出力三次元映像信号58は、左眼用画像58Lと右眼用画像58Rとを、1フレーム内の異なる領域に含んでいる。具体的には、左眼用画像58Lと右眼用画像58Rとが市松状に配置されている。例えば、出力三次元映像信号58のフレームレートは60fpsであり、走査方式はプログレッシブ方式である。なお、このような映像信号を60pの映像信号とも記載する。
 表示パネル34は、図2Bに示す出力三次元映像信号58を受け取り、左眼用画像58Lと右眼用画像58Rとが市松状に配置された画像を表示する。この場合、表示パネル34は、左眼用画像58Lが表示される画素上に形成された左眼用偏光フィルムと、右眼用画像58Rが表示される画素上に形成された右眼用偏光フィルムとを備える。これにより、左眼用画像58Lと右眼用画像58Rとに互いに異なる偏光(直線偏光又は円偏光など)をかける。
 さらに、視聴者は、シャッタメガネ40の代わりに、表示パネル34が備える偏光にそれぞれ対応する左眼用偏光フィルタと右眼用偏光フィルタとを備える偏光メガネを装着する。これにより、視聴者の左眼及び右眼にそれぞれ、左眼用画像58Lと右眼用画像58Rとを選択的に入射させることができる。
 このように、表示パネル34は、左眼用画像58Lと右眼用画像58Rとが1フレーム内に空間的に異なる領域に配置された映像を表示する。なお、図2Bに示す例では、1画素毎に左眼用画像58Lと右眼用画像58Rとを配置したが、複数の画素毎に左眼用画像58Lと右眼用画像58Rとを配置してもよい。また、市松状でなくてもよく、水平ライン毎、又は、垂直ライン毎に左眼用画像58Lと右眼用画像58Rとを配置してもよい。
 以下では、実施の形態1に係る映像信号処理装置100の詳細な構成及び動作について説明する。
 実施の形態1に係る映像信号処理装置100は、左眼用画像と右眼用画像とを含む三次元映像信号を処理する。具体的には、映像信号処理装置100は、入力された三次元映像信号にフォーマット変換処理を行う。例えば、デジタルビデオレコーダ20が備える映像信号処理装置100は、第1フォーマットの入力三次元映像信号52を第2フォーマットの出力三次元映像信号53に変換する。
 ここで、映像信号処理装置100が行うフォーマット変換処理とは、配置パターン、フレームレート、走査方式、及び画像サイズの変換の少なくとも1つの処理である。なお、映像信号処理装置100は、これら以外の処理を行ってもよい。
 配置パターンの変換は、三次元映像信号に含まれる左眼用画像と右眼用画像との時間的な配置又は空間的な配置を変換することである。例えば、映像信号処理装置100は、図2Aに示す三次元映像信号を図2Bに示す三次元映像信号に変換する。
 フレームレートの変換は、三次元映像信号のフレームレートを変換することである。例えば、映像信号処理装置100は、フレーム補間、又はフレームのコピー処理を行うことで、低フレームレート(例えば、60fps)の三次元映像信号を高フレームレート(例えば、120fps)の三次元映像信号に変換する。あるいは、映像信号処理装置100は、フレームを間引くことで、又は、複数のフレームを時間的に平均化したフレームを生成することで、高フレームレートの三次元映像信号を低フレームレートの三次元映像信号に変換する。
 走査方式の変換は、インターレース方式からプログレッシブ方式への変換、又は、プログレッシブ方式からインターレース方式への変換である。なお、インターレース方式とは、奇数番目のラインから構成されるトップフィールドと偶数番目のラインから構成されるボトムフィールドとにフレームを分けて走査する方式である。
 画像サイズの変換は、画像の拡大及び縮小を行うことである。例えば、映像信号処理装置100は、画素の補間又はコピーを行うことで画像を拡大する。あるいは、映像信号処理装置100は、画素を間引くことで、又は、複数の画素の平均値を算出することで画像を縮小する。例えば、画像サイズには、VGA(640×480)、ハイビジョン画像(1280×720)、及びフルハイビジョン画像(1920×1080)などがある。
 図3は、実施の形態1に係る映像信号処理装置100の構成を示すブロック図である。
 図3に示す映像信号処理装置100は、入力選択部110と、第1処理部120と、第2処理部130と、合成部140とを備える。
 入力選択部110は、入力三次元映像信号を左眼用画像210Lと右眼用画像210Rとに分割し、左眼用画像210Lを第1処理部120へ出力し、右眼用画像210Rを第2処理部130へ出力する。具体的には、入力選択部110は、入力三次元映像信号を、左眼用画像と右眼用画像とのうち左眼用画像のみを含む左眼用映像データと、右眼用画像のみを含む右眼用映像データとに分割する。そして、入力選択部110は、左眼用映像データを第1処理部120へ出力し、右眼用映像データを第2処理部130へ出力する。なお、入力選択部110は、入力三次元映像信号を第1処理部120と第2処理部130とへそれぞれ出力し、第1処理部120が左眼用映像データを抽出し、第2処理部130が右眼用映像データを抽出してもよい。
 第1処理部120は、入力選択部110から入力された左眼用映像データを処理する。具体的には、第1処理部120は、左眼用映像データのフォーマット変換を行う。このとき、第1処理部120は、左眼用映像データから、所定の処理を行う際に用いられる情報を取得し、取得した情報を第2処理部130へ出力する。例えば、第1処理部120は、入力された左眼用映像データに画像特徴検出処理を行うことで、特徴検出結果として所定の情報を取得する。画像特徴検出処理は、例えば、フィルム検出である。フィルム検出の詳細は後で説明する。
 第2処理部130は、入力選択部110から入力された右眼用映像データを処理する。具体的には、第2処理部130は、右眼用映像データのフォーマット変換を行う。このとき、第2処理部130は、第1処理部120によって左眼用映像データから取得された情報を受け取る。そして、第2処理部130は、受け取った情報を利用して、右眼用映像データに所定の処理を行う。
 合成部140は、第1処理部120によって生成された変換後の左眼用画像250Lと、第2処理部130によって生成された変換後の右眼用画像250Rとを合成することにより、合成画像260を生成する。生成された合成画像260を含む映像信号は、出力三次元映像信号として出力される。
 第1処理部120の詳細な構成は、以下の通りである。
 図3に示すように、第1処理部120は、第1水平リサイズ部121と、変換処理部122と、垂直リサイズ部123と、第2水平リサイズ部124とを備える。
 第1水平リサイズ部121は、入力された左眼用画像210Lの水平方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。例えば、第1水平リサイズ部121は、画素を間引くことで、又は、複数の画素の平均値を算出することで、左眼用画像210Lを水平方向に縮小する。縮小後の左眼用画像220Lは、変換処理部122に出力される。
 変換処理部122は、入力された縮小後の左眼用画像220LにIP変換を行う。IP変換は、走査方式の変換の一例であり、縮小後の左眼用画像220Lの走査方式を、インターレース方式からプログレッシブ方式へ変換することである。IP変換後の左眼用画像230Lは、垂直リサイズ部123に出力される。
 なお、変換処理部122は、所定の処理に用いられる情報を左眼用画像220Lから取得し、第2処理部130へ出力する。また、変換処理部122は、ノイズリダクション処理(NR処理)を行ってもよい。変換処理部122の詳細な構成及び動作については、後で図4を用いて説明する。また、上記の所定の処理及び当該処理に用いられる情報についても、後で説明する。
 垂直リサイズ部123は、変換処理部122によってIP変換された左眼用画像230Lの垂直方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。リサイズ後の左眼用画像240Lは、第2水平リサイズ部124に出力される。
 第2水平リサイズ部124は、リサイズ後の左眼用画像240Lの水平方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。例えば、第2水平リサイズ部124は、画素を補間することで、又は、画素をコピーすることでリサイズ後の左眼用画像240Lを水平方向に拡大する。拡大後の左眼用画像250Lは、合成部140に出力される。
 また、第2処理部130の詳細な構成は、以下の通りである。
 図3に示すように、第2処理部130は、第1水平リサイズ部131と、変換処理部132と、垂直リサイズ部133と、第2水平リサイズ部134とを備える。
 第1水平リサイズ部131は、入力された右眼用画像210Rの水平方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。例えば、第1水平リサイズ部131は、画素を間引くことで、又は、複数の画素の平均値を算出することで、右眼用画像210Rを水平方向に縮小する。縮小後の右眼用画像220Rは、変換処理部132に出力される。
 変換処理部132は、入力された縮小後の右眼用画像220RにIP変換を行う。IP変換は、縮小後の右眼用画像220Rの走査方式を、インターレース方式からプログレッシブ方式へ変換することである。IP変換後の右眼用画像230Rは、垂直リサイズ部133に出力される。
 なお、変換処理部132は、第1処理部120の変換処理部122から所定の処理に用いられる情報を取得する。また、変換処理部132は、ノイズリダクション処理(NR処理)を行ってもよい。
 垂直リサイズ部133は、変換処理部132によってIP変換された右眼用画像230Rの垂直方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。リサイズ後の右眼用画像240Rは、第2水平リサイズ部134に出力される。
 第2水平リサイズ部134は、リサイズ後の右眼用画像240Rの水平方向の画像サイズをリサイズ、すなわち、拡大又は縮小する。例えば、第2水平リサイズ部134は、画素を補間することで、又は、画素をコピーすることでリサイズ後の右眼用画像240Rを水平方向に拡大する。拡大後の右眼用画像250Rは、合成部140に出力される。
 なお、入力選択部110は、左眼用画像210Lを第2処理部130へ出力し、右眼用画像210Rを第1処理部120へ出力してもよい。また、入力三次元映像信号として、左眼用画像のみを示す左眼用映像信号と右眼用画像のみを示す右眼用映像信号との2つの映像信号が入力された場合は、入力選択部110は、分割処理を行うことなく、左眼用映像信号を第1処理部120へ出力し、右眼用映像信号を第2処理部130へ出力してもよい。
 以上のように、実施の形態1に係る映像信号処理装置100は、左眼用画像及び右眼用画像のいずれか一方から情報を取得し、取得した情報を用いて左眼用画像及び右眼用画像の両方を処理する。
 続いて、上記の映像信号処理装置100が行う処理について、図4及び図5を用いて説明する。なお、図4は、実施の形態1に係る映像信号処理装置100の動作の一例を示すフローチャートである。図5は、実施の形態1に係る映像信号処理装置100による三次元映像信号の流れの一例を示す図である。
 以下では、デジタルビデオレコーダ20が備える映像信号処理装置100の動作について説明する。なお、デジタルテレビ30が備える映像信号処理装置100の動作についても同様である。
 まず、入力選択部110は、入力三次元映像信号52を左眼用画像210Lと右眼用画像210Rとに分割する(S110)。なお、実施の形態1に係る入力三次元映像信号52は、インターレース方式の映像信号であり、例えば、フルハイビジョンの映像である。
 したがって、図5に示すように、左眼用画像210Lは、左眼用トップフィールド210Ltと左眼用ボトムフィールド210Lbとを含んでいる。同様に、右眼用画像210Rは、右眼用トップフィールド210Rtと右眼用ボトムフィールド210Rbとを含んでいる。各フィールドは、1920×540画素で構成される。
 次に、第1水平リサイズ部121及び131はそれぞれ、左眼用画像210L及び右眼用画像210Rを水平方向に縮小する(S120)。ここでは、第1水平リサイズ部121及び131は、水平方向に1/2倍に縮小する。これにより、図5に示すように、縮小後の左眼用画像220Lと縮小後の右眼用画像220Rとを生成する。なお、縮小率は1/2倍に限られない。なお、第1水平リサイズ部121及び131はそれぞれ、左眼用画像210L及び右眼用画像210Rを水平方向に拡大してもよい。
 縮小後の左眼用画像220Lは、縮小後の左眼用トップフィールド220Ltと縮小後の左眼用ボトムフィールド220Lbとを含んでいる。縮小後の右眼用画像220Rは、縮小後の右眼用トップフィールド220Rtと縮小後の右眼用ボトムフィールド220Rbとを含んでいる。各フィールドは、960×540画素で構成される。
 なお、このとき、第1水平リサイズ部121及び131は、図2Bに示すような市松状の画像を生成するために、それぞれ開始位置をずらしてもよい。具体的には、第1水平リサイズ部121は、左眼用トップフィールド210Ltに含まれる偶数番目の画素(0,2,4,6…)を抽出することで、縮小後の左眼用トップフィールド220Ltを生成する。さらに、第1水平リサイズ部121は、左眼用ボトムフィールド210Lbに含まれる奇数番目の画素(1,3,5,7…)を抽出することで、縮小後の左眼用ボトムフィールド220Lbを生成する。
 また、第1水平リサイズ部131は、右眼用トップフィールド210Rtに含まれる奇数番目の画素(1,3,5,7…)を抽出することで、縮小後の右眼用トップフィールド220Rtを生成する。さらに、第1水平リサイズ部131は、右眼用ボトムフィールド210Rbに含まれる偶数番目の画素(0,2,4,6…)を抽出することで、縮小後の右眼用ボトムフィールド220Rbを生成する。
 次に、変換処理部122及び変換処理部132はそれぞれ、縮小後の左眼用画像220Lと縮小後の右眼用画像220RとにIP変換を行う(S130)。変換処理部122及び変換処理部132はそれぞれ、IP変換を行うことで、プログレッシブ方式の左眼用画像230Lと右眼用画像230Rとを生成する。なお、IP変換の詳細については、後で説明する。
 次に、垂直リサイズ部123及び133は、左眼用画像230Lと右眼用画像230Rとを垂直方向にリサイズ、すなわち、拡大又は縮小する(S140)。図5に示す例では、垂直リサイズ部123及び133は、垂直方向のリサイズを行わずに、左眼用画像240Lと右眼用画像240Rとを出力する。
 次に、第2水平リサイズ部124及び134は、左眼用画像240Lと右眼用画像240Rとを水平方向に拡大する(S150)。例えば、第2水平リサイズ部124は、左眼用画像240Lに含まれる各画素をコピーすることで、2倍に拡大された左眼用画像250Lを生成する。同様に、第2水平リサイズ部134は、右眼用画像240Rに含まれる各画素をコピーすることで、2倍に拡大された右眼用画像250Rを生成する。
 なお、拡大率は、例えば、第1水平リサイズ部121及び131における縮小処理の縮小率の逆数である。ただし、これには限られない。第2水平リサイズ部124及び134はそれぞれ、左眼用画像240Lと右眼用画像240Rとを水平方向に縮小してもよい。
 最後に、合成部140は、左眼用画像250Lと右眼用画像250Rとを合成することで、合成画像260を生成する(S160)。合成画像260は、例えば、図2Bに示すように、左眼用画像250Lに含まれる画素と右眼用画像250Rに含まれる画素とが市松状に配列された画像である。合成により得られた合成画像260は、出力三次元映像信号53として出力される。
 以上のようにして、実施の形態1に係る映像信号処理装置100は、入力三次元映像信号52を処理することで、出力三次元映像信号53を生成する。
 次に、変換処理部122の詳細な構成及びその動作と、左眼用画像から取得する情報、及び当該情報を用いた所定の処理とについて説明する。
 実施の形態1に係る変換処理部122は、IP変換を行う前にフィルム検出を行う。フィルム検出は、画像特徴検出処理の一例であり、映像データがフィルム映像から生成された映像データであるか否かを検出する処理である。ここでは、変換処理部122は、フィルム検出として、左眼用画像のみを含む左眼用映像データがフィルム映像から生成された映像データであるか否かを検出する。
 そして、変換処理部122は、フィルム検出の結果を変換処理部132に出力する。なお、変換処理部132では、右眼用画像のみを含む右眼用映像データにIP変換を行う。以下では、変換処理部122の具体的な構成及び動作について説明する。
 図6は、実施の形態1に係る変換処理部122の構成の一例を示すブロック図である。図6に示すように、変換処理部122は、フィルム検出部310と、IP変換部320とを備える。
 フィルム検出部310は、本発明に係る情報取得部の一例であり、左眼用画像にフィルム検出を行う。具体的には、フィルム検出部310は、左眼用画像を含む左眼用映像データにフィルム検出を行うことで、入力三次元映像信号がフィルム映像から生成された映像信号であるか否かを示すフィルム情報と、入力三次元映像信号がフィルム映像から生成された映像信号である場合に、フィルム映像に含まれる複数のフレームのうちの同一のフレームから生成されたピクチャを示すピクチャ情報とを取得する。なお、ここではフィルム検出部310は、ピクチャ情報の一例として、合成すべきフィールドを示すIP変換情報を取得する。
 IP変換部320は、本発明に係る左眼用画像処理部の一例であり、フィルム情報とIP変換情報とを用いて、左眼用映像データをインターレース方式からプログレッシブ方式へ変換する。具体的には、IP変換部320は、入力三次元映像信号がフィルム映像から生成された映像信号であることをフィルム情報が示す場合に、IP変換情報を用いて左眼用映像データをインターレース方式からプログレッシブ方式へ変換する。また、入力三次元映像信号がフィルム映像から生成された映像信号ではないことをフィルム情報が示す場合、IP変換部320は、例えば、隣接する2つのフィールドを合成することで、左眼用映像データをインターレース方式からプログレッシブ方式へ変換する。
 なお、変換処理部132は、本発明に係る右眼用画像処理部の一例であり、右眼用映像データに所定の処理を行う。具体的には、変換処理部132は、フィルム検出の結果であるフィルム情報とIP変換情報とをフィルム検出部310から受け取る。そして、変換処理部132は、IP変換部320と同様にして、フィルム情報とIP変換情報とを用いて、右眼用映像データをインターレース方式からプログレッシブ方式へ変換する。
 図7は、実施の形態1に係る変換処理部122の動作の一例を示すフローチャートである。
 まず、フィルム検出部310は、左眼用映像データにフィルム検出を行う(S131)。なお、第1処理部120に右眼用映像データを入力することで、フィルム検出部310は、右眼用映像データにフィルム検出を行ってもよい。フィルム検出の結果であるフィルム情報とIP変換情報とは、IP変換部320と変換処理部132とに出力される。
 次に、IP変換部320及び変換処理部132は、フィルム情報とIP変換情報とを用いて、左眼用映像データ及び右眼用映像データをインターレース方式からプログレッシブ方式へ変換する(S132)。フィルム検出及びIP変換の具体的な処理については、フィルム映像と三次元映像との例を挙げて以下で説明する。
 図8は、フィルム映像と入力三次元映像信号との一例を示す図である。
 図8に示す例では、フィルム映像は、24コマ/秒(24fps)のプログレッシブ方式の映像(24pの映像)である。
 入力三次元映像信号は、例えば、フレームレートが60fpsであるインターレース方式の映像(60iの映像)を示す信号である。すなわち、入力三次元映像信号は、トップフィールドとボトムフィールドとを1秒間に合わせて60枚含んでいる(トップフィールド又はボトムフィールドのみのフレームレートは、30fps)。
 図8に示すように、24pの映像から60iの映像を生成する場合、まず、24pの映像に含まれるフレームAをトップフィールド用(Atop)、ボトムフィールド用(Abtm)、トップフィールド用(Atop)に3回読み出す。次に、24pの映像に含まれるフレームBをボトムフィールド用(Bbtm)、トップフィールド用(Btop)に2回読み出す。次に、24pの映像に含まれるフレームCをボトムフィールド用(Cbtm)、トップフィールド用(Ctop)、ボトムフィールド用(Cbtm)に3回読み出す。
 以上のように、フレームの3回読み出しと2回読み出しとを交互に繰り返すことで、24pの映像から60iの映像を生成することができる(3-2プルダウン処理)。なお、他のフレームレート間での変換を行う場合も同様に、変換前のフレームレートと変換後のフレームレートとの割合に応じて、読み出し回数を決定すればよい。
 次に、図8に示すように生成された60iの映像(入力三次元映像信号)を60pの映像(出力三次元映像信号)にIP変換する場合について説明する。なお、60pの映像は、60fpsのプログレッシブ方式の映像のことである。
 フィルム検出部310は、フィルム検出として、2つのフィールド間の差分を算出する。例えば、フィルム検出部310は、対象となるフィールドと2つ前のフィールドとの差分を算出する。図8に示すように24pの映像であるフィルム映像から生成された60iの映像を含む入力三次元映像信号は、5枚のフィールド中に2枚の同じフィールドが含まれる(例えば、1番目と3番目のAtop、6番目と8番目のCbtm)。
 したがって、2つのフィールド間の差分を順次算出すると、5枚のフィールド中に1組は、差分がほぼ0となるフィールドの組が存在する。これにより、フィルム検出部310は、差分がほぼ0となる割合を検出することで、入力三次元映像信号が3-2プルダウンされた映像を含んでいることを検出することができる。つまり、差分がほぼ0となる割合が5枚のフィールド中に1組のフィールドであると検出した場合、フィルム検出部310は、入力三次元映像信号がフィルム映像から生成された映像信号であることを示すフィルム情報をIP変換部320へ出力する。
 さらに、フィルム検出部310は、差分がほぼ0となる割合が5枚のフィールド中に1組のフィールドであると検出した場合、フィルム映像のフレームレートを示すフレームレート情報を取得する。つまり、入力三次元映像信号が3-2プルダウンされた映像であり、かつ、入力三次元映像信号のフレームレートが60fpsであることから、フィルム映像のフレームレートは、24(=60×2/5)fpsであることが分かる。そして、フィルム検出部310は、IP変換の際に、合成すべきトップフィールドとボトムフィールドとを示すIP変換情報をIP変換部320へ出力する。
 図9は、実施の形態1に係るIP変換部320による、60iの映像を60pの映像にIP変換する際の処理例を示す図である。
 IP変換部320は、60iの入力映像と、当該入力映像を1フレーム遅延した第1遅延映像と、60iの入力映像を2フレーム遅延した第2遅延映像との中から、フィールド毎に2つの映像を選択して合成する。このとき、どの映像を選択するか、すなわち、どのトップフィールドとどのボトムフィールドとを選択するかは、フィルム検出部310によるフィルム検出の結果であるIP変換情報に従って決定される。
 具体的には、フィルム検出部310は、入力三次元映像信号が3-2プルダウンされた映像信号であることを検出した場合、フィルム映像に含まれる同一のフレームから生成されたフィールドを示す情報をIP変換情報として出力する。そして、IP変換部320は、受け取ったIP変換情報に従って、同一のフレームから生成されたフィールド同士を選択して合成する。
 例えば、IP変換部320は、図9に点線で示す四角によって囲まれた2枚のフィールドを合成することで1フレームの画像を生成する。
 具体的には、IP変換部320は、時刻T2では、第1遅延映像のAtopと60iの映像のAbtmとを合成する。また、時刻T3では、IP変換部320は、第1遅延映像のAbtmと60iの映像のAtopとを合成する。なお、時刻T3では、第1遅延映像のAbtmと第2遅延映像のAtopとを合成してもよい。
 さらに、時刻T4では、IP変換部320は、第1遅延映像のAtopと第2遅延映像のAbtmとを合成する。次に、時刻T5では、IP変換部320は、60iの映像のBtopと第1遅延映像のAbtmとを合成する。
 このように、3-2プルダウンされた映像信号をIP変換する場合、同一のフレームから生成された3枚連続するフィールドについては、最初の2枚は、第1遅延映像と入力映像とを合成し、残りの1枚は第1遅延映像と第2遅延映像とを合成すればよい。なお、真ん中の1枚は、第1遅延映像と第2遅延映像とを合成してもよい。さらに、同一のフレームから生成された2枚連続するフィールドについては、1枚目は、第1遅延映像と入力映像とを合成し、2枚目は、第1遅延映像と第2遅延映像とを合成すればよい。
 以上のように、IP変換部320は、フィルム映像に含まれる同一のフレームから生成されたフィールド同士を選択して合成することで、所定のフレームレートのインターレース方式の入力三次元映像信号から同じフレームレートのプログレッシブ方式の出力三次元映像信号を生成する。
 また、IP変換部320は、入力三次元映像信号がフィルム映像から生成された映像信号ではないことをフィルム情報が示す場合は、隣接するフィールドを順に合成することでプログレッシブ方式の出力三次元映像信号を生成する。
 なお、入力三次元映像信号がフィルム映像から生成された映像信号である場合に、IP変換部320がフィルム検出を行わず、単に、隣接するフィールドを順に合成した場合、例えば、AtopとBbtmとが合成されてしまうことになり、画質が劣化してしまう。したがって、上記のようにフィルム検出を行うことで、本実施の形態に係るIP変換部320は、フィルム映像に含まれる同一のフレームから生成されたフィールド同士を合成することができるので、画質の劣化を防止することができる。
 以上のように、実施の形態1に係る変換処理部122では、左眼用映像データにフィルム検出を行い、その結果を変換処理部132に出力する。変換処理部132は、変換処理部122から入力されるフィルム検出の結果を用いて、右眼用映像データにIP変換を行う。
 左眼用画像と右眼用画像とは、そもそも同じ被写体を異なる視点から撮影して得られた画像、又は、同じ画像を所定の視差の分だけずらして生成された画像である。したがって、左眼用映像データと右眼用映像データとのいずれにフィルム検出を行ったとしても、同じ結果が得られる。
 このため、本実施の形態のように、左眼用映像データ及び右眼用映像データのいずれか一方のみにフィルム検出を行い、その検出結果を左眼用映像データ及び右眼用映像データの双方に利用することで、処理の重複を避けることができる。これにより、本実施の形態に係る映像信号処理装置100は、冗長な処理を避けることができ、消費電力を低減、及び処理速度を向上させることができる。
 また、左眼用映像データと右眼用映像データとで個別に検出を行った場合、互いに異なる検出結果が得られる可能性がある。この場合、変換処理部122及び132は、異なる検出結果に基づいてIP変換を行うことになるので、合成部140が左眼用画像と右眼用画像とを合成した場合に不自然な映像が生成される可能性がある。
 これに対して、本実施の形態に係る映像信号処理装置100では、同じ検出結果を用いて、左眼用映像データと右眼用映像データとの両方を処理するので、上記のように不自然な映像が生成される可能性を低減することができる。
 なお、上記説明では、インターレース方式の入力三次元映像信号にフィルム検出を行う構成について示したが、プログレッシブ方式の入力三次元映像信号にフィルム検出を行ってもよい。例えば、図8に示すような24pのフィルム映像(ABC…)から生成された、図9に示すような60pの映像信号(AAABBCCC…)が、入力三次元映像信号として本実施の形態に係る映像信号処理装置100に入力された場合を想定する。
 フィルム検出部310は、左眼用映像データに含まれる2つのフレーム間の差分を算出する。例えば、フィルム検出部310は、時間的に隣接する2つのフレーム間の差分を算出することで、差分が“小小大小大小小大小大…”となる。これにより、フィルム検出部310は、入力三次元映像信号が3-2プルダウンされた映像を含んでいることを示すフィルム情報をIP変換部320へ出力する。
 さらに、フィルム検出部310は、ピクチャ情報の一例として、フィルム映像に含まれる同一のフレームから生成されたフレームを示すフレーム情報を、IP変換部320と変換処理部132とへ出力する。例えば、時間的に隣接する2つのフレーム間の差分がほぼ0となった場合、フィルム検出部310は、これら2つのフレームが、フィルム映像に含まれる同一のフレームから生成されたフレームであると判定することで、フレーム情報を出力する。
 IP変換部320は、フィルム情報とフレーム情報とを受け取り、受け取ったフィルム情報とフレーム情報とに基づいて、左眼用映像データである入力三次元映像信号のフレームレートを変換する。例えば、入力三次元映像信号が3-2プルダウンされた映像を含んでいることをフィルム情報が示す場合、IP変換部320は、フレーム情報を用いて出力すべきフレームとその枚数とを決定する。
 例えば、IP変換部320は、同一のフレームを2枚ずつ選択して出力することで、フレームレートが48fpsの映像信号(AABBCC…)を出力する。この映像信号には、同一のフレームが2枚ずつ含まれる。あるいは、IP変換部320は、同一のフレームを5枚ずつ選択して出力することで、フレームレートが120fpsの映像信号(AAAAABBBBBCCCCC…)を出力してもよい。この映像信号には、同一のフレームが5枚ずつ含まれる。
 変換処理部132は、右眼用映像データにIP変換部320と同様の処理を行う。
 以上のようにして、プログレッシブ方式の入力三次元映像信号にフィルム検出を行ってもよい。この場合も、左眼用映像データと右眼用映像データとでは、フィルム検出結果が一致するので、一方のみにフィルム検出を行うことで、処理量の増大を抑制することができる。
 なお、IP変換部320は、走査方式の変換とフレームレートの変換との両方を行ってもよい。例えば、IP変換部320は、インターレース方式の映像信号(60iの映像信号)をプログレッシブ方式の映像信号(60pの映像信号)に変換するとともに、変換した映像信号のフレームレートを上述のように変換する。これにより、例えば、IP変換部320は、60iの映像信号から48p又は120pの映像信号を生成することができる。
 また、フィルム検出では、入力三次元映像信号として3-2プルダウンされた映像信号について説明したが、2-2プルダウンされた映像信号であってもよい。例えば、隣接する2フィールドの差分を算出すると、2-2プルダウンされた映像信号の場合、差分が“大小大小…”を繰り返す。したがって、フィルム検出部310は、検出した差分の変化の傾向を判断することで、入力三次元映像信号が2-2プルダウンされた映像信号であることを検出することができる。
 なお、フィルム検出部310が行うフィルム検出は、上記の方法に限られず、他の方法であってもよい。
 また、本実施の形態に係る映像信号処理装置100は、第1処理部120と第2処理部130とを用いて、左眼用映像データと右眼用映像データとを並列処理する構成について説明したが、2つの処理部のうちいずれか1つの処理部のみを備えていてもよい。例えば、入力選択部110は、左眼用映像データと右眼用映像データとの両方を第1処理部120に入力してもよい。
 第1処理部120が備える各処理部は、左眼用映像データと右眼用映像データとをそれぞれシーケンシャルに処理する。例えば、左眼用映像データを処理した後で、右眼用映像データを処理する(あるいは、逆でもよい)。このとき、左眼用映像データから取得されたフィルム情報及びIP変換情報は、メモリなどに格納しておけばよい。
 また、本実施の形態では、左眼用画像にフィルム検出を行ったが、右眼用画像にフィルム検出を行い、検出結果を左眼用画像と右眼用画像との両方に利用してもよい。
 以上のように、実施の形態1に係る映像信号処理装置100は、左眼用画像及び右眼用画像の一方から、IP変換などの所定の処理を行う際に用いられる情報を取得する情報取得部の一例であるフィルム検出部310を備える。また、映像信号処理装置100は、情報取得部の一例であるフィルム検出部310によって取得された情報を用いて、左眼用画像及び右眼用画像の両方に、IP変換又はフレームレートの変換を行う画像処理部の一例であるIP変換部320及び変換処理部132を備える。
 この構成により、実施の形態1に係る映像信号処理装置100によれば、上記情報を取得するための処理の一例であるフィルム検出を左眼用画像及び右眼用画像の一方のみに行えばよく、処理の重複を避けることができる。したがって、処理量の増大を抑制することができる。
 (実施の形態2)
 実施の形態2に係る映像信号処理装置は、実施の形態1と同様に、左眼用画像及び右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部と、情報取得部によって取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記処理を行う画像処理部とを備えることを特徴とする。より具体的には、実施の形態2では、情報取得部は、左眼用画像及び右眼用画像の一方に、輝度値が一定の特定画像が含まれているか否かを検出することで、特定画像が含まれている領域を示す特定画像情報を取得する。
 なお、以下では、実施の形態1と重複する説明は省略し、実施の形態1との相違点を中心に説明する。
 実施の形態2に係る映像信号処理装置は、実施の形態1の図3に示す映像信号処理装置100とほぼ同じであり、入力選択部110の代わりに入力選択部410を備える点が異なっている。以下では、まず、実施の形態2に係る映像信号処理装置が備える入力選択部410の構成について説明する。
 図10A及び図10Bは、実施の形態2に係る映像信号処理装置が備える入力選択部410の構成の一例を示すブロック図である。図10Aに示すように、入力選択部410は、分割部411と、特定画像検出部412と、APL算出部413及び414とを備える。
 分割部411は、入力三次元映像信号を左眼用画像と右眼用画像とに分割する。左眼用画像は特定画像検出部412に出力され、右眼用画像はAPL算出部414に出力される。なお、左眼用画像がAPL算出部414に出力され、右眼用画像が特定画像検出部412に出力されてもよい。
 また、入力三次元映像信号が予め左眼用画像と右眼用画像とに分割されている場合は、入力選択部410は、分割部411を備えていなくてもよい。この場合は、直接、左眼用画像が特定画像検出部412に入力され、右眼用画像がAPL算出部414に入力される。
 特定画像検出部412は、本発明に係る情報取得部の一例であり、左眼用画像及び右眼用画像の一方に輝度値が一定の特定画像が含まれているか否かを検出することで、当該特定画像が含まれている領域を示す特定画像情報を取得する。ここでは、左眼用画像が入力されるので、特定画像検出部412は、左眼用画像に特定画像が含まれているか否かを検出する。具体的には、特定画像検出部412は、サイドパネル検出及びレターボックス検出を行う。
 図10Aに示すように、特定画像検出部412は、サイドパネル検出部412aと、レターボックス検出部412bとを備える。
 サイドパネル検出部412aは、左眼用画像及び右眼用画像の一方について、画像の左側と右側とに特定画像が含まれているか否かを検出する(サイドパネル検出又はピラーボックス検出)。ここでは、左眼用画像が入力されるので、サイドパネル検出部412aは、左眼用画像の左側と右側とに特定画像が含まれているか否かを検出する。なお、特定画像は、輝度値が一定の画像であり、例えば、黒色の画像である。
 サイドパネル検出部412aは、サイドパネル検出を行うことで、特定画像が含まれている領域を示す特定画像情報を取得する。特定画像情報は、例えば、特定画像が含まれている領域が、画像の左側又は右側から何画素分であるかを示す情報である。
 レターボックス検出部412bは、左眼用画像及び右眼用画像の一方について、画像の上側と下側とに特定画像が含まれているか否かを検出する(レターボックス検出)。ここでは、左眼用画像が入力されるので、レターボックス検出部412bは、左眼用画像の上側と下側とに特定画像が含まれているか否かを検出する。
 レターボックス検出部412bは、レターボックス検出を行うことで、特定画像が含まれている領域を示す特定画像情報を取得する。特定画像情報は、例えば、特定画像が含まれている領域が、画像の上側又は下側から何画素分であるかを示す情報である。
 なお、特定画像検出部412は、サイドパネル検出とレターボックス検出とのいずれか一方のみを行ってもよい。両方の検出を行った場合は、特定画像検出部412は、サイドパネル検出部412aによって取得された特定画像情報と、レターボックス検出部412bによって取得された特定画像情報とを合わせて、特定画像が含まれた領域を示す特定画像情報としてAPL算出部413及び414へ出力する。
 APL算出部413及び414は、本発明に係る画像処理部の一例であり、左眼用画像及び右眼用画像の両方について、特定画像情報が示す領域以外の有効画像領域の平均輝度値(Average Picture Level)を算出する。具体的には、APL算出部413は、左眼用画像のうち、特定画像情報が示す領域以外の有効画像領域の平均輝度値を算出する。また、APL算出部414は、右眼用画像のうち、特定画像情報が示す領域以外の有効画像領域の平均輝度値を算出する。なお、有効画像領域は、本来の画像が表示されている領域である。
 ここで、特定画像の例について説明する。
 図11Aは、サイドパネル画像500の一例を示す図である。図11Bは、レターボックス画像600の一例を示す図である。
 サイドパネル画像500は、本来の画像510の左側と右側とに特定画像520がそれぞれ付加されている。具体的には、アスペクト比が16:9の画面にアスペクト比が4:3の本来の画像510を表示させるときに、特定画像520が本来の画像510に付加される。なお、サイドパネルは、ピラーボックスともいう。
 サイドパネル検出部412aは、図11Aに示すような特定画像520が本来の画像510に付加されているか否かを検出する。例えば、サイドパネル検出部412aは、入力された左眼用画像の左側の領域(数画素列分の領域)と右側の領域(数画素列分の領域)との双方に含まれる画素の輝度値が全て同じ所定の値(黒色)であるか否かを判定する。
 左側の領域と右側の領域とに含まれる画素の輝度値が全て同じ所定の値(黒色)であると判定した場合、サイドパネル検出部412aは、入力された左眼用画像はサイドパネル画像500であると判定する。そして、サイドパネル検出部412aは、特定画像520の領域を示す特定画像情報をAPL算出部413に出力する。APL算出部413は、サイドパネル画像500のうち特定画像520を除く領域(有効画像領域)、すなわち、本来の画像510の平均輝度値を算出する。
 サイドパネル画像500の平均輝度値を算出した場合、輝度値が一定の特定画像520を含んだ平均輝度値が算出されてしまう。つまり、本来の画像510の平均輝度値とは異なる値が算出される。したがって、平均輝度値を用いて画像を補正する場合など、平均輝度値が異なっているので、正しく画像を補正することができなくなる。これに対して、本実施の形態では、サイドパネル検出を行い、特定画像の領域を特定することで、正確な補正処理などを行うことができる。
 レターボックス画像600は、本来の画像610の上側と下側とに特定画像620がそれぞれ付加されている。具体的には、アスペクト比が4:3の画面にアスペクト比が16:9の本来の画像610を表示させるときに、特定画像620が本来の画像610に付加される。
 レターボックス検出部412bは、図11Bに示すような特定画像620が本来の画像610に付加されているか否かを検出する。例えば、レターボックス検出部412bは、入力された右眼用画像の上側の領域(数画素行分の領域)と下側の領域(数画素行分の領域)との双方に含まれる画素の輝度値が全て同じ所定の値(黒色)であるか否かを判定する。
 上側の領域と下側の領域とに含まれる画素の輝度値が全て同じ所定の値(黒色)であると判定した場合、レターボックス検出部412bは、入力された右眼用画像はレターボックス画像600であると判定する。そして、レターボックス検出部412bは、特定画像520の領域を示す特定画像情報をAPL算出部413に出力する。APL算出部413は、レターボックス画像600のうち特定画像620を除く領域(有効画像領域)、すなわち、本来の画像610の平均輝度値を算出する。これにより、サイドパネル検出と同様に、レターボックス検出を行い、特定画像の領域を特定することで、正確な補正処理などを行うことができる。
 なお、上記のアスペクト比は一例であって、他のアスペクト比の場合であっても同様である。
 以上のようにして左眼用画像から検出された特定画像情報を用いて、APL算出部414は、右眼用画像の平均輝度値を算出する。左眼用画像と右眼用画像とでは、通常、一方のみに特定画像が含まれている場合はなく、また、異なる領域に特定画像が含まれている場合もない。したがって、左眼用画像から検出された特定画像情報と、右眼用画像から検出した特定画像情報とはおおよそ一致する。
 このため、厳密な結果を必要としない場合は、左眼用画像と右眼用画像との両方から特定画像情報を取得する処理は冗長であり、本実施の形態のように、いずれか一方のみから特定画像情報を取得することで、処理量の増大を抑制することができる。なお、厳密な結果を必要とする場合は、サイドパネル検出部412a及びレターボックス検出部412bは、左眼用画像と右眼用画像とのそれぞれに、サイドパネル検出及びレターボックス検出を行えばよい。
 なお、図10Bに示すように、入力選択部410は、APL算出部414を備えていなくてもよい。つまり、APL算出部413によって、左眼用画像から算出された平均輝度値を、右眼用画像の平均輝度値として利用してもよい。なぜなら、左眼用画像の平均輝度値と右眼用画像の平均輝度値とも同じ値になることが多いためである。なお、このときのAPL算出部413は、本発明に係る情報取得部の一例である。
 続いて、実施の形態2に係る映像信号処理装置の動作のうち、入力選択部410の動作について、図12を用いて説明する。なお、実施の形態2に係る映像信号処理装置の動作は、実施の形態1に係る映像信号処理装置100の動作(図4参照)とほぼ同じであり、入力選択部110の動作(S110)が異なっている。
 図12は、実施の形態2に係る映像信号処理装置が備える入力選択部410の動作の一例を示すフローチャートである。図12は、図4に示す入力選択部110の動作(S110)に相当する。
 まず、分割部411が、入力三次元映像信号を左眼用画像と右眼用画像とに分割する(S210)。左眼用画像は、特定画像検出部412に出力され、右眼用画像はAPL算出部414に出力される。
 次に、特定画像検出部412は、左眼用画像にサイドパネル検出とレターボックス検出とを行う(S220)。なお、サイドパネル検出とレターボックス検出とはいずれか一方のみが実行されてもよい。例えば、サイドパネル検出により特定画像が検出された場合は、レターボックス検出を行わなくてもよい。逆に、レターボックス検出により特定画像が検出された場合は、サイドパネル検出を行わなくてもよい。検出結果である特定画像情報は、APL算出部413とAPL算出部414との両方に出力される。
 次に、APL算出部413は、特定画像情報を用いて、左眼用画像の平均輝度値を算出し、APL算出部414は、特定画像情報を用いて、右眼用画像の平均輝度値を算出する(S230)。
 以上のように、実施の形態2に係る映像信号処理装置では、入力選択部410において、左眼用画像にサイドパネル検出及びレターボックス検出を行うことで、特定画像を検出し、検出した結果を用いて左眼用画像と右眼用画像との両方について、平均輝度値の算出を行う。
 これにより、実施の形態2に係る映像信号処理装置によれば、左眼用画像と右眼用画像とのいずれか一方のみから特定画像情報を取得することで、処理量の増大を抑制することができる。
 なお、実施の形態2では、入力選択部410がサイドパネル検出及びレターボックス検出を行ったが、実施の形態1と同様に、これらの検出を、変換処理部122が左眼用画像に行ってもよい。そして、変換処理部122は、得られた検出結果を変換処理部132に出力してもよい。
 また、平均輝度値の算出についても同様に、入力選択部410ではなく変換処理部122及び132が行ってもよい。あるいは、図示していない他の処理部によって実行してもよい。
 以上のように、本発明に係る映像信号処理装置は、左眼用画像と右眼用画像とを含む三次元映像信号処理装置であって、左眼用画像及び右眼用画像のいずれか一方から取得した情報を用いて、所定の処理を左眼用画像及び右眼用画像の両方に行う。これは、左眼用画像と右眼用画像とは通常、同じ被写体を異なる視点から撮影することにより得られた画像であって、互いに共通する点が多いことを利用する。
 例えば、上述のようにフィルム検出結果、サイドパネル検出結果、及びレターボックス検出結果などが、左眼用画像と右眼用画像とで共通する。したがって、共通の結果が得られる処理についてはいずれか一方にのみ行うことで、処理の重複を避けることができ、処理量の増大を抑制することができる。
 また、通常同じ結果が得られるはずのところ、異なる結果が得られた場合は、左眼用画像と右眼用画像とを合成する際に不自然な画像が生成されてしまう可能性がある。本発明に係る映像信号処理装置では、共通の結果を用いているため、このような不自然な画像の生成を防止することができる。
 以上、映像信号処理装置及び映像信号処理方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 例えば、左眼用画像及び右眼用画像の一方にCM検出を行ってもよい。CM検出は、入力された左眼用画像又は右眼用画像が、映像に含まれる広告情報などのCMであるか、映画などのコンテンツであるかを判定する処理である。同一の表示時刻における左眼用画像と右眼用画像とのいずれか一方のみがCMであるということは通常ありえないため、CM検出結果も左眼用画像と右眼用画像とで同じである。
 したがって、左眼用画像と右眼用画像とのいずれか一方にCM検出を行い、得られた結果を左眼用画像と右眼用画像との両方のCM検出結果として用いることができる。なお、例えば、入力選択部110又は410がCM検出を行う。例えば、画像がCMであることを示す識別子を検出する、あるいは、CMとコンテンツとで解像度の違いを検出することで、入力された左眼用画像又は右眼用画像がCMであるか否かを判定する。
 左眼用画像がCMであると判定された場合は、例えば、第1水平リサイズ部121及び131が、左眼用画像及び右眼用画像を高い縮小率で縮小することで、以降の処理量を低減することができる。
 また、入力された三次元映像信号を符号化する場合に備えて、左眼用画像を含む左眼用映像データと、右眼用画像を含む右眼用映像データとの一方から動きを検出してもよい。また、同様にフレーム又はフィールドの参照関係を決定してもよい。これらの処理は、例えば、入力選択部110若しくは410、変換処理部122若しくは132、又は、他の処理部が行う。
 なお、本発明に係る映像信号処理装置100は、図13に示すようなデジタルビデオレコーダ20及びデジタルテレビ30に搭載される。
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのは言うまでもない。以下のような場合も本発明の範囲に含まれる。
 上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成要素を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はモジュールは、耐タンパ性を有するとしてもよい。
 また、本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、コンピュータプログラム又はデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO(Magneto-Optical Disk)、DVD(Digital Versatile Disc)、DVD-ROM、DVD-RAM、BD、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されているデジタル信号であるとしてもよい。
 また、本発明は、コンピュータプログラム又はデジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送などを経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、上記コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムに従って動作するとしてもよい。
 また、プログラム又はデジタル信号を記録媒体に記録して移送することにより、あるいはプログラム又はデジタル信号を、ネットワークなどを経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 本発明に係る映像信号処理装置及び映像信号処理方法は、処理量の増大を抑制することができるという効果を奏し、例えば、デジタルテレビ及びデジタルビデオレコーダなどに適用することができる。
10 映像信号処理システム
20 デジタルビデオレコーダ
21、31 入力部
22、32 デコーダ
23、33 HDMI通信部
30 デジタルテレビ
34 表示パネル
35 トランスミッタ
40 シャッタメガネ
41 HDMIケーブル
42 記録媒体
43 放送波
51、54 三次元映像信号
52、55、56 入力三次元映像信号
53、57、58 出力三次元映像信号
57L、58L、210L、220L、230L、240L、250L 左眼用画像
57R、58R、210R、220R、230R、240R、250R 右眼用画像
100 映像信号処理装置
110、410 入力選択部
120 第1処理部
121、131 第1水平リサイズ部
122、132 変換処理部
123、133 垂直リサイズ部
124、134 第2水平リサイズ部
130 第2処理部
140 合成部
210Lb、220Lb 左眼用ボトムフィールド
210Lt、220Lt 左眼用トップフィールド
210Rb、220Rb 右眼用ボトムフィールド
210Rt、220Rt 右眼用トップフィールド
260 合成画像
310 フィルム検出部
320 IP変換部
411 分割部
412 特定画像検出部
412a サイドパネル検出部
412b レターボックス検出部
413、414 APL算出部
500 サイドパネル画像
510、610 本来の画像
520、620 特定画像
600 レターボックス画像

Claims (11)

  1.  左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理装置であって、
     前記左眼用画像及び前記右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部と、
     前記情報取得部によって取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記所定の処理を行う画像処理部とを備える
     映像信号処理装置。
  2.  前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方にフィルム検出を行うことで、前記三次元映像信号がフィルム映像から生成された映像信号であるか否かを示すフィルム情報を取得する
     請求項1記載の映像信号処理装置。
  3.  前記情報取得部は、さらに、前記三次元映像信号がフィルム映像から生成された映像信号である場合に、前記フィルム映像に含まれる複数のフレームのうちの同一のフレームから生成されたピクチャを示すピクチャ情報を取得し、
     前記画像処理部は、前記三次元映像信号がフィルム映像から生成された映像信号であることを前記フィルム情報が示す場合に、前記所定の処理として、前記左眼用画像及び前記右眼用画像の両方にそれぞれ、前記ピクチャ情報を用いて、走査方式の変換及びフレームレートの変換の少なくとも一方を行う
     請求項2記載の映像信号処理装置。
  4.  前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方に輝度値が一定の特定画像が含まれているか否かを検出することで、当該特定画像が含まれている領域を示す特定画像情報を取得する
     請求項1記載の映像信号処理装置。
  5.  前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方について、画像の左側と右側とに前記特定画像が含まれているか否かを検出することで、前記特定画像情報を取得する
     請求項4記載の映像信号処理装置。
  6.  前記情報取得部は、前記左眼用画像及び前記右眼用画像の一方について、画像の上側と下側とに前記特定画像が含まれているか否かを検出することで、前記特定画像情報を取得する
     請求項4記載の映像信号処理装置。
  7.  前記画像処理部は、前記左眼用画像及び前記右眼用画像の両方について、前記特定画像情報が示す領域以外の有効画像領域の平均輝度値をそれぞれ算出する
     請求項5記載の映像信号処理装置。
  8.  前記映像信号処理装置は、さらに、
     前記三次元映像信号を前記左眼用画像と前記右眼用画像とに分割する分割部を備え、
     前記画像処理部は、
     前記左眼用画像に前記所定の処理を行う左眼用画像処理部と、
     前記右眼用画像に前記所定の処理を行う右眼用画像処理部とを有し、
     前記情報取得部は、前記分割部によって分割された前記左眼用画像及び前記右眼用画像の一方から前記情報を取得し、取得した情報を前記左眼用画像処理部と前記右眼用画像処
    理部とに出力する
     請求項1記載の映像信号処理装置。
  9.  左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理方法であって、
     前記左眼用画像及び前記右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得ステップと、
     前記情報取得ステップにおいて取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記所定の処理を行う画像処理ステップとを含む
     映像信号処理方法。
  10.  左眼用画像と右眼用画像とを含む三次元映像信号を処理する集積回路であって、
     前記左眼用画像及び前記右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得部と、
     前記情報取得部によって取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記所定の処理を行う画像処理部とを備える
     集積回路。
  11.  左眼用画像と右眼用画像とを含む三次元映像信号を処理する映像信号処理方法をコンピュータに実行させるためのプログラムであって、
     前記左眼用画像及び前記右眼用画像の一方から、所定の処理を行う際に用いられる情報を取得する情報取得ステップと、
     前記情報取得ステップにおいて取得された情報を用いて、前記左眼用画像及び前記右眼用画像の両方に前記所定の処理を行う画像処理ステップとを含む
     プログラム。
     
     
PCT/JP2010/004113 2009-09-17 2010-06-21 映像信号処理装置、及び、映像信号処理方法 WO2011033706A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2010800099765A CN102342122A (zh) 2009-09-17 2010-06-21 影像信号处理装置和影像信号处理方法
US13/192,930 US20110285819A1 (en) 2009-09-17 2011-07-28 Video signal processing apparatus and video signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-216273 2009-09-17
JP2009216273A JP4747214B2 (ja) 2009-09-17 2009-09-17 映像信号処理装置、及び、映像信号処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/192,930 Continuation US20110285819A1 (en) 2009-09-17 2011-07-28 Video signal processing apparatus and video signal processing method

Publications (1)

Publication Number Publication Date
WO2011033706A1 true WO2011033706A1 (ja) 2011-03-24

Family

ID=43758324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004113 WO2011033706A1 (ja) 2009-09-17 2010-06-21 映像信号処理装置、及び、映像信号処理方法

Country Status (4)

Country Link
US (1) US20110285819A1 (ja)
JP (1) JP4747214B2 (ja)
CN (1) CN102342122A (ja)
WO (1) WO2011033706A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257487B1 (en) * 2018-01-16 2019-04-09 Qualcomm Incorporated Power efficient video playback based on display hardware feedback
KR20200084273A (ko) * 2019-01-02 2020-07-10 엘지전자 주식회사 무선 디바이스 및 무선 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241593A (ja) * 1991-01-14 1992-08-28 A T R Shichiyoukaku Kiko Kenkyusho:Kk 立体テレビジョンシステム
JPH07312760A (ja) * 1994-05-19 1995-11-28 Sanyo Electric Co Ltd 立体画像再生装置
JP2004186863A (ja) * 2002-12-02 2004-07-02 Amita Technology Kk 立体映像表示装置及び立体映像信号処理回路

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3486461B2 (ja) * 1994-06-24 2004-01-13 キヤノン株式会社 画像処理装置及び方法
JP3771973B2 (ja) * 1996-09-26 2006-05-10 オリンパス株式会社 立体映像表示装置
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP3619063B2 (ja) * 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
US20020164068A1 (en) * 2001-05-03 2002-11-07 Koninklijke Philips Electronics N.V. Model switching in a communication system
TW548487B (en) * 2001-05-07 2003-08-21 Vrex Inc Single cell liquid crystal shutter glasses
US20020180663A1 (en) * 2001-06-04 2002-12-05 Kazuo Maeda Method for manufacturing 3D image display body, and film for use in forming 3D image display body
US6956964B2 (en) * 2001-11-08 2005-10-18 Silicon Intergrated Systems Corp. Apparatus for producing real-time anaglyphs
US7136417B2 (en) * 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
US7746377B2 (en) * 2003-11-28 2010-06-29 Topcon Corporation Three-dimensional image display apparatus and method
US7420618B2 (en) * 2003-12-23 2008-09-02 Genesis Microchip Inc. Single chip multi-function display controller and method of use thereof
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
CN100446036C (zh) * 2006-12-27 2008-12-24 浙江大学 一种基于累计直方图的非线性亮度校正方法
JP2008304905A (ja) * 2007-05-09 2008-12-18 Panasonic Corp 画質調整装置、画質調整方法及びプログラム
US8233548B2 (en) * 2007-05-09 2012-07-31 Panasonic Corporation Noise reduction device and noise reduction method of compression coded image
JP5347717B2 (ja) * 2008-08-06 2013-11-20 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2010150973A1 (en) * 2009-06-23 2010-12-29 Lg Electronics Inc. Shutter glasses, method for adjusting optical characteristics thereof, and 3d display system adapted for the same
US8610757B2 (en) * 2009-08-24 2013-12-17 Next3D, Inc. Stereoscopic video encoding and decoding methods and apparatus
WO2011084899A1 (en) * 2010-01-11 2011-07-14 Thomson Licensing Stereoscopic film marking and method of use

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241593A (ja) * 1991-01-14 1992-08-28 A T R Shichiyoukaku Kiko Kenkyusho:Kk 立体テレビジョンシステム
JPH07312760A (ja) * 1994-05-19 1995-11-28 Sanyo Electric Co Ltd 立体画像再生装置
JP2004186863A (ja) * 2002-12-02 2004-07-02 Amita Technology Kk 立体映像表示装置及び立体映像信号処理回路

Also Published As

Publication number Publication date
JP2011066725A (ja) 2011-03-31
US20110285819A1 (en) 2011-11-24
CN102342122A (zh) 2012-02-01
JP4747214B2 (ja) 2011-08-17

Similar Documents

Publication Publication Date Title
JP4763822B2 (ja) 映像信号処理装置及び映像信号処理方法
JP5502436B2 (ja) 映像信号処理装置
US8441527B2 (en) Three-dimensional image processing apparatus and method of controlling the same
US20090322858A1 (en) Picture signal processing device, television receiving apparatus and method of controlling apparatus
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
US20110310099A1 (en) Three-dimensional image processing apparatus and method of controlling the same
JP2007536825A (ja) 立体テレビジョン信号処理方法、送信システムおよびビユーア拡張装置
JP2010273333A (ja) 立体映像合成装置
JP2011120195A (ja) 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
US8941718B2 (en) 3D video processing apparatus and 3D video processing method
EP2309766A2 (en) Method and system for rendering 3D graphics based on 3D display capabilities
JP4747214B2 (ja) 映像信号処理装置、及び、映像信号処理方法
JP4733764B2 (ja) 三次元映像処理装置及び三次元映像処理方法
US20130120529A1 (en) Video signal processing device and video signal processing method
JP2011199889A (ja) 映像信号処理装置、及び、映像信号処理方法
WO2015132957A1 (ja) 映像機器及び映像処理方法
WO2011114745A1 (ja) 映像再生装置
JP2011234387A (ja) 映像信号処理装置及び映像信号処理方法
JP2011142410A (ja) 画像処理装置
JP5759728B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2011114633A1 (ja) 映像信号処理装置及び映像信号処理方法
JP5296140B2 (ja) 三次元画像処理装置及びその制御方法
KR101659623B1 (ko) 입체영상 재생 장치 및 데이터 처리 방법
JP5422597B2 (ja) 三次元映像処理装置
JP2011071662A (ja) 三次元画像処理装置及び三次元画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080009976.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10816821

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10816821

Country of ref document: EP

Kind code of ref document: A1