WO2011099314A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2011099314A1
WO2011099314A1 PCT/JP2011/050042 JP2011050042W WO2011099314A1 WO 2011099314 A1 WO2011099314 A1 WO 2011099314A1 JP 2011050042 W JP2011050042 W JP 2011050042W WO 2011099314 A1 WO2011099314 A1 WO 2011099314A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
signal
conversion
processing
subject
Prior art date
Application number
PCT/JP2011/050042
Other languages
English (en)
French (fr)
Inventor
小林 誠司
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201180008412.4A priority Critical patent/CN102742285B/zh
Priority to EP20110742063 priority patent/EP2536159A4/en
Priority to US13/576,987 priority patent/US9088774B2/en
Priority to RU2012133463/08A priority patent/RU2012133463A/ru
Priority to BR112012019677A priority patent/BR112012019677A2/pt
Publication of WO2011099314A1 publication Critical patent/WO2011099314A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program. More specifically, the present invention relates to an image processing device, an image processing method, and a program for performing parallax control of a parallax image corresponding to stereo vision (stereoscopic vision).
  • stereo vision stereo vision
  • parallax image also called a three-dimensional image or a 3D image
  • images from different viewpoints that is, an image for the left eye and an image for the right eye are required. That is, an image with parallax is generated as an image for the left eye and an image for the right eye, the image for the left eye is observed only with the left eye of the viewer (user), and the image for the right eye is viewed on the right side of the viewer (user).
  • the observer can realize a stereoscopic effect.
  • Patent Document 1 Japanese Patent Laid-Open No. 07-167633 detects a retinal image difference (disparity) corresponding to parallax from left and right images (left-eye image and right-eye image) constituting a three-dimensional image.
  • a method of adjusting the parallax by horizontally shifting the left and right images based on the detected retinal image difference (disparity) information is disclosed.
  • the method disclosed in Patent Document 1 is an image conversion method in which the entire image is horizontally shifted using an average value of disparity so as to set a parallax range that is easy for an observer to see.
  • the disparity is a value corresponding to a retinal image difference or a distance between the left-eye image and the right-eye image of the same subject on the display unit, and the disparity increases as the disparity increases.
  • the method disclosed in Patent Document 1 is an image conversion method in which an entire image is horizontally shifted using an average value of disparity to set a parallax range that is easy for an observer to see.
  • Patent Document 1 is a configuration in which the horizontal shift amount is determined using an average value of disparity, and has an advantage that conversion with a small processing amount is possible.
  • the left and right images are horizontally shifted as a whole, there is a problem in that the dynamic range of parallax (the difference in depth between the closest subject and the far subject) cannot be controlled.
  • Non-Patent Document 1 Steposcopic image generation based on depth image for 3D TV", L. Zhang and W. J. Tam, IEEE Trans. On Broadcasting, Vol. 51, No. 5, June left and right.
  • a disparity map that describes the disparity corresponding to each pixel of the image is generated from the image and the image for different viewpoints is restored using the disparity map and the original image A method is disclosed.
  • Non-Patent Document 1 can generate an image from a new viewpoint, and can generate an image in which the dynamic range of the parallax of a stereo image is also controlled.
  • it is indispensable to generate a disparity map that describes disparity (image difference) for each pixel of an image, which increases processing costs and reduces circuit size.
  • a problem that it is difficult.
  • the quality of the generated image depends on the accuracy of the disparity map, a high-resolution and high-accuracy disparity map is required. It is difficult to generate such a high-precision disparity map, which increases the circuit scale.
  • the present invention has been made in view of, for example, the above-described problem. It is unnecessary to generate a disparity map that describes disparity for each pixel of an image, or a coarse disk with a small amount of data that can be generated with a small amount of processing.
  • An object is to provide an image processing apparatus, an image processing method, and a program that can control parallax in a stereo image only by generating a parity map.
  • the first aspect of the present invention is: A left image conversion unit that inputs a left image for left-eye presentation to be applied to stereoscopic image display and generates a left image conversion image by changing the phase of the image signal of the left image in the right direction or the left direction; A right image conversion unit that inputs a right image for right eye presentation to be applied to stereoscopic image display and generates a right image conversion image by changing the phase of the image signal of the right image in the left direction or the right direction;
  • the left image conversion unit and the right image conversion unit extract a feature amount of an image signal of each input image, and perform image conversion processing using the extracted feature amount to convert the left image conversion image and the right image conversion image.
  • the image processing apparatus to be generated.
  • the left image conversion unit includes a left image differentiator that generates a differential signal of the image signal of the left image as the feature amount, a differential signal of the left image, Or a left image synthesis unit that generates a left image converted image by performing a synthesis process of adding the converted signal of the differential signal to the left image signal, and the right image conversion unit includes the right image conversion unit as the feature amount
  • the left image conversion unit includes a left image non-linear conversion unit that performs non-linear conversion processing of the differential signal of the left image
  • the left image combining unit includes The left image converted image is generated by executing a synthesizing process that adds the conversion signal generated by the left image nonlinear conversion unit to the left image signal
  • the right image conversion unit generates a differential signal of the right image.
  • a right image non-linear conversion unit that executes a non-linear conversion process, wherein the right image synthesis unit executes a synthesis process of adding a conversion signal generated by the right image non-linear conversion unit to the right image signal to perform the right image
  • a converted image is generated.
  • the left image differentiator and the right image differentiator execute a differentiation process to which a primary differentiation filter having a differential filter coefficient sequence having an inverse pattern is applied.
  • the left image differentiator and the right image differentiator perform differentiation processing according to the same differentiation mode
  • the left image synthesis unit and the right image synthesis unit Either one adds a differential signal of each image or a converted signal of the differential signal to the input image signal, and the other performs a process of subtracting from the input image signal.
  • the left image differentiator and the right image differentiator perform a differentiation process on a luminance signal of an input image signal.
  • the image processing apparatus further analyzes the arrangement of corresponding points corresponding to the same subject portion in the left image and the right image input to the image processing apparatus.
  • a parallax detection unit that generates parallax information, and the left image differentiator and the right image differentiator perform differential processing by changing a differential processing mode according to the parallax information generated by the parallax detection unit. To do.
  • the parallax detection unit has an arrangement of corresponding points corresponding to the same subject portion in the left image and the right image input to the image processing device, (A) the corresponding point of the left image is located to the left of the corresponding point of the right image; (B) the corresponding point of the left image is located to the right of the corresponding point of the right image; Disparity polarity information indicating which of the above settings (a) and (b) is generated, The left image differentiator and the right image differentiator perform a differentiation process to which a primary differential filter having a differential filter coefficient sequence having an inverse pattern is applied according to disparity polarity information generated by the parallax detection unit.
  • the parallax detection unit generates parallax information by applying the reduced image or thinned image of the left image and the right image input to the image processing device.
  • the image processing device further includes a differential processing mode of the left image differentiator and the right image differentiator, or the left image nonlinear transformation unit and the right image nonlinearity.
  • the control unit includes a control signal input unit that inputs a control signal for changing and controlling at least one of the conversion processing modes in the conversion unit.
  • the second aspect of the present invention provides An image processing method executed in an image processing apparatus, Left image conversion step in which a left image conversion unit inputs a left image for left eye presentation to be applied to stereoscopic image display, and generates a left image conversion image by changing the phase of the image signal of the left image in the right direction or the left direction.
  • Right image conversion step in which the right image conversion unit inputs a right image for right eye presentation to be applied to stereoscopic image display, and generates a right image converted image by changing the phase of the image signal of the right image in the left direction or the right direction.
  • the left image conversion step and the right image conversion step extract the feature amount of the image signal of each input image, and the left image conversion image and the right image conversion image are subjected to image conversion processing using the extracted feature amount.
  • the image processing method is a step of generating.
  • the third aspect of the present invention provides A program for executing image processing in an image processing apparatus; Left image conversion step of inputting a left image for left-eye presentation to be applied to stereoscopic image display to the left image conversion unit and generating a left image conversion image by changing the phase of the image signal of the left image in the right direction or the left direction
  • a feature amount of an image signal of each input image is extracted, and the left image conversion image and the right image conversion image are converted by image conversion processing to which the extracted feature amount is applied. It is in the program to be generated.
  • the program of the present invention is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to a general-purpose system capable of executing various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for performing parallax control between a left image and a right image applied to stereoscopic image display are provided.
  • the image processing apparatus of the present invention includes a left image conversion unit that generates a left image conversion image by changing the phase of an image signal of a left image for left eye presentation in the right direction or the left direction, and a right image for right eye presentation.
  • a right image conversion unit that generates a right image conversion image by changing the phase of the image signal in the left direction or the right direction.
  • Each image conversion unit generates, for example, a differential signal obtained by applying a differential filter coefficient of a coefficient sequence having an inverse characteristic to an input image, and adds the differential signal or a nonlinear signal of the differential signal to the original image signal.
  • a conversion signal in which the parallax is controlled is generated. Processing such as reduction or expansion of the parallax range is realized by this processing.
  • Example 1 An example of reduction processing of a parallax range set on the back side from the display surface of the display unit.
  • Example 2 An example of enlargement processing of a parallax range set on the back side from the display surface of the display unit.
  • Example 3 Control (reduction / enlargement) processing example of a parallax range set on the near side of the display surface of the display unit.
  • Example 4 Control processing example of parallax range set before and after display surface of display unit
  • Example 5 Example in which parallax control is performed using a simple disparity map.
  • Embodiment 6 Embodiment having a configuration in which a shift mode control signal can be input.
  • FIG. 1 Reduction processing example of parallax range set on the back side from the display surface of the display unit
  • the left and right images (left-eye image and right-eye image) constituting a stereoscopic image (three-dimensional image) are shifted in image (retinal image difference or the like, or between the left and right images on the display unit).
  • parallax control such as reduction processing and enlargement processing of the parallax range of the left and right images (left-eye image and right-eye image) constituting the three-dimensional image is executed without generating a disparity map.
  • An image processing apparatus is realized.
  • the image processing apparatus 100 inputs a left image (L1 image) 10 to perform image conversion, and generates a parallax adjusted left image (L2 image) 50 subjected to parallax adjustment.
  • a right image conversion unit 120 that inputs a right image (R1 image) 20 and performs image conversion to generate a parallax adjusted right image (R2 image) 60 subjected to parallax adjustment.
  • the left image (L1 image) 10 and the right image (R1 image) 20 as input images are an image for the left eye and an image for the right eye that are applied to a stereoscopic image (three-dimensional image) display. That is, an image in which parallax is set according to the subject distance, such as a captured image from a different viewpoint.
  • the left image (L1 image) 10 and the right image (R1 image) 20 may be either a moving image such as video data or a still image.
  • a set of a left image (L1 image) 10 and a right image (R1 image) 20 that are respectively applied to a three-dimensional image display are sequentially a left image conversion unit 110 and a right image conversion unit 120.
  • Each part generates a parallax adjustment left image (L2 image) 50 and a parallax adjustment right image (R2 image) 60 that have been subjected to the conversion processing of each image and subjected to parallax adjustment.
  • the left image conversion unit 110 includes a left image input unit 111 that inputs the left image (L1) 10, a left image differentiation processing unit 112 that performs differentiation processing on the left image 10, and a left nonlinear conversion that performs nonlinear conversion on the differential signal of the left image 10.
  • a left image synthesizing unit 114 that synthesizes the differential signal that has been nonlinearly transformed with the left image 10, and a left image output unit 115 that outputs a parallax adjustment left image (L2) 50 after the conversion.
  • the right image conversion unit 120 includes a right image input unit 121 that inputs the right image (R1) 20, a right image differentiation processing unit 122 that performs differentiation processing on the right image 20, and a right nonlinear conversion that performs nonlinear conversion on the differential signal of the right image 20.
  • the left image conversion unit 110 and the right image conversion unit 120 each extract a spatial feature amount of the input image signal, and apply different enhancement processing to the extracted feature amount, thereby controlling the parallax adjustment left image 50 in which the parallax is controlled.
  • the parallax adjusted right image 60 is generated and output through the left image output unit 115 and the right image output unit 125.
  • the left image output unit 115 and the right image output unit 125 are connected to, for example, a display unit that performs display processing of a three-dimensional image, and the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) with adjusted parallax. ) 60 is applied to perform a three-dimensional image display process.
  • the left image output unit 115 and the right image output unit 125 are connected to a recording unit that performs a recording process on the recording medium, and the parallax adjusted left image (L1) 50 and the parallax adjusted right image (R1) 60 are recorded on the recording medium.
  • a recording process is performed.
  • the left image input unit 111 inputs a left image (L1) 10 generated in advance to be applied to a three-dimensional image display.
  • the left image differentiator 112 extracts an image feature amount from the left image 10 input to the left image conversion unit 110. Specifically, a luminance signal is extracted from the left image 10 and a differential signal (HL) for the luminance signal is generated.
  • the left image differentiator 112 inputs a luminance signal of an image in the horizontal direction, for example, and generates a signal obtained by first differentiating the input luminance signal. For example, a linear primary differential filter with 3 taps in the horizontal direction is used for the primary differential processing.
  • FIG. 2 shows an example of differential signal generation processing in the left image differentiator 112.
  • Input signal (b) Differential signal The example of each of these signals is shown.
  • FIG. 2A is an example of the input image signal.
  • FIG. 2B is an image obtained by differentiating the input image signal of FIG. 2A, and is, for example, a luminance differential signal (HL) generated by the left image differentiator 112.
  • HL luminance differential signal
  • FIG. 2A an example in which the luminance signal is used as processing data will be described.
  • a color signal RGB or the like may be used as processing target data instead of the luminance signal.
  • the left image nonlinear transformation unit 113 nonlinearly transforms the differential signal (HL) output from the left image differentiator 112 and outputs it to the image composition unit 114 as a nonlinear transformation signal (EL).
  • FIG. 3 shows an example of a non-linear transformation process executed in the left image non-linear transformation unit 113.
  • the horizontal axis represents the luminance value of the differential signal (luminance differential signal) output from the left image differentiator 112.
  • the vertical axis represents the output luminance value after the non-linear conversion process in the left image non-linear conversion unit 113.
  • various settings can be used for the function f (x).
  • f (x) x
  • An exponential function as shown in the above equation is used.
  • is a preset coefficient, and can be set to various values.
  • the conversion function in the left image nonlinear conversion unit 113 is not limited to an exponential function, and linear conversion may be performed.
  • the processing of the left image nonlinear transformation unit 113 may be omitted.
  • the differential signal (HL) output from the left image differentiator 112 is directly input to the left image synthesis unit 114.
  • the left image synthesizing unit 114 performs non-linear conversion on the left image (L1) 10 and the spatial feature amount generated from the left image (L1) 10, that is, the differential signal (HL) of the luminance signal, or the differential signal. Then, a process of generating the parallax-adjusted left-eye image 50 is performed by applying the generated nonlinear conversion signal (EL).
  • the left image synthesizing unit 114 is a left image 10 that is an input image, and a spatial feature amount generated from the left image 10, that is, a differential signal of a luminance signal, or a non-linear generated by non-linear transformation of the differential signal A process of generating the parallax adjustment left image 50 by applying the conversion signal is performed.
  • the generated parallax-adjusted left image 50 is output via the left image output unit 115 and displayed on the display unit, for example.
  • the input signal (L1) indicates the luminance change of an arbitrary horizontal line of an arbitrary frame of video data of the left image (L1) 10 input to the image processing apparatus 100, for example.
  • One line in which a high luminance region with high luminance exists in the center is illustrated.
  • the region P from the line position (x1) to the line position (x2) there is a change in which the luminance gradually increases, and there is a high luminance part in which high level luminance is maintained in the line positions (x2) to (x3), and thereafter
  • the luminance gradually decreases.
  • the differential signal (HL) is the differential result of (a) the input signal (L1).
  • This differential signal is a signal generated in the left image differentiator 112 of the left image conversion unit 110 shown in FIG.
  • the differential filter coefficient used in the left image differentiator 112 is as shown in FIG. 1,0, -1 A differential filter having differential filter coefficients of the above series.
  • the differential signal (LH) generated by the left image differentiator 112 takes a negative value in a region P in which the luminance change of the input left image signal (L1) is positive, as shown in FIG. It takes a positive value in a region Q where the luminance change of the input left image signal (L1) is negative.
  • the composite signal (parallax adjustment left image signal (L2)) is a signal generated in the left image composition unit 114 of the left image conversion unit 110 shown in FIG.
  • the left image synthesizing unit 114 executes a synthesizing process of adding (a) the input left image signal (L1) and (b) the left image differential signal (HL) to perform a synthesis signal (parallax adjusted left image signal (L2)). ) Is generated.
  • a composite signal (parallax adjusted left image signal (L2)) shown in FIG. 4C is generated.
  • FIG. 4 illustrates an example in which the processing of the left image nonlinear transformation unit 113 illustrated in FIG. 1 is omitted, but when the processing of the left image nonlinear transformation unit 113 is added, FIG.
  • the amplitude of the differential signal is controlled (for example, suppressed).
  • the signal is a phase-shifted (shifted) signal moved to the right with respect to the input signal (L1).
  • the left image conversion unit 110 illustrated in FIG. 1 generates and outputs the parallax adjustment left image (L2) 50 shifted in the right direction for the luminance change portion of the left image (L1) 10 that is the input image. .
  • the right image conversion unit 120 has the same configuration as the left image conversion unit 110. That is, the right image conversion unit 120 includes a right image input unit 121 that inputs the right image (R1) 20, a right image differentiation processing unit 122 that performs differentiation processing on the right image 20, and a right that performs nonlinear conversion on the differential signal of the right image 20.
  • the processing in each component of the right image conversion unit 120 is the same as the processing of the corresponding component in the left image conversion unit 110.
  • the coefficients of the differential filter applied in the right image differentiation processing unit 122 that performs the differentiation processing of the right image 20 are different.
  • the coefficient of the differential filter applied in the right image differentiation processing unit 122 is a series obtained by inverting the coefficient of the differential filter applied in the left image differentiation processing unit 112 of the left image conversion unit 110, that is, a series of reverse patterns.
  • right image (R1) 20 input to right image conversion unit 120, right image differential signal (HR) generated by right image differential processing unit 122, and synthesis generated by right image synthesis unit 124.
  • HR right image differential signal
  • R2 synthesis generated by right image synthesis unit 124.
  • the signal example illustrated in FIG. 5 corresponds to FIG. 4 described above as the signal example of the left image conversion unit 110.
  • R1 Input signal
  • HR Differential signal
  • R2 Composite image signal
  • the input signal (R1) indicates a luminance change of an arbitrary horizontal line of an arbitrary frame of video data of the right image (R1) 20 input to the image processing apparatus 100, for example.
  • One line in which a high luminance region with high luminance exists in the center is illustrated.
  • the region P from the line position (x1) to the line position (x2) there is a change in which the luminance gradually increases, and there is a high luminance part in which high level luminance is maintained in the line positions (x2) to (x3), and thereafter
  • the luminance gradually decreases.
  • the differential signal (HR) is the differential result of (a) the input signal (R1).
  • This differential signal is a signal generated in the right image differentiator 122 of the right image conversion unit 120 shown in FIG.
  • the differential filter coefficients used in the right image differentiator 122 are composed of coefficient sequences obtained by inverting the differential filter coefficients used in the left image differentiator 112 as described above. That is, as shown in FIG. -1, 0, 1 A differential filter having differential filter coefficients of the above series.
  • the differential signal (HR) generated by the right image differentiator 122 takes a positive value in a region P in which the luminance change of the input right image signal (R1) is positive, and (a) It takes a negative value in a region Q where the luminance change of the input right image signal (R1) is negative.
  • the composite signal (parallax adjusted right image signal (R2)) is a signal generated by the right image composition unit 124 of the right image conversion unit 120 shown in FIG.
  • the right image synthesis unit 124 performs a synthesis process of adding (a) the input right image signal (R1) and (b) the right image differential signal (HR) to generate a synthesized signal (parallax adjusted right image signal (R2)). ) Is generated.
  • a composite signal (parallax adjusted right image signal (R2)) shown in FIG. 5C is generated.
  • the right image conversion unit 120 illustrated in FIG. 1 generates and outputs the parallax adjustment left image (R2) 50 shifted leftward for the luminance change portion of the right image (R1) 20 that is the input image. .
  • the input image signal of the image processing apparatus 100 is (L1) Input left image signal (R1) Input right image signal These are a set of image signals. These are signals for displaying a three-dimensional image, and parallax is set in advance. That is, for example, in FIG. 6, a deviation is set between the display position of the (L1) input left image signal and the display position of the (R1) input right image signal in the central portion of the luminance change portion [P]. This display position shift causes parallax.
  • the distance between the display positions of the left image and the right image on the display unit of the same subject is defined as “disparity”.
  • the disparity of the central portion of the luminance change portion [P] of the input images (L1) and (R1) is (L1) the point (p1) of the input left image signal; (R1) point (p2) of the input right image signal; The distance [V1] between these points is set.
  • the disparity of the central portion of the luminance change portion [P] is Disparity V1 of the set of input images, Disparity V2 of the output image (parallax adjustment image signal), In this way, the values are different.
  • V2 ⁇ V1 The disparity in the output image is reduced compared to the disparity in the input image. This reduction in disparity suppresses parallax. This effect is obtained as an effect due to the phase change (shift) of each image.
  • FIG. 7 shows the following figures.
  • (B) Parallax range S2 of the parallax adjustment image These two parallax ranges are shown.
  • the left image and the right image (left eye image and right eye image) constituting the three-dimensional image include subjects having various subject distances (distances from the camera).
  • Various parallaxes are set according to the subject distance.
  • FIG. 7A and 7B illustrate the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display.
  • the display screen 210 images having various parallaxes according to the subject distance are presented.
  • a retinal image difference indicating a positional deviation of images on the retina of each eye of the left eye 201 and the right eye 202 of the observer (user) or a distance on the display screen of the same subject is used.
  • [A left / right image] shown in the figure depends on the display position on the display screen 210 of the subject A in the left image for the three-dimensional image observed by the user's left eye 201 and the right eye 202 of the user. This means that the display position of the subject A on the display screen 210 in the observed right image for the three-dimensional image is the same position.
  • B left image and B right image shown in FIG. C left image and C right image The display positions of these images on the display screen 210 are different. This is because the display positions of the subjects B and C in the left image for the three-dimensional image observed by the user's left eye 201 and the subjects B and C in the right image for the three-dimensional image observed by the right eye 202 of the user. This means that the display position is different from the display position.
  • the user feels that the subjects B and C are in different positions on the display screen 210.
  • the subject B includes a straight line connecting the viewer's left eye 201 and the display position of the B left image on the display screen 210, and the viewer's right eye 202 and the display position of the B right image on the display screen 210.
  • the subject C is a straight line connecting the observer's left eye 201 and the display position of the C left image on the display screen 210, and a straight line connecting the observer's right eye 202 and the display position of the C right image on the display screen 210. It is observed to be located at a point 223 on the space that is the intersection of
  • the position of the subject felt by the observer is set according to the distance (disparity) on the display screen 210 of the left image and the right image of the same subject.
  • a description will be given using disparity indicating the subject interval between the left image and the right image on the display screen 210.
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject A that the observer feels is a position 221 on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DB, and the disparity is DB.
  • the position of the subject B that the observer feels is a position 222 that is farther from the display screen 210 than the observer.
  • the distance between the left image and the right image on the display screen 210 is DC, and the disparity is DC.
  • the position of the subject C perceived by the observer is a position 223 farther from the observer than the display screen 210 and further from the subject B.
  • the parallax range observed by the observer is a width [S1] from the point A at the closest display screen position to the point C that is the farthest in the image.
  • FIG. 7B illustrates an observation state of images converted by the image processing apparatus 100 illustrated in FIG. 1, that is, images displayed by, for example, the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) 60. Is shown.
  • the subjects A2, B2, and C2 are the same subjects as A, B, and C in FIG. 7A, but an image shift based on the phase change of the image signal is generated by the conversion process described above, and is observed by the observer.
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject A2 that the observer feels is a position 231 on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DB2, and the disparity is DB2.
  • the position of the subject B2 that the observer actually feels is a position 232 farther from the observer than the display screen 210.
  • the position of the subject B2 that the observer feels is set to a position closer to the observer (closer to the display screen 210) than the subject position B in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DC2, and the disparity is DC2.
  • the position of the subject C2 that the observer feels is a position 233 farther from the observer than the display screen 210 and further from the subject B2.
  • the position of the subject C2 that the observer feels is set to a position closer to the observer (close to the display screen 210) than the subject position C in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the disparity is reduced by moving the left image position slightly in the right direction and moving the right image position slightly in the left direction. That is, the disparity decreases from DB to DB2.
  • the parallax range S1 (A to C) of the input image before conversion changes to the parallax range S2 (A2 to C2) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range S2 (A2 to C2) of the output image (parallax adjustment image) is reduced more than the parallax range S1 (A to C) of the input image.
  • the parallax suppression effect shown in FIG. 7 is an effect brought about as a result of the image shift described above with reference to FIGS. 4 and 5. That is, the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 4B and adds the differential signal to the left image, or adds the differential signal to the left image after nonlinear processing, so that In a distant subject, the image is shifted to the right with respect to the input image. Further, the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 5B, adds the differential signal to the right image, or adds the differential signal to the right image after nonlinear processing, so that the in-focus position can be obtained. For a distant subject, the image shifts to the left with respect to the input image.
  • the disparity between the left image and the right image is smaller than the input image, and the parallax range is reduced from the parallax range S1 in FIG. 7A to the parallax range S2 in FIG. 7B. can do.
  • the disparity change is the smallest at the focused pixel position (for example, the foremost subject) in the image to be converted.
  • the disparity changes as the distance from the focal position increases.
  • the focus is on the closest point A, and the change in disparity (referred to as DA) at point A hardly occurs. It is considered that the image becomes blurred as the subject moves away from the focal point as it goes deeper (A ⁇ B ⁇ C).
  • the 1 performs processing for raising the low frequency range of the differential signal, for example, by the nonlinear conversion processing described above with reference to FIG.
  • this process for example, it is possible to increase the level of the differential signal in the out-of-focus blur area (low frequency area).
  • the process described with reference to FIG. 7 that is, the change in disparity is minimized at the focused pixel position (for example, the foremost subject), and the disparity increases as the distance from the in-focus position increases. It is possible to perform control such as increasing the change in.
  • FIGS. 8 to 11 show lines of the input signal, the differential signal, and the output signal.
  • Each line corresponds to a part of one horizontal line of the image signal.
  • the vertical axis is the luminance
  • the horizontal axis is the pixel position in the horizontal direction.
  • the input signal is a line indicating the luminance of one horizontal line constituting the left image (L1) 10 or the right image (R1) 20 input to the image processing apparatus 100.
  • the differential signal is a signal generated by differential processing in the differentiator (the left image differentiator 112 or the right image differentiator 122) of the image processing apparatus 100.
  • the output signal is a signal generated by a synthesis process in the synthesis unit (the left image synthesis unit 114 or the right image synthesis unit 124) of the image processing apparatus 100.
  • FIGS. 8 to 11 correspond to the following processing examples.
  • FIG. 8 Processing example (right shift) when applying a differentiation (left image differentiator 112 in this embodiment) processing with a differential filter coefficient [1, 0, ⁇ 1] for a high frequency region constituting an image
  • FIG. 9 Processing example when the differentiation (right image differentiator 122 in this embodiment) processing by the differential filter coefficient [ ⁇ 1, 0, 1] is applied to the high frequency region constituting the image (shift to the left)
  • FIG. 10 (a): Processing example when applying differentiation (left image differentiator 112 in this embodiment) processing by differential filter coefficients [1, 0, ⁇ 1] for a low frequency region constituting an image ( Right shift) (3b)
  • FIG. 8 Processing example (right shift) when applying a differentiation (left image differentiator 112 in this embodiment) processing with a differential filter coefficient [1, 0, ⁇ 1] for a high frequency region constituting an image
  • FIG. 10 (a): Processing example when applying differentiation (left image differentiator 112 in this embodiment) processing by differential filter
  • FIG. 10B Processing example in the case of applying the differentiation (right image differentiator 122 in this embodiment) processing by the differential filter coefficient [ ⁇ 1, 0, 1] for the low frequency region constituting the image ( Left shift) (4a)
  • FIG. 11 (a): differential (left image differentiator 112 in this embodiment) processing by differential filter coefficients [1, 0, ⁇ 1] for the low frequency region constituting the image, and further non-linear conversion for the differential signal Example of processing when amplification is performed by (shift to the right) (4b) FIG.
  • FIG. 8 shows a processing example when the differentiation (left image differentiator 112 in the present embodiment) processing by the differential filter coefficient [1, 0, ⁇ 1] for the high frequency region constituting the image is applied.
  • a differential signal (b) is generated by differential processing on the input signal (a)
  • an output signal (c) is generated by combining the input signal and the differential signal. As can be seen from the figure, the output signal (c) shifts to the right with respect to the input signal (a).
  • FIG. 9 shows a processing example when the differentiation (right image differentiator 122 in this embodiment) processing by the differential filter coefficient [ ⁇ 1, 0, 1] is applied to the high frequency region constituting the image.
  • a differential signal (b) is generated by differential processing on the input signal (a)
  • an output signal (c) is generated by combining the input signal and the differential signal. As can be seen from the figure, the output signal (c) shifts to the left with respect to the input signal (a).
  • FIG. 10A shows a processing example in the case of applying the differentiation (left image differentiator 112 in this embodiment) processing by the differential filter coefficient [1, 0, ⁇ 1] to the low frequency region constituting the image. Yes. As can be seen from the figure, the output signal (c) shifts to the right with respect to the input signal (a).
  • FIG. 10B shows a processing example in the case of applying the differentiation (right image differentiator 122 in this embodiment) processing by the differential filter coefficient [ ⁇ 1, 0, 1] for the low frequency region constituting the image. Yes. As can be seen from the figure, the output signal (c) shifts to the left with respect to the input signal (a).
  • FIG. 11A shows a differential (left image differentiator 112 in this embodiment) processing by differential filter coefficients [1, 0, ⁇ 1] for low frequency regions constituting an image, and further amplification by non-linear conversion for the differential signal.
  • An example of processing when the above is performed is shown.
  • the output signal (c) shifts to the right with respect to the input signal (a).
  • FIG. 11B shows a differential (right image differentiator 122 in this embodiment) processing by differential filter coefficients [ ⁇ 1, 0, 1] with respect to a low frequency region constituting an image, and further amplification by non-linear conversion for the differential signal.
  • the output signal (c) shifts to the left with respect to the input signal (a).
  • the process which raises the low range of a differential signal is performed, for example by the nonlinear transformation process previously demonstrated in FIG.
  • this processing for example, it is possible to increase the level of the differential signal in the low-frequency region that is not in focus, and for example, it is possible to increase the shift amount (phase change amount) in the low-frequency region. is there. That is, the control of increasing or decreasing the difference in shift amount between the low frequency region and the high frequency region is realized according to the setting of the conversion processing mode of the nonlinear conversion units 113 and 123.
  • Example 2 Example of enlargement process of parallax range set on the back side from the display surface of the display unit
  • the image processing apparatus according to the second embodiment has the same configuration as the image processing apparatus 100 illustrated in FIG. 1 described in the first embodiment.
  • the differential filter applied by the left image differentiator 112 of the left image conversion unit 110 and the differential filter applied by the right image differentiator 122 of the right image conversion unit 120 are replaced with those in the first embodiment. .
  • the differential filter By changing the differential filter, the image shift directions of the left image and the right image are reversed.
  • the parallax range reduction process is performed in the first embodiment, but the process of enlarging the parallax range is performed in the present embodiment.
  • FIG. 12 is a view similar to FIG. 6 described in the first embodiment.
  • (R1) Input right image signal (R2) Output right image signal (parallax adjusted left image signal) These signal patterns are shown.
  • the input image signal of the image processing apparatus 100 is (L1) Input left image signal (R1) Input right image signal These are a set of image signals. These are signals for displaying a three-dimensional image, and parallax is set in advance. That is, for example, in FIG. 12, a shift (disparity) is set between the display position of the (L1) input left image signal and the display position of the (R1) input right image signal in the central portion of the luminance change portion [P]. Yes. This display position shift causes parallax.
  • the disparity of the central portion of the luminance change portion [P] of the input images (L1) and (R1) is (L1) the point (p1) of the input left image signal; (R1) point (p2) of the input right image signal; The distance [V1] between these points is set.
  • the differential filter applied by the left image differentiator 112 of the left image conversion unit 110 is as shown in FIG. -1, 0, 1 A differential filter having differential filter coefficients of the above series. That is, in the first embodiment, the differential filter is suitable for the right image differentiator 122 of the right image conversion unit 120.
  • This differential signal is the same signal as the differential signal described with reference to FIG. 5B in the first embodiment.
  • the result of combining (adding) the differential signal and the original input signal is the output shown in FIG. 12 (L2) in which the luminance change portions of P and Q in the input signal (L1) are shifted leftward. This is the left image signal (parallax adjusted left image (L2)).
  • the differential filter applied by the right image differentiator 122 of the right image conversion unit 120 is as shown in FIG. 1,0, -1 A differential filter having differential filter coefficients of the above series. That is, in the above-described first embodiment, the differential filter is suitable for the left image differentiator 112 of the left image conversion unit 110.
  • This differential signal is the same signal as the differential signal described in the first embodiment with reference to FIG.
  • the result of the synthesis (addition) processing of the differential signal and the original input signal is the output shown in FIG. 12 (R2) in which the luminance change portions of P and Q of the input signal in FIG. 12 (R1) are shifted to the right.
  • This is the right image signal (parallax adjusted left image (R2)). Note that the nonlinear conversion process is omitted from the description, but the shift direction is similarly set when the nonlinear conversion process is performed.
  • the shift direction of the left image and the right image is set in the reverse direction by performing the process of replacing the differential filters applied in the differentiators for the left and right images of the first embodiment. .
  • the disparity of the central portion of the luminance change portion [P] is Disparity V1 of the set of input images, Disparity V3 of the output image (parallax adjustment image signal), In this way, the values are different.
  • V1 ⁇ V3 The disparity V3 in the output image is increased compared to the disparity V1 in the input image.
  • the disparity is amplified by the increase in disparity. This effect is obtained as an effect by shifting each image.
  • FIG. 13 shows the following figures.
  • (B) Parallax range S3 of the parallax adjustment image 13A and 13B show the left eye 201 and right eye 202 of the observer (user) and the display unit that is executing the three-dimensional image display, as in FIG. 7 of the first embodiment.
  • a display screen 210 is shown. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • FIG. 13A is a diagram corresponding to the input image before parallax adjustment, and is the same diagram as FIG.
  • the observation position of the subject that the user feels is that A is on the display, B is behind the display (far from the observer), and C is further from B.
  • the parallax range observed by the observer is a width [S1] from point A in the foremost display screen position to point C as the farthest subject observation position.
  • FIG. 13B shows an image converted by the image processing apparatus 100 shown in FIG. 1 according to the second embodiment, that is, a parallax adjustment left image (L2) 50 and a parallax adjustment right image (R2) 60, for example.
  • the observation state of the image to be displayed is shown.
  • the subjects A3, B3, and C3 are the same subjects as A, B, and C in FIG. 13A, but the subject position observed by the observer changes because the image shift is executed by the conversion process described above. .
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject A3 that the observer feels is a position 241 on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DB3, and the disparity is DB3.
  • the position of the subject B3 that the observer actually feels is a position 242 farther from the observer than the display screen 210.
  • the position of the subject B3 that the observer actually feels is set to a position farther from the observer (and farther from the display screen 210) than the subject position B in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DC3, and the disparity is DC3.
  • the position of the subject C3 felt by the observer is a position 243 farther from the observer than the display screen 210 and further from the subject B2.
  • the position of the subject C3 that the observer feels is set to a position farther from the observer (also far from the display screen 210) than the subject position C in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • an image shift in the direction opposite to that in the first embodiment is executed. That is, the disparity increases at the point B by moving the left image position slightly in the left direction and moving the right image position slightly in the right direction. That is, the disparity increases from DB to DB3.
  • the parallax range S1 (A to C) of the input image before conversion changes to the parallax range S3 (A3 to C3) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range S3 (A3 to C3) of the output image (parallax adjustment image) is expanded from the parallax range S1 (A to C) of the input image.
  • the parallax expansion effect described with reference to FIG. 13 is an effect brought about as a result of the image shift described above with reference to FIG. That is, the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 12 (L2), and adds the differential signal to the left image, or adds the differential signal to the left image after nonlinear processing, so that For a distant subject, the image shifts to the left with respect to the input image. Further, the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 12 (R2), and adds the differential signal to the right image, or adds the differential signal to the right image after nonlinear processing, so that from the in-focus position.
  • the image is shifted to the right with respect to the input image.
  • the disparity between the left image and the right image is larger than the input image, and the disparity range is expanded from the disparity range S1 in FIG. 13A to the disparity range S3 in FIG. 13B. can do.
  • the change in disparity is the smallest at the focused pixel position (for example, the foremost subject) in the image to be converted.
  • the disparity changes as the distance from the focal position increases.
  • FIG. 13 when it is considered that the focus is at point A, the foreground, and subject blur increases as it goes further, disparity hardly changes at point A.
  • Example 3 Control (reduction / enlargement) processing example of parallax range set in front of display surface of display unit]
  • the parallax setting of the image for three-dimensional display input to the image processing apparatus that is, the left image (L1) 10 and the right image (R1) 20 is far from the display surface of the display unit.
  • a processing example in the case of an image set on the side, that is, a position far from the observer has been described. That is, In Example 1, the reduction of the parallax range set on the back side from the display surface of the display unit, In Example 2, the enlargement of the parallax range set on the back side from the display surface of the display unit, Explained these processing examples,
  • the image applied to the display of the three-dimensional image is not limited to the image described in the first and second embodiments, and an image in which parallax is set so as to jump out to the near side of the display surface of the display unit, that is, a position close to the observer.
  • the input image for performing parallax control is a three-dimensional image in which the observation position of the subject is set on the front side (observer direction) from the display surface.
  • Example 3 (a) the reduction of the parallax range set before the display surface of the display unit
  • Example 3 (b) the enlargement of the parallax range set in front of the display surface of the display unit
  • FIG. 14 shows the following figures.
  • FIGS. 14A and 14B further show the left eye 201 and right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • FIG. 14A is a diagram corresponding to an input image before parallax adjustment.
  • the size of each disparity is DG>DF> DE ⁇ 0
  • the relationship is as described above.
  • the observation position of the subject that the user feels is that E is on the display, F is in front of the display (closer to the observer), and G is closer to the observer than F.
  • the parallax range observed by the observer is a width [S1] from point E at the farthest display screen position to point G as the closest subject observation position.
  • the subject represents a straight line connecting the left eye 201 of the observer and the display position of the left image on the display screen 210, and the display position of the right image 202 of the observer and the right image on the display screen 210. It is observed to be located at a point on the space that is the intersection with the connecting straight line.
  • the image of each subject of the left image and the right image (E to G right image and E to G left image) so that the intersection point is set in front of the display screen 210 (direction closer to the observer). Is set.
  • a three-dimensional image having such a setting as shown in FIG. 14A, the observer will feel each subject at a position closer to the display screen 210.
  • the parallax range of the input image shown in FIG. 14A is the width [S1] from the point E at the farthest display screen position to the point G as the nearest subject observation position.
  • FIG. 14B illustrates an image converted by the image processing apparatus 100 illustrated in FIG. 1 according to the third embodiment, that is, for example, the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects E4, F4, and G4 are the same subjects as E, F, and G in FIG. 14A, but the subject position observed by the observer changes because the image shift is executed by the conversion process described above. .
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject E4 that the observer feels is the position on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DF4, and the disparity is DF4.
  • the position of the subject F4 felt by the observer is the position F4 on the near side from the display screen 210, that is, the observer side.
  • the position of the subject F4 that the observer feels is set to a position farther from the observer (closer to the display screen 210) than the subject position F in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DG4, and the disparity is DG4.
  • the position of the subject G4 felt by the observer is the position G4 on the near side from the display screen 210, that is, the position on the observer side.
  • the position of the subject G4 felt by the observer is set to a position farther from the observer (closer to the display screen 210) than the subject position G in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the image shift in the same direction as in the second embodiment is executed by the image conversion process of the image processing apparatus 100. Specifically, an image shift process similar to that described with reference to FIG. 12 is executed. That is, For the left image (L1) 10, a shift process in the left direction, For the right image (R1) 20, a shift process in the right direction, These image shift processes are executed.
  • the G position of the left image moves largely to the left to become the left image position of FIG. 14 (b) G4, and the right image.
  • the G position (FIG. 14 (a) G right image) greatly moves to the right and becomes the G4 right image position in FIG. 14 (b). This movement further reduces disparity. Disparity decreases from DG to DG4.
  • (DG-DG4)> (DF-DF4) Thus, the disparity reduction width is larger for the subject in the foreground (far from the display screen 210).
  • the parallax range S1 (E to G) of the input image before conversion changes to the parallax range S4 (E4 to G4) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range S4 (E4 to G4) of the output image (parallax adjustment image) is reduced more than the parallax range S1 (E to G) of the input image.
  • the parallax range reduction effect described with reference to FIG. 14 is an effect brought about as a result of image shift by the image processing apparatus 100.
  • the differential filter coefficient shown in FIG. [-1, 0, 1] Differentiation processing using this differential filter coefficient is executed, and the left image is shifted leftward as shown in FIGS. 12 (L1) and (L2).
  • the differential filter coefficient shown in FIG. [1, 0, -1] Differentiation processing using this differential filter coefficient is executed, and the right image is shifted to the right as shown in FIGS. 12 (R1) and (R2).
  • the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 12 (L2), and adds the differential signal or the non-linear processing result of the differential signal to the left image, thereby combining the input image. As a result, a converted image in which the image is shifted in the left direction is generated. Further, the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 12 (R2), and adds the differential signal or the differential signal to the right image after the non-linear processing to the right with respect to the input image. A converted image in which the images are shifted is generated. As a result, the disparity between the left image and the right image is smaller than the input image, and the disparity range is reduced from the disparity range S1 in FIG. 14A to the disparity range S4 in FIG. 14B. can do.
  • the change in disparity is the smallest at the focused pixel position (subject E) in the image to be converted, and the disparity change as the distance from the focus position increases (E ⁇ F ⁇ G). Is set to increase.
  • FIG. 15 shows the following figures.
  • FIGS. 15A and 15B further show the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • FIG. 15A is a diagram corresponding to the input image before parallax adjustment, and is the same as the diagram shown in FIG.
  • the size of each disparity is DG>DF> DE ⁇ 0
  • the relationship is as described above.
  • the observation position of the subject that the user feels is that E is on the display, F is in front of the display (closer to the observer), and G is closer to the observer than F.
  • the settings shown in FIG. 15A are the same as those shown in FIG. 14A described above, and the observer feels each subject at a position closer to the display screen 210.
  • the parallax range of the input image shown in FIG. 15A is a width [S1] from the point E at the farthest display screen position to the point G as the closest subject observation position.
  • FIG. 15B shows an image converted by the image processing apparatus 100 shown in FIG. 1 according to the third embodiment (b), that is, for example, a parallax adjustment left image (L2) 50 and a parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects E5, F5, and G5 are the same subjects as E, F, and G in FIG. 15A, but the subject position observed by the observer changes because the image shift is executed by the conversion process described above. .
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject E5 that the observer feels is the position on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DF5
  • the disparity is DF5.
  • the position of the subject F5 that the observer actually feels is the position F5 on the near side from the display screen 210, that is, the observer side.
  • the position of the subject F5 felt by the observer is set to a position closer to the observer (far from the display screen 210) than the object position F in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DG5
  • the disparity is DG5.
  • the position of the subject G5 that the observer actually feels is the position G5 on the near side from the display screen 210, that is, the position on the observer side.
  • the position of the subject G5 felt by the observer is set to a position closer to the observer (far from the display screen 210) than the subject position G in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the image shift in the same direction as that of the first embodiment is executed in the third embodiment (b). Specifically, the same image shift process as described with reference to FIG. 6 is executed. That is, For the left image (L1) 10, a shift process in the right direction, For the right image (R1) 20, a shift process in the left direction, These image shift processes are executed.
  • the G position of the left image moves greatly to the right to become the left image position of FIG. 15 (b) G5, and the right image.
  • the G position (FIG. 15 (a) G right image) greatly moves to the left and becomes the G5 right image position in FIG. 15 (b).
  • the disparity enlargement width is larger for the subject in the foreground (far from the display screen 210).
  • the parallax range S1 (E to G) of the input image before conversion is changed to the parallax range S5 (E5 to G5) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range S5 (E5 to G5) of the output image (parallax adjustment image) is expanded from the parallax range S1 (E to G) of the input image.
  • the parallax range reduction effect described with reference to FIG. 15 is an effect brought about as a result of image shift by the image processing apparatus 100.
  • differentiation processing similar to that of the first embodiment described above is performed, and image shift processing similar to that described with reference to FIG. 6 is performed. That is, For the left image (L1) 10, a shift process in the left direction, For the right image (R1) 20, a shift process in the right direction, These image shift processes are executed.
  • the differential filter coefficient shown in FIG. 6 (L2) that is, [1, 0, -1] Differentiation processing using this differential filter coefficient is executed, and the left image is shifted to the right as shown in FIGS. 6 (L1) and (L2).
  • the differential filter coefficient shown in FIG. 6 (R2) that is, [-1, 0, 1] Differentiation processing using this differential filter coefficient is executed, and the right image is shifted leftward as shown in FIGS. 6 (R1) and (R2).
  • the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 6 (L2), and adds the differentiated signal or the non-linear processing result of the differentiated signal to the left image by the synthesis process. As a result, a converted image in which the image is shifted to the right is generated. Further, the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 6 (R2), and the left side of the input image is obtained by the synthesis process of adding the differential signal or the differential signal to the right image after nonlinear processing. A converted image in which the images are shifted is generated. As a result, the disparity between the left image and the right image is larger than the input image, and the disparity range is expanded from the disparity range S1 in FIG. 15A to the disparity range S5 in FIG. 15B. can do.
  • the change in disparity is the smallest at the focused pixel position (subject E) in the image to be converted, and the disparity change as the distance from the focus position increases (E ⁇ F ⁇ G). Is set to increase.
  • the fourth embodiment is realized by the same configuration as the image processing apparatus 100 of FIG. 1 described in the first embodiment.
  • FIG. 16 Processing Example of Shifting Left Image to Right and Shifting Right Image to Left
  • the left image (L1) 10 input to the image processing apparatus 100 is shifted to the right.
  • An example of processing for shifting the right image (R1) 20 to the left will be described.
  • processing corresponding to the processing illustrated in FIG. 6 described in the first embodiment is executed. That is, For the left image (L1) 10, a shift process in the right direction, For the right image (R1) 20, a shift process in the left direction, These image shift processes are executed.
  • the left image differentiator 112 uses the differential filter coefficient shown in FIG. [1, 0, -1] Differentiation processing using this differential filter coefficient is executed, and the left image is shifted to the right as shown in FIGS. 6 (L1) and (L2).
  • the differential filter coefficient shown in FIG. 6 (R2) that is, [-1, 0, 1] Differentiation processing using this differential filter coefficient is executed, and the right image is shifted leftward as shown in FIGS. 6 (R1) and (R2).
  • FIG. 16 shows the following figures.
  • A The parallax range T1 of the input image
  • B Parallax range T5 of the parallax adjustment image
  • FIGS. 16A and 16B further show the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • an input image is an image in which the observer (user) is set to feel the position of the subject before and after the display screen.
  • the subject represents a straight line connecting the left eye 201 of the observer and the display position of the left image on the display screen 210, and the display position of the right image 202 of the observer and the right image on the display screen 210. It is observed to be located at a point on the space that is the intersection with the connecting straight line.
  • the images of the subjects of the left image and the right image are set so that the intersections are set before and after the display screen 210.
  • Subject H is observed on display screen 210,
  • the subject I is observed in front of the display screen 210 (observer side),
  • This is an input image in which the subject J is set to be observed on the back side of the display screen 210.
  • FIG. 16A is a diagram corresponding to an input image before parallax adjustment.
  • the disparity of the subject I is a setting in which the image of the subject I is observed in front of the display screen 210
  • the disparity of the subject J is a setting in which the image of the subject J is observed in the back of the display screen 210. It is.
  • the image of the subject I in the left image (I left image) is the right side of the display screen 210
  • the image of the subject I in the right image (I right image) is set on the left side of the display screen 210.
  • the image of the subject J in the left image (J left image) is the left side of the display screen 210
  • the image of the subject J in the right image (J right image) is set on the right side of the display screen 210.
  • FIG. 16B illustrates an image converted by the image processing apparatus 100 illustrated in FIG. 1 according to the fourth embodiment, that is, for example, the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects H6, I6, and J6 are the same subjects as H, I, and J in FIG. 16A, but the subject position observed by the observer changes because the image shift is executed by the conversion process described above. .
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject H6 that the observer feels is the position on the display screen 210.
  • DI6 the distance between the left image and the right image on the display screen 210
  • DI6 the disparity
  • the position of the subject I6 that the observer feels is the position on the near side from the display screen 210, that is, the position I6 on the observer side.
  • the position of the subject I6 that the observer feels is set to a position closer to the observer (far from the display screen 210) than the subject position I in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DJ6, and the disparity is DJ6.
  • the position of the subject J6 that the observer feels is the back of the display screen 210, that is, the position J6 farthest from the observer.
  • the position of the subject J6 felt by the observer is set to a position closer to the observer (close to the display screen 210) than the subject position J in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the image shift in the same direction as in the first embodiment is executed by the image conversion process of the image processing apparatus 100. Specifically, the same image shift process as described with reference to FIG. 6 is executed. That is, For the left image (L1) 10, a shift process in the right direction, For the right image (R1) 20, a shift process in the left direction, These image shift processes are executed.
  • the I position (FIG. 16 (a) I left image) of the left image moves to the right and becomes the left image position of FIG. 16 (b) I6, and the I position (FIG. 16 (a) I right image) of the right image is left. It moves to a direction and becomes the I6 right image position of FIG.16 (b).
  • the J position of the left image moves to the right and becomes the left image position of FIG. 16 (b) J6, and the J position of the right image (FIG. 16 (a) J right image) is the left. It moves to a direction and becomes a J6 right image position of FIG.16 (b).
  • the disparity is reduced. That is, the disparity decreases from DJ to DJ6.
  • Example 4 (a) In the subject I observed in front of the display screen 210, the disparity is greatly changed, and the object I is observed in front. On the other hand, the disparity of the subject J observed in the back of the display screen 210 is changed to be small, and in this case, it is also observed before the conversion.
  • the parallax range T1 (I to J) of the input image before conversion changes to the parallax range T6 (I6 to J6) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range T6 (I6 to J6) of the output image (parallax adjustment image) is controlled so that the parallax range T1 (I to J) of the input image as a whole approaches the viewer side.
  • the parallax range movement effect described with reference to FIG. 16 is an effect brought about as a result of image shift by the image processing apparatus 100.
  • the differentiation process similar to that of the first embodiment described above is performed, and the same image shift process as described with reference to FIG. 6 is performed. That is, For the left image (L1) 10, a shift process in the right direction, For the right image (R1) 20, a shift process in the left direction, These image shift processes are executed.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 6 (L2), and adds the differentiated signal or the non-linear processing result of the differentiated signal to the left image by the synthesis process. As a result, a converted image in which the image is shifted to the right is generated. Further, the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 6 (R2), and the left side of the input image is obtained by the synthesis process of adding the differential signal or the differential signal to the right image after nonlinear processing. A converted image in which the images are shifted is generated. As a result, the disparity between the left image and the right image is changed as shown in FIGS. 16A and 16B, and the parallax range T6 shown in FIG. 16B is changed from the parallax range T1 in FIG. Thus, the parallax range as a whole can be made closer to the viewer side.
  • the disparity change is the smallest at the focused pixel position (subject E) in the image to be converted, and the disparity change increases as the distance from the in-focus position increases.
  • FIG. 17 Processing Example of Shifting Left Image Leftward and Shifting Right Image Rightward
  • FIG. 17 An example of processing for shifting the right image (R1) 20 in the right direction will be described.
  • processing corresponding to the processing illustrated in FIG. 12 described in the second embodiment is executed. That is, For the left image (L1) 10, a shift process in the left direction, For the right image (R1) 20, a shift process in the right direction, These image shift processes are executed.
  • the differential filter coefficient shown in FIG. [-1, 0, 1] Differentiation processing using this differential filter coefficient is executed, and the left image is shifted leftward as shown in FIGS. 12 (L1) and (L2).
  • the differential filter coefficient shown in FIG. [1, 0, -1] Differentiation processing using this differential filter coefficient is executed, and the right image is shifted to the right as shown in FIGS. 6 (R1) and (R2).
  • FIG. 17 shows the following figures.
  • FIGS. 17A and 17B further show the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • an input image is an image in which the observer (user) is set to feel the position of the subject before and after the display screen.
  • FIG. 17A is a diagram illustrating the parallax range T1 of the input image similar to that of FIG. 16A described above.
  • Subject H is observed on display screen 210, The subject I is observed in front of the display screen 210 (observer side), This is an input image in which the subject J is set to be observed on the back side of the display screen 210.
  • the disparity of the subject I is a setting in which the image of the subject I is observed in front of the display screen 210
  • the disparity of the subject J is a setting in which the image of the subject J is observed in the back of the display screen 210. It is.
  • FIG. 17B illustrates an image converted by the image processing apparatus 100 illustrated in FIG. 1 according to the fourth embodiment, that is, for example, a parallax adjustment left image (L2) 50 and a parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects H7, I7, and J7 are the same subjects as H, I, and J in FIG. 17A, but the subject position observed by the observer changes because the image shift is executed by the conversion process described above. .
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject H7 that the observer feels is the position on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DI7
  • the disparity is DI7.
  • the position of the subject I7 that the observer feels is the position I7 on the near side from the display screen 210, that is, the position on the observer side.
  • the position of the subject I7 that the observer feels is set to a position farther from the observer (closer to the display screen 210) than the subject position I in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the distance between the left image and the right image on the display screen 210 is DJ7, and the disparity is DJ7.
  • the position of the subject J7 that the observer feels is the back of the display screen 210, that is, the position J7 farthest from the observer.
  • the position of the subject J7 that the observer actually feels is set to a position farther from the observer (also far from the display screen 210) than the subject position J in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the image shift in the same direction as that of the second embodiment is executed by the image conversion process of the image processing apparatus 100. Specifically, an image shift process similar to that described with reference to FIG. 12 is executed. That is, For the left image (L1) 10, a shift process in the left direction, For the right image (R1) 20, a shift process in the right direction, These image shift processes are executed.
  • the I position of the left image moves to the left and becomes the left image position of FIG. 17 (b) I7
  • the I position of the right image (FIG. 17 (a) I right image) is the right. It moves in the direction and becomes the I7 right image position in FIG. Thereby, the disparity is reduced. That is, the disparity decreases from DI to DI7.
  • the J position of the left image moves to the left and becomes the left image position of FIG. 17 (b) J7
  • the J position of the right image (FIG. 17 (a) J right image) is the right. It moves to a direction and becomes a J7 right image position of FIG.17 (b).
  • Example 4 (b) In the subject I observed in front of the display screen 210, the disparity is changed to be small, and is observed at a position far from the observer, that is, a position close to the display screen 210. On the other hand, the disparity is greatly changed in the subject J observed in the back of the display screen 210, and in this case, it is observed at a position farther from the observer than before the conversion.
  • the parallax range T1 (I to J) of the input image before conversion changes to the parallax range T7 (I7 to J7) of the output image (parallax adjustment image) after conversion. That is, in this example, the parallax range T7 (I7 to J7) of the output image (parallax adjustment image) is controlled so as to keep the parallax range T1 (I to J) of the input image as a whole away from the observer.
  • the parallax range movement effect described with reference to FIG. 17 is an effect brought about as a result of image shift by the image processing apparatus 100.
  • the differentiation process similar to that of the second embodiment described above is performed, and the same image shift process as described with reference to FIG. 12 is performed. That is, For the left image (L1) 10, a shift process in the left direction, For the right image (R1) 20, a shift process in the right direction, These image shift processes are executed.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients shown in FIG. 12 (L2), and adds the differentiated signal or the non-linear processing result of the differentiated signal to the left image by the combining process. As a result, a converted image in which the image is shifted in the left direction is generated.
  • the right image differentiation processing unit 123 performs differentiation using the coefficients shown in FIG. 12 (R2), and adds the differential signal or the differential signal to the right image after the non-linear processing to the right with respect to the input image. A converted image in which the images are shifted is generated.
  • the disparity between the left image and the right image is changed as shown in FIGS. 17A and 17B, and the parallax range T7 shown in FIG. 17B is changed from the parallax range T1 in FIG.
  • the parallax range as a whole can be further away from the observer.
  • the disparity change is the smallest at the focused pixel position (subject E) in the image to be converted, and the disparity change increases as the distance from the in-focus position increases.
  • the configurations of the first to fourth embodiments described above are processes for generating a disparity map describing disparity (image difference) corresponding to each pixel of the left image and the right image, and using the disparity map. Since processing is unnecessary, processing cost is low, and the circuit can be easily downsized. Next, an embodiment using a simple disparity map will be described.
  • Example 5 Example in which parallax control is performed using a simple disparity map
  • a configuration and a processing example of an image processing apparatus that performs parallax control using a simple disparity map will be described.
  • the embodiment described below realizes an image conversion device capable of more accurately controlling the parallax range by generating a simple disparity map.
  • FIG. 18 shows a configuration example of the image processing apparatus 300 according to the fifth embodiment.
  • An image processing apparatus 300 illustrated in FIG. 18 has a configuration in which a parallax detection unit 301 is added to the image processing apparatus 100 illustrated in FIG. 1 described above as the image processing apparatus of the first embodiment.
  • Other configurations are the same as those shown in FIG.
  • the image processing apparatus 300 receives the left image (L1 image) 10 and performs image conversion to generate a parallax adjusted left image (L2 image) 50 that has been subjected to parallax adjustment.
  • 110 and the right image (R1 image) 20 are input and image conversion is performed to generate a parallax adjusted right image (R2 image) 60 that has been subjected to parallax adjustment.
  • the left image conversion unit 110 includes a left image input unit 111 that inputs the left image (L1) 10, a left image differentiation processing unit 112 that performs differentiation processing on the left image 10, and a left nonlinear conversion that performs nonlinear conversion on the differential signal of the left image 10.
  • a left image synthesizing unit 114 that synthesizes the differential signal that has been nonlinearly transformed with the left image 10, and a left image output unit 115 that outputs a parallax adjustment left image (L2) 50 after the conversion.
  • the right image conversion unit 120 includes a right image input unit 121 that inputs the right image (R1) 20, a right image differentiation processing unit 122 that performs differentiation processing on the right image 20, and a right nonlinear conversion that performs nonlinear conversion on the differential signal of the right image 20.
  • the left image conversion unit 110 and the right image conversion unit 120 execute processing similar to the processing described in the first to fourth embodiments.
  • the parallax detection unit 301 receives the left image luminance signal output from the left image input unit 111 of the left image conversion unit 110 and the right image luminance signal output from the right image input unit 121 of the right image conversion unit 120, A corresponding pixel position in the horizontal direction that is determined to indicate the same subject in the left image and the right image is detected.
  • the parallax detection unit 301 in the present embodiment acquires the following determination result regarding the positional relationship between the corresponding pixel positions (hereinafter referred to as corresponding points) of the left image and the right image.
  • corresponding points The corresponding point of the left image is located to the left of the corresponding point of the right image.
  • the corresponding point of the left image is located to the right of the corresponding point of the right image. It is determined which of these two patterns.
  • (A) The corresponding point of the left image is located to the left of the corresponding point of the right image.
  • the correspondence between the left image and the right image of the subject J will be described with reference to FIG. 17 (a) described in the fourth embodiment. That is, the corresponding point of the left image (J left image) is located to the left of the corresponding point of the right image (J right image).
  • the position where the subject is observed is on the back side (a position far from the observer) from the display screen.
  • (B) The corresponding point of the left image is located to the right of the corresponding point of the right image.
  • the correspondence between the left image and the right image of the subject I will be described with reference to FIG. 17 (a) described in the fourth embodiment. That is, the corresponding point of the left image (I left image) is located to the right of the corresponding point of the right image (I right image).
  • the position where the subject is observed is on the near side (position close to the observer) from the display screen.
  • (A) The corresponding point of the left image is located to the left of the corresponding point of the right image.
  • the disparity in this case is assumed to be a positive disparity.
  • (B) The corresponding point of the left image is located to the right of the corresponding point of the right image.
  • the disparity in this case is a negative disparity.
  • positive disparity the observed position of the subject is on the back side (a position far from the observer) from the display screen.
  • negative disparity the observed position of the subject is on the near side (position close to the observer) from the display screen.
  • a general disparity map is set to hold an accurate pixel shift amount (number of pixels) corresponding to each pixel of the left image and the right image.
  • the parallax detection unit 301 includes each pixel or a plurality of pixels. For the block composed of pixels, only the above-described positive / negative (polarity) of the disparity is detected.
  • the parallax detection unit 301 generates a coarse disparity map including disparity polarity information corresponding to the pixels or blocks, and the left image differentiation processing unit 112 of the left image conversion unit 110 and the right image differentiation of the right image conversion unit 120. Input to the processing unit 122.
  • the parallax detection processing executed by the parallax detection unit 301 in the image processing apparatus 300 according to the present embodiment does not require complicated parallax detection processing for obtaining high numerical accuracy of parallax.
  • the disparity map is used, for example, for controlling the filter coefficient of the differentiation processing unit.
  • the parallax detection process may be configured to use a reduced image. Or it is good also as a structure which detects parallax information only by the point which thinned the input image spatially. With such a configuration, the processing cost can be reduced.
  • the left image differentiation processing unit 112 and the right image differentiation processing unit 122 each switch the mode of differentiation processing according to the polarity at the target pixel position of the input disparity map.
  • Example 5 (a) Example of reducing the parallax range
  • Example 5 (b) Example of expanding the parallax range
  • Example 5 Example of reducing the parallax range
  • FIG. 19 shows the following figures as described in the previous embodiments.
  • A The parallax range U1 of the input image
  • B The parallax range U8 of the parallax adjustment image
  • FIGS. 19A and 19B further show the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • an input image is an image in which the observer (user) is set to feel the position of the subject before and after the display screen.
  • FIG. 19A the subject is observed before and after the display screen 210 as in FIGS. 16A and 17A described in the fourth embodiment. That is, Subject K is observed on display screen 210, The subject L is observed in front of the display screen 210 (observer side), This is an input image in which the subject M is set to be observed on the back side of the display screen 210.
  • the disparity of the subject L has a negative polarity, and the image of the subject L is set to be observed in front of the display screen 210.
  • the disparity of the subject M has a positive polarity, and the image of the subject M is This setting is observed in the back of the display screen 210.
  • the parallax range is the parallax range [U1] corresponding to the observation positions of the subjects L to M.
  • FIG. 19B shows an image converted by the image processing apparatus 300 shown in FIG. 18 according to the fifth embodiment, that is, for example, the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects K8, L8, and M8 are the same subjects as K, L, and M in FIG. 19A, but the image conversion process with the image shift according to the disparity polarity described above is performed, so that the observer performs it.
  • the observed subject position changes.
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject K8 that the observer feels is the position on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 of the subject L8 is DL8, and the disparity is DL8.
  • the position of the subject L8 that the observer actually feels is the position L8 on the near side from the display screen 210, that is, the observer side.
  • the position of the subject L8 that the observer feels is set to a position farther from the observer (closer to the display screen 210) than the subject position L in the input image before conversion shown in FIG. This is a result of the image shift process.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients [ ⁇ 1, 0, 1] shown in FIG. 12 (L2), and the differential signal or the non-linear processing result of the differential signal is left.
  • the synthesis process added to the image a converted image in which the image is shifted in the left direction is generated for the input left image.
  • the right image differentiation processing unit 123 performs differentiation by the coefficient [1, 0, ⁇ 1] shown in FIG. 12 (R2), and performs a differentiation process or a synthesis process for adding the differentiation signal to the right image after nonlinear processing.
  • a converted image in which the image is shifted in the right direction with respect to the input right image is generated.
  • the disparity of the subject L is changed from DL shown in FIG. 19A to DL8 shown in FIG. 19B.
  • the distance between the corresponding point of the left image (L8 left image) and the corresponding point of the right image (L8 right image) is reduced, and as a result, the subject image L8 is the subject shown in FIG. It is set by moving from the position of the image L in a direction away from the observer (approaching the display screen 210).
  • the position of the subject M8 that the observer actually feels is the position M8 that is behind the display screen 210.
  • the position of the subject M8 perceived by the observer is set to a position closer to the observer (close to the display screen 210) than the subject position M in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the “processing for shifting the left image to the right and shifting the right image to the left (see FIG. 6)” is executed.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients [1, 0, ⁇ 1] shown in FIG. 6 (L2), and the differential signal or the non-linear processing result of the differential signal is By the synthesis process added to the image, a converted image in which the image is shifted in the right direction is generated for the input left image.
  • the right image differentiation processing unit 123 performs differentiation using the coefficients [ ⁇ 1, 0, 1] shown in FIG. 6 (R2), and performs a differentiation process or a synthesis process for adding the differentiation signal to the right image after nonlinear processing. A converted image in which the image is shifted in the left direction with respect to the input right image is generated.
  • the disparity of the subject M is changed from DM shown in FIG. 19 (a) to DM8 shown in FIG. 19 (b).
  • the distance between the corresponding point of the left image (M8 left image) and the corresponding point of the right image (M8 right image) is reduced, and as a result, the subject image M8 is the subject shown in FIG. It is set by moving from the position of the image M in a direction approaching the observer (approaching the display screen 210).
  • the parallax range of the three-dimensional image displayed by the converted image is the parallax range [U8] illustrated in FIG.
  • the converted parallax range [U8] is closer to the display screen 210 before and after the display screen than the parallax range [U1] based on the image before conversion, and becomes a reduced parallax range.
  • the subject observed in front of the display screen and the subject observed in the back of the display screen are processed by using the differential filter coefficients of opposite patterns.
  • the reverse shift process is executed. That is, image shift processing (FIG. 6 or FIG. 12) in different directions is executed by selectively applying different filters according to the disparity polarity.
  • Example 5 Example of expanding the parallax range
  • FIG. 20 shows the following figures as described in the previous embodiments.
  • A The parallax range U1 of the input image
  • B The parallax range U9 of the parallax adjustment image
  • FIGS. 20A and 20B further show the left eye 201 and the right eye 202 of the observer (user) and the display screen 210 of the display unit that is executing the three-dimensional image display. On the display screen 210, images having various parallaxes according to the subject distance are presented.
  • an input image is an image in which the observer (user) is set to feel the position of the subject before and after the display screen.
  • FIG. 20A the subject is observed before and after the display screen 210, as in FIG. That is, Subject K is observed on display screen 210, The subject L is observed in front of the display screen 210 (observer side), This is an input image in which the subject M is set to be observed on the back side of the display screen 210.
  • the disparity of the subject L has a negative polarity, and the image of the subject L is set to be observed in front of the display screen 210.
  • the disparity of the subject M has a positive polarity, and the image of the subject M is This setting is observed in the back of the display screen 210.
  • the parallax range is the parallax range [U1] corresponding to the observation positions of the subjects L to M.
  • FIG. 20B shows an image converted by the image processing apparatus 300 shown in FIG. 18 according to the fifth embodiment, that is, for example, the parallax adjustment left image (L2) 50 and the parallax adjustment right image (R2) 60.
  • the observation status of the image displayed is indicated by.
  • the subjects K9, L9, and M9 are the same subjects as K, L, and M in FIG. 20A, but the image conversion process with the image shift according to the disparity polarity described above is performed, so that the observer performs it.
  • the observed subject position changes.
  • the left image and the right image are displayed at the same position on the display screen 210, and the disparity becomes zero.
  • the position of the subject K9 that the observer feels is the position on the display screen 210.
  • the distance between the left image and the right image on the display screen 210 is DL9, and the disparity is DL9.
  • the position of the subject L9 that the observer actually feels is the front position from the display screen 210, that is, the position L9 on the observer side.
  • the position of the subject L9 felt by the observer is set to a position closer to the observer (far from the display screen 210) than the subject position L in the input image before conversion shown in FIG. This is a result of the image shift process.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients [1, 0, ⁇ 1] shown in FIG. 6 (L2), and the differential signal or the non-linear processing result of the differential signal is By the synthesis process added to the image, a converted image in which the image is shifted rightward is generated for the input left image.
  • the right image differentiation processing unit 123 performs differentiation using the coefficients [ ⁇ 1, 0, 1] shown in FIG. 6 (R2), and performs a differentiation process or a synthesis process for adding the differentiation signal to the right image after nonlinear processing. A converted image in which the image is shifted in the left direction with respect to the input right image is generated.
  • the disparity of the subject L is changed from DL shown in FIG. 20A to DL9 shown in FIG.
  • the distance between the corresponding point of the left image (L9 left image) and the corresponding point of the right image (L9 right image) is increased, and as a result, the subject image L9 is the subject shown in FIG.
  • the position is set by moving from the position of the image L in a direction closer to the observer (away from the display screen 210).
  • the position of the subject M9 that the observer feels is a position M9 that is behind the display screen 210.
  • the position of the subject M9 that the observer feels is set to a position farther from the observer (farther from the display screen 210) than the subject position M in the input image before conversion shown in FIG. This is a result of the aforementioned image shift processing.
  • the left image differentiation processing unit 113 performs differentiation using the coefficients [ ⁇ 1, 0, 1] shown in FIG. 12 (L2), and the differential signal or the non-linear processing result of the differential signal is left.
  • the synthesis process added to the image a converted image in which the image is shifted in the left direction is generated for the input left image.
  • the right image differentiation processing unit 123 performs differentiation by the coefficient [1, 0, ⁇ 1] shown in FIG. 12 (R2), and performs a differentiation process or a synthesis process for adding the differentiation signal to the right image after nonlinear processing.
  • a converted image in which the image is shifted in the right direction with respect to the input right image is generated.
  • the disparity of the subject M is changed from DM shown in FIG. 20A to DM9 shown in FIG.
  • the distance between the corresponding point of the left image (M9 left image) and the corresponding point of the right image (M9 right image) increases, and as a result, the subject image M9 is the subject shown in FIG. It is set by moving from the position of the image M in a direction away from the observer (away from the display screen 210).
  • the parallax range of the three-dimensional image displayed by the converted image is the parallax range [U9] illustrated in FIG.
  • the converted parallax range [U9] is far from the display screen 210 both before and after the display screen compared to the parallax range [U1] of the image before conversion, and becomes an enlarged parallax range.
  • the subject observed in front of the display screen and the subject observed in the back of the display screen are each processed by using differential filter coefficients having opposite patterns.
  • the reverse shift process is executed. That is, image shift processing (FIG. 6 or FIG. 12) in different directions is executed by selectively applying different filters according to the disparity polarity.
  • This process enables both the subject observed in front of the display screen and the subject observed in the back of the display screen to move their observation positions away from the display screen direction, resulting in more efficient operation. It is possible to enlarge the parallax range (U1 to U9).
  • the disparity change is the smallest at the focused pixel position (subject E) in the image to be converted, and the disparity change increases as the distance from the in-focus position increases.
  • the settings are as follows.
  • the first embodiment as the setting of the differential filter coefficient according to FIG. 6 (left image differentiator: [1, 0, ⁇ 1], right image differentiator [ ⁇ 1, 0, 1]), the left image is moved in the right direction. Shift to the right and shift the right image to the left.
  • the second embodiment as a setting according to FIG. 12 (left image differentiator: [ ⁇ 1, 0, 1], right image differentiator [1, 0, ⁇ 1]), the left image is shifted leftward, and the right image Setting to shift to the right.
  • Example 3 (a) the setting according to FIG. In Example 3 (b), the setting according to FIG. In Example 4 (a), the setting according to FIG. In Example 4 (b), the setting according to FIG.
  • Example 5 (a) the setting according to FIG.
  • Example 5 (b) the setting according to FIG.
  • the differential filter coefficient applied in each differentiator is set.
  • the shift direction of the image can be controlled according to the setting mode of the differential filter coefficient.
  • the differential filter coefficients are not limited to combinations such as [-1, 0, 1], [1, 0, -1], but are [-2, 0, 2], [2, 0, -2], Further, a combination of [ ⁇ 1, ⁇ 0.5, 0, 0.5, 1], [1, 0.5, 0, ⁇ 0.5, ⁇ 1], or a two-dimensional filter other than the primary differential filter
  • Various settings can be made such as applying, and the shift mode can be changed by changing the differential filter coefficient.
  • the left linear conversion unit 113 and the right linear conversion unit 123 execute nonlinear conversion processing according to, for example, the pattern shown in FIG.
  • the shift mode can be controlled by adjusting this conversion pattern. Specifically, for example, it is possible to control to change the shift ratio between the focused area and the blurred area.
  • a control signal input unit for controlling the shift direction and the shift mode is provided.
  • An image processing apparatus 400 illustrated in FIG. 21 has a configuration in which a control signal input unit 401 is added to the image processing apparatus 100 illustrated in FIG. Other configurations are the same as those shown in FIG.
  • the image processing apparatus 400 receives the left image (L1 image) 10 as shown in FIG. 21, performs image conversion, and generates a parallax adjusted left image (L2 image) 50 subjected to parallax adjustment. 110 and the right image (R1 image) 20 are input and image conversion is performed to generate a parallax adjusted right image (R2 image) 60 that has been subjected to parallax adjustment. Have.
  • the left image conversion unit 110 includes a left image input unit 111 that inputs the left image (L1) 10, a left image differentiation processing unit 112 that performs differentiation processing on the left image 10, and a left nonlinear conversion that performs nonlinear conversion on the differential signal of the left image 10.
  • a left image synthesizing unit 114 that synthesizes the differential signal that has been nonlinearly transformed with the left image 10, and a left image output unit 115 that outputs a parallax adjustment left image (L2) 50 after the conversion.
  • the right image conversion unit 120 includes a right image input unit 121 that inputs the right image (R1) 20, a right image differentiation processing unit 122 that performs differentiation processing on the right image 20, and a right nonlinear conversion that performs nonlinear conversion on the differential signal of the right image 20.
  • the left image conversion unit 110 and the right image conversion unit 120 execute processing similar to the processing described in the first to fourth embodiments.
  • the control signal input unit 401 converts the control signal for controlling the differential mode applied in the left image differentiator 112 and the right image differentiator 122, and the conversion processing to the left image nonlinear converter 113 and the right image nonlinear converter 123. Input the control signal.
  • FIG. 22 is a diagram illustrating an internal configuration example of the left image differentiator 112.
  • the left image differentiator 112 includes a filter selection unit 421 and a differential filter application unit 422.
  • the differential filter application unit 422 has a configuration capable of selectively applying a plurality of different differential filter coefficients.
  • the filter selection unit 421 selects a specific differential filter according to the control signal from the control signal input unit 401, and performs differential processing on the luminance signal of the left image input from the left image input unit 111 by the selected differential filter. Execute. For example, with such a configuration, differential processing to which various differential filter coefficients are applied is realized. 22 has been described as an example of the configuration of the left image differentiator 112, the right image differentiator 122 has the same configuration and realizes differential processing using various differential filter coefficients.
  • the control signal of the control signal input unit 401 is also input to the left image nonlinear transformation unit 113 and the right image nonlinear transformation unit 123.
  • the control signals input to the left image nonlinear conversion unit 113 and the right image nonlinear conversion unit 123 are signals that control the conversion processing mode of the differential signal.
  • the conversion pattern can be controlled in various modes by a control signal. Yes.
  • the control signal can be set as a function F applied to the input (In), for example.
  • function F F (In) is determined.
  • the shift mode can be controlled by adjusting the conversion pattern. Specifically, for example, it is possible to control to change the shift ratio between the focused area and the blurred area.
  • the conversion process is not limited to non-linear but may be set to linear conversion.
  • the image processing apparatus 400 illustrated in FIG. 21 includes the control signal for controlling the differential mode applied in the left image differentiator 112 and the right image differentiator 122, the left image nonlinear transformation unit 113, and the right image.
  • a configuration is adopted in which a control signal for conversion processing can be input to the nonlinear conversion unit 123.
  • the shift direction and shift mode of the image can be controlled. For example, it is possible to realize setting of a user's favorite parallax range or setting of a three-dimensional image by displaying the converted image on the display unit and changing the control signal while the user observes the display image. It becomes.
  • the configuration described with reference to FIG. 21 is a configuration in which a control signal input unit 401 is added to the image processing apparatus of FIG. 1 described as the configuration of the first to fourth embodiments.
  • the control signal input unit may be added to the image processing apparatus 300 shown in FIG. FIG. 23 shows a configuration example of the image processing apparatus 500.
  • An image processing apparatus 500 illustrated in FIG. 23 has a configuration in which a control signal input unit 501 is added to the image processing apparatus 300 illustrated in FIG. 18 described above as the image processing apparatus of the fifth embodiment.
  • the configurations of the left image conversion unit 110, the right image conversion unit 120, and the parallax detection unit 301 and the processing to be executed are substantially the same as those described in the fifth embodiment.
  • the image processing apparatus 500 shown in FIG. 23 includes a control signal for controlling a differential mode applied in the left image differentiator 112 and the right image differentiator 122, a left image nonlinear transformation unit 113, and a right image nonlinear transformation.
  • the control signal for the conversion process can be input to the unit 123.
  • the shift direction and shift mode of the image can be controlled. For example, it is possible to realize setting of a user's favorite parallax range or setting of a three-dimensional image by displaying the converted image on the display unit and changing the control signal while the user observes the display image. It becomes.
  • the processing configuration is described in which the input image is applied and converted as it is.
  • reduction processing or thinning processing is performed on the images (left image 10 and right image 20) input by each image input unit. It is good also as a structure which performs a differentiation process, a nonlinear transformation, a synthetic
  • only the parallax detection process of the parallax detection unit 301 may be executed as a process to which a reduced image or a thinned-out image is applied.
  • the left image differentiator and the right image differentiator are configured to apply the differential filter set so as to reverse the pattern of the differential filter coefficient in the left image differentiator and the right image differentiator.
  • the differential processing is performed using the same differential filter coefficient in the unit, and in the subsequent synthesis processing, one (for example, the left image) adds the differential signal (or the signal obtained by nonlinearly converting the differential signal) to the original image signal,
  • the other for example, the right image
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • the image processing apparatus of the present invention includes a left image conversion unit that generates a left image conversion image by changing the phase of an image signal of a left image for left eye presentation in the right direction or the left direction, and a right image for right eye presentation.
  • a right image conversion unit that generates a right image converted image by changing the phase of the image signal in the left direction or the right direction.
  • Each image conversion unit generates, for example, a differential signal obtained by applying a differential filter coefficient of a coefficient sequence having a reverse characteristic to the input image, and adds the differential signal or a nonlinear signal of the differential signal to the original image signal.
  • a conversion signal in which the parallax is controlled is generated. Processing such as reduction or expansion of the parallax range is realized by this processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

立体画像表示に適用する左画像と右画像の視差制御を行なう装置、方法を提供する。左眼提示用の左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換部と、右眼提示用の右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換部を有する。各画像変換部は、例えば入力画像に対して逆特性の係数列の微分フィルタ係数を適用した微分信号を生成し、該微分信号またはこの微分信号の非線形信号を原画像信号に加算する合成処理により視差を制御した変換信号を生成する。本処理により視差範囲の縮小または拡大等の処理が実現される。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本発明は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、ステレオ視(立体視)に対応した視差画像の視差制御を行う画像処理装置、および画像処理方法、並びにプログラムに関する。
 ステレオ視(立体視)に対応したいわゆる視差画像(3次元画像、3D画像とも呼ばれる)を生成するためには、異なる視点からの画像、すなわち左眼用画像と右眼用画像が必要となる。すなわち、視差のある画像を左眼用画像と右眼用画像として生成し、左眼用画像を観察者(ユーザ)の左眼のみで観察し、右眼用画像を観察者(ユーザ)の右眼のみで観察する制御を行うことで、観察者は立体感を実感することができる。
 なお、各画像をユーザの一方の眼で観察させるための構成としては様々な方法がある。例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式、あるいは液晶シャッタにより時間的に左右分離するアクティブ眼鏡方式などがある。一般的には、このような立体視用の特殊な眼鏡を装着して画像を観察することで立体画像の観察が可能となる。
 このように、従来から、視差を持つ画像の提示による立体視の実現方法については、様々な手法が提案されている。
 しかし、視差範囲、すなわち近くに見える被写体と遠くに見える被写体の幅が狭すぎると、十分な立体感が感じられないという問題がある。一方では、視差範囲が大きい3次元画像を長時間、観察し続けると疲労や気分が悪くなるといった観察者が発生するといった報告もある。このような問題を解決する手法として、立体感を適正に与えるために視差量を制御する手法が提案されている。
 例えば、特許文献1(特開平07-167633号公報)は、3次元画像を構成する左右の画像(左眼用画像と右眼用画像)から視差に相当する網膜像差(ディスパリティ)を検出して、検出した網膜像差(ディスパリティ)情報に基づいて左右の画像を水平シフトして視差を調整する方法を開示している。すなわち、この特許文献1に開示された方法は、ディスパリティの平均値を用いて画像全体を水平にシフトすることで、観察者が見やすい視差範囲に設定する画像変換方法である。
 なお、ディスパリティとは、網膜像差、あるいは表示部における同一被写体の左眼用画像と右眼用画像間の距離に対応する値であり、ディスパリティが大きいほど視差が大きくなる。
 この特許文献1に開示された方法は、ディスパリティの平均値を用いて画像全体を水平にシフトすることで、観察者が見やすい視差範囲に設定する画像変換方法である。
 この特許文献1に開示された構成は、ディスパリティの平均値を用いて水平シフト量を決定する構成であり、少ない処理量での変換が可能となるというメリットがある。しかし、左右画像を全体的に水平シフトする構成であり、視差のダイナミックレンジ(最も近い被写体と遠い被写体の奥行きの差)を制御することはできないという問題がある。
 また、非特許文献1("Stereoscopic image generation based on depth image for 3D TV",L.Zhang and W.J.Tam, IEEE Trans.On Broadcasting,Vol.51,No.2,June 2005)は、左右の画像から、画像の画素ごとに対応するディスパリティ(左画像と右画像のずれ)を記述したディスパリティマップを生成して、ディスパリティマップと原画像を用いて、異なる視点に対する画像を復元する方法を開示している。
 この非特許文献1に開示された手法は、新たな視点からの画像を生成することが可能であり、ステレオ画像の視差のダイナミックレンジについても制御した画像を生成することができる。しかしながら、この非特許文献1に記載の方法では、画像の画素ごとのディスパリティ(像差)を記述したディスパリティマップを生成することが不可欠であり、処理コストが大きくなり、回路の小型化が難しいという問題がある。また、生成される画像の品質がディスパリティマップの精度に依存するため、高解像度かつ、高精度なディスパリティマップが求められる。このような高精度なディスパリティマップの生成は困難であり、回路規模を増大させる要因になる。
特開平07-167633号公報
"Stereoscopic image generation based on depth image for 3D TV",L.Zhang and W.J.Tam, IEEE Trans.On Broadcasting,Vol.51,No.2,June 2005
 本発明は、例えば上記の問題に鑑みてなされたものであり、画像の画素ごとのディスパリティを記述したディスパリティマップの生成を不要、または少ない処理での生成が可能なデータ量の少ない粗いディスパリティマップを生成するのみで、ステレオ画像における視差の制御を行うことを可能とした画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本発明の第1の側面は、
 立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換部と、
 立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換部を有し、
 前記左画像変換部、および右画像変換部は、各入力画像の画像信号の特徴量を抽出し、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成する画像処理装置にある。
 さらに、本発明の画像処理装置の一実施態様において、前記左画像変換部は、前記特徴量として前記左画像の画像信号の微分信号を生成する左画像微分器と、前記左画像の微分信号、または該微分信号の変換信号を前記左画像信号に加算する合成処理を実行して前記左画像変換画像を生成する左画像合成部を有し、前記右画像変換部は、前記特徴量として前記右画像の画像信号の微分信号を生成する右画像微分器と、前記右画像の微分信号、または該微分信号の変換信号を前記右画像信号に加算する合成処理を実行して前記右画像変換画像を生成する右画像合成部を有する。
 さらに、本発明の画像処理装置の一実施態様において、前記左画像変換部は、前記前記左画像の微分信号の非線形変換処理を実行する左画像非線形変換部を有し、前記左画像合成部は、前記左画像非線形変換部の生成した変換信号を前記左画像信号に加算する合成処理を実行して前記左画像変換画像を生成し、前記右画像変換部は、前記前記右画像の微分信号の非線形変換処理を実行する右画像非線形変換部を有し、前記右画像合成部は、前記右画像非線形変換部の生成した変換信号を前記右画像信号に加算する合成処理を実行して前記右画像変換画像を生成する。
 さらに、本発明の画像処理装置の一実施態様において、前記左画像微分器と前記右画像微分器は、逆パターンの微分フィルタ係数列を有する一次微分フィルタを適用した微分処理を実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記左画像微分器と前記右画像微分器は、同一の微分態様による微分処理を実行し、前記左画像合成部と前記右画像合成部のいずれか一方は、各画像の微分信号または該微分信号の変換信号を入力画像信号に加算し、他方が入力画像信号から減算する処理を行う。
 さらに、本発明の画像処理装置の一実施態様において、前記左画像微分器と前記右画像微分器は、入力画像信号の輝度信号の微分処理を実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、画像処理装置に入力する前記左画像と前記右画像における同一被写体部に相当する対応点の配置を解析して視差情報を生成する視差検出部を有し、前記左画像微分器と前記右画像微分器は、前記視差検出部の生成する前記視差情報に応じて、微分処理態様を変更して微分処理を実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記視差検出部は、画像処理装置に入力する前記左画像と前記右画像における同一被写体部に相当する対応点の配置が、
 (a)左画像の対応点が右画像の対応点よりも左に位置する、
 (b)左画像の対応点が右画像の対応点よりも右に位置する、
 上記(a),(b)いずれの設定にあるかを示すディスパリティ極性情報を生成し、
 前記左画像微分器と前記右画像微分器は、前記視差検出部の生成するディスパリティ極性情報に応じて、逆パターンの微分フィルタ係数列を有する一次微分フィルタを適用した微分処理を実行する。
 さらに、本発明の画像処理装置の一実施態様において、前記視差検出部は、画像処理装置に入力する前記左画像と前記右画像の縮小画像または間引き画像を適用して視差情報を生成する。
 さらに、本発明の画像処理装置の一実施態様において、前記画像処理装置は、さらに、前記左画像微分器と前記右画像微分器の微分処理態様、または前記左画像非線形変換部と前記右画像非線形変換部における変換処理態様の少なくともいずれかを変更制御するための制御信号を入力する制御信号入力部を有する。
 さらに、本発明の第2の側面は、
 画像処理装置において実行する画像処理方法であり、
 左画像変換部が、立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換ステップと、
 右画像変換部が、立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換ステップを有し、
 前記左画像変換ステップ、および右画像変換ステップは、各入力画像の画像信号の特徴量を抽出し、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成するステップである画像処理方法にある。
 さらに、本発明の第3の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 左画像変換部に、立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成させる左画像変換ステップと、
 右画像変換部に、立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成させる右画像変換ステップを実行させ、
 前記左画像変換ステップ、および右画像変換ステップにおいて、各入力画像の画像信号の特徴量を抽出させ、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成させるプログラムにある。
 なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本発明の一実施例構成によれば、立体画像表示に適用する左画像と右画像の視差制御を行なう装置、方法が提供される。本発明の画像処理装置は、左眼提示用の左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換部と、右眼提示用の右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換部を有する。各画像変換部は、例えば入力画像に対して逆特性の係数列の微分フィルタ係数を適用した微分信号を生成し、該微分信号またはこの微分信号の非線形信号を原画像信号に加算する合成処理により視差を制御した変換信号を生成する。本処理により視差範囲の縮小または拡大等の処理が実現される。
本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の微分器の微分処理について説明する図である。 本発明の一実施例に係る画像処理装置の非線形変換部の非線形変換処理について説明する図である。 本発明の一実施例に係る画像処理装置の左画像変換部の処理例について説明する図である。 本発明の一実施例に係る画像処理装置の右画像変換部の処理例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理例について説明する図である。 本発明の実施例1に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理による各信号パターンの対応例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理による各信号パターンの対応例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理による各信号パターンの対応例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理による各信号パターンの対応例について説明する図である。 本発明の一実施例に係る画像処理装置の実行する画像変換処理例について説明する図である。 本発明の実施例2に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の実施例3(a)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の実施例3(b)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の実施例4(a)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の実施例4(b)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の実施例5(a)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の実施例5(b)に係る画像処理装置の実行する画像変換処理による制御処理の具体例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の微分器の構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。
 以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。以下の呼応目に従って順次説明する。
 A.実施例1:表示部の表示面より奥側に設定された視差範囲の縮小処理例
 B.実施例2:表示部の表示面より奥側に設定された視差範囲の拡大処理例
 C.実施例3:表示部の表示面より手前側に設定された視差範囲の制御(縮小/拡大)処理例
 D.実施例4:表示部の表示面の前後に設定された視差範囲の制御処理例
 E.実施例5:簡易なディスパリティマップを利用した視差制御を行う実施例
 F.実施例6:シフト態様の制御用の信号を入力可能とした構成を有する実施例
  [A.実施例1:表示部の表示面より奥側に設定された視差範囲の縮小処理例]
 図1以下を参照して本発明の実施例1について説明する。
 第1の実施例は、立体画像(3次元画像)を構成する左右の画像(左眼用画像と右眼用画像)の像のずれ(網膜像差等や表示部における左画像と右画像の表示位置間距離)に相当するディスパリティの値を各画素に対応付けたディスパリティマップを利用することなく視差制御を可能とした実施例である。
 本実施例は、ディスパリティマップを生成することなく、3次元画像を構成する左右の画像(左眼用画像と右眼用画像)の視差範囲の縮小処理や拡大処理等の視差制御を実行する画像処理装置を実現するものである。
 図1を参照して、本実施例の画像処理装置の構成例について説明する。画像処理装置100は、図1に示すように左画像(L1画像)10を入力して画像変換を行い、視差調整が施された視差調整左画像(L2画像)50を生成する左画像変換部110と、右画像(R1画像)20を入力して画像変換を行い、視差調整が施された視差調整右画像(R2画像)60を生成する右画像変換部120を有する。
 入力画像としての左画像(L1画像)10、右画像(R1画像)20は、立体画像(3次元画像)表示に適用する左眼用画像と右眼用画像である。すなわち、異なる視点からの撮影画像等、被写体距離に応じた視差の設定された画像である。なお、左画像(L1画像)10、右画像(R1画像)20は、ビデオデータ等の動画や、静止画、いずれでもよい。動画、静止画いずれの場合も、それぞれ3次元画像表示に適用する1組の左画像(L1画像)10、右画像(R1画像)20が、順次、左画像変換部110、右画像変換部120に入力され、各部において、各画像の変換処理が施されて視差調整が施された視差調整左画像(L2画像)50と視差調整右画像(R2画像)60を生成する。
 左画像変換部110は、左画像(L1)10を入力する左画像入力部111、左画像10の微分処理を行う左画像微分処理部112、左画像10の微分信号を非線形変換する左非線形変換部113、左画像10と非線形変換された微分信号を合成する左画像合成部114、変換後の視差調整左画像(L2)50を出力する左画像出力部115から構成される。
 右画像変換部120は、右画像(R1)20を入力する右画像入力部121、右画像20の微分処理を行う右画像微分処理部122、右画像20の微分信号を非線形変換する右非線形変換部123、右画像20と非線形変換された微分信号を合成する右画像合成部124、変換後の視差調整右画像(R2)60を出力する右画像出力部125から構成される。
 左画像変換部110と、右画像変換部120は、それぞれ入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで視差の制御された視差調整左画像50と視差調整右画像60を生成して、左画像出力部115と右画像出力部125を介して出力する処理を行う。
 なお、左画像出力部115と右画像出力部125は、例えば3次元画像の表示処理を行う表示部に接続され、視差が調整された視差調整左画像(L2)50と視差調整右画像(R2)60を適用した3次元画像表示処理がなされる。
 あるいは、左画像出力部115と右画像出力部125は、記録メディアに対する記録処理を実行する記録部に接続され、視差調整左画像(L1)50と視差調整右画像(R1)60の記録メディアに対する記録処理が行われる。あるいは通信部を介して外部装置に送信する構成としてもよい。
 左画像変換部110の実行する処理の詳細について説明する。
 左画像入力部111は、3次元画像表示に適用するために予め生成された左画像(L1)10を入力する。
 左画像微分器112は、左画像変換部110に入力された左画像10から画像特徴量を抽出する。具体的には、左画像10から輝度信号を取り出し、輝度信号に対する微分信号(HL)を生成する。左画像微分器112は、例えば画像の輝度信号を水平方向に入力して、入力輝度信号を一次微分した信号を生成する。一次微分処理は、例えば、水平方向3タップの線形1次微分フィルタなどを用いる。
 図2は、左画像微分器112における微分信号の生成処理例を示している。
 図2には、
  (a)入力信号
  (b)微分信号
  これらの各信号の例を示している。
 図2(a)は、入力画像信号の一例である。
 図2(b)は、図2(a)の入力画像信号を微分処理した画像であり、例えば左画像微分器112の生成する輝度微分信号(HL)である。
 なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
 左画像非線形変換部113は、左画像微分器112から出力される微分信号(HL)を非線形的に変換し、非線形変換信号(EL)として画像合成部114に出力する。
 図3は、左画像非線形変換部113において実行する非線形変換処理の一例を示している。横軸が、左画像微分器112から出力される微分信号(輝度微分信号)の輝度値である。縦軸が、左画像非線形変換部113における非線形変換処理後の出力輝度値を示している。
 左画像非線形変換部113は、入力された微分信号(In(=HL))を、予め規定した関数f(x)により変換して、視差強調信号(Out(=EL))を出力する。すなわちOut=f(In)とする。このとき、関数f(x)は、様々な設定が利用可能である。関数f(x)の一例としては、例えば、
 f(x)=xγ
 上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
 また、左画像非線形変換部113における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
 なお、図1に点線で示すように、左画像非線形変換部113の処理を省略した構成としてもよい。この場合、左画像微分器112から出力される微分信号(HL)を直接、左画像合成部114に入力する。
 左画像合成部114は、左画像(L1)10と、この左画像(L1)10から生成した空間的な特徴量、すなわち、輝度信号の微分信号(HL)、または、この微分信号を非線形変換して生成した非線形変換信号(EL)を適用して視差調整左眼用画像50を生成する処理を行う。
 次に左画像合成部114の処理について説明する。
 左画像合成部114は、入力画像である左画像10と、この左画像10から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した非線形変換信号を適用して視差調整左画像50を生成する処理を行う。生成した視差調整左画像50は、左画像出力部115を介して出力され、例えば表示部に表示される。
 図4は、左画像合成部114において実行する画像合成処理の一例を示している。上から順に、
 (a)入力信号(L1)
 (b)微分信号(HL)
 (c)合成画像信号(=視差調整左画像信号(L2))
 これらの各信号を示している。
 (a)入力信号(L1)は、画像処理装置100に入力される左画像(L1)10の例えばビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。
 ライン位置(x1)からライン位置(x2)までの領域Pにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)~(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Qにおいて、輝度が次第に低くなる変化を示している。
 (b)微分信号(HL)は、(a)入力信号(L1)の微分結果である。この微分信号は、図1に示す左画像変換部110の左画像微分器112において生成される信号である。
 なお、左画像微分器112において利用される微分フィルタ係数は、図4(b)に示すように、
 1,0,-1
 上記系列の微分フィルタ係数を持つ微分フィルタである。
 上記系列の微分フィルタ係数を持つフィルタによる微分処理は、
 水平ラインの画素(n)の微分信号(In')を、
 画素(n)の前(左)の画素(n-1)の画素値(本例では輝度)=(I(n-1))と、
 画素(n)の後(右)の画素(n+1)の画素値(本例では輝度)=(I(n+1))、
 を適用して以下のように算出することを意味する。
 In'=(I(n-1))-(I(n+1))
 左画像微分器112の生成する微分信号(LH)は、図4に示すとおり、(a)入力左画像信号(L1)の輝度変化が正になる領域Pにおいて負の値をとり、(a)入力左画像信号(L1)の輝度変化が負になる領域Qにおいて正の値をとる。
 (c)合成信号(視差調整左画像信号(L2))は、図1に示す左画像変換部110の左画像合成部114において生成する信号である。左画像合成部114は、(a)入力左画像信号(L1)と、(b)左画像微分信号(HL)とを加算する合成処理を実行して合成信号(視差調整左画像信号(L2))を生成する。この結果、図4(c)に示す合成信号(視差調整左画像信号(L2))が生成される。
 この図から理解されるように、(a)入力信号(L1)のP,Qの輝度変化部分が、(c)合成画像信号(=視差調整左画像信号(L2))においては、右方向に位相変化(シフト)している。これは、入力信号(L1)に対する微分信号の合成(加算)処理による効果である。
 なお、図4の説明では、図1に示す左画像非線形変換部113の処理について省略した例を示しているが、左画像非線形変換部113の処理を加えた場合は、図4(b)の微分信号の振幅が制御(例えば抑制)されることになる。
 この場合も、左画像合成部114における合成処理結果としての(c)合成画像信号(=視差調整左画像信号(L2))は、図4に示すと同様、P,Qの輝度変化部分が、(a)入力信号(L1)に対して右側に移動した位相変化(シフト)した信号となる。
 このように、図1に示す左画像変換部110は、入力画像である左画像(L1)10の輝度変化部分について、右方向にシフトした視差調整左画像(L2)50を生成して出力する。
 次に、図1に示す右画像変換部120の処理について説明する。右画像変換部120は、左画像変換部110と同様の構成を有する。
 すなわち、右画像変換部120は、右画像(R1)20を入力する右画像入力部121、右画像20の微分処理を行う右画像微分処理部122、右画像20の微分信号を非線形変換する右非線形変換部123、右画像20と非線形変換された微分信号を合成する右画像合成部124、変換後の視差調整右画像(R2)60を出力する右画像出力部125から構成される。
 基本的には、右画像変換部120の各構成部における処理は、左画像変換部110の対応する各構成部の処理と同様の処理が行われる。
 ただし、右画像20の微分処理を行う右画像微分処理部122において適用する微分フィルタの係数が異なる。
 右画像微分処理部122において適用する微分フィルタの係数は、左画像変換部110の左画像微分処理部112において適用する微分フィルタの係数を反転した系列、すなわち逆パターンの系列となる。
 図5を参照して、右画像変換部120に入力する右画像(R1)20と、右画像微分処理部122において生成する右画像微分信号(HR)と、右画像合成部124の生成する合成信号(視差調整右画像信号(R2)の一例について説明する。
 図5に示す信号例は、先に左画像変換部110の信号例として説明した図4に対応する。
 すなわち、図5は、右画像合成部124において実行する画像合成処理の一例を示している。上から順に、
 (a)入力信号(R1)
 (b)微分信号(HR)
 (c)合成画像信号(=視差調整右画像信号(R2))
 これらの各信号を示している。
 (a)入力信号(R1)は、画像処理装置100に入力される右画像(R1)20の例えばビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。
 ライン位置(x1)からライン位置(x2)までの領域Pにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)~(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Qにおいて、輝度が次第に低くなる変化を示している。
 (b)微分信号(HR)は、(a)入力信号(R1)の微分結果である。この微分信号は、図1に示す右画像変換部120の右画像微分器122において生成される信号である。
 なお、右画像微分器122において利用される微分フィルタ係数は、前述したように、左画像微分器112において利用される微分フィルタ係数を反転した係数列から構成される。すなわち、図5(b)に示すように、
 -1,0,1
 上記系列の微分フィルタ係数を持つ微分フィルタである。
 上記系列の微分フィルタ係数を持つフィルタによる微分処理は、
 水平ラインの画素(n)の微分信号(In')を、
 画素(n)の前(左)の画素(n-1)の画素値(本例では輝度)=(I(n-1))と、
 画素(n)の後(右)の画素(n+1)の画素値(本例では輝度)=(I(n+1))、
 を適用して以下のように算出することを意味する。
 In'=-(I(n-1))+(I(n+1))
 右画像微分器122の生成する微分信号(HR)は、図5に示すとおり、(a)入力右画像信号(R1)の輝度変化が正になる領域Pにおいて正の値をとり、(a)入力右画像信号(R1)の輝度変化が負になる領域Qにおいて負の値をとる。
 (c)合成信号(視差調整右画像信号(R2))は、図1に示す右画像変換部120の右画像合成部124において生成する信号である。右画像合成部124は、(a)入力右画像信号(R1)と、(b)右画像微分信号(HR)とを加算する合成処理を実行して合成信号(視差調整右画像信号(R2))を生成する。この結果、図5(c)に示す合成信号(視差調整右画像信号(R2))が生成される。
 この図から理解されるように、(a)入力信号(R1)のP,Qの輝度変化部分が、(c)合成画像信号(=視差調整右画像信号(R2))においては、左方向に位相変化(シフト)している。これは、入力信号(R1)に対する微分信号の合成(加算)処理による効果である。
 なお、図5の説明では、図1に示す右画像非線形変換部123の処理について省略した例を示しているが、右画像非線形変換部123の処理を加えた場合は、図5(b)の微分信号の振幅が制御(例えば抑制)されることになる。
 この場合も、右画像合成部124における合成処理結果としての(c)合成画像信号(=視差調整右画像信号(R2))は、図5に示すと同様、P,Qの輝度変化部分が、(a)入力信号(R1)に対して左側に移動、すなわち左方向に位相変化(シフト)した信号となる。
 このように、図1に示す右画像変換部120は、入力画像である右画像(R1)20の輝度変化部分について、左方向にシフトした視差調整左画像(R2)50を生成して出力する。
 次に、図6を参照して、画像処理装置100の入力画像と出力画像との対応について説明する。
 図6には、上から、
 (L1)入力左画像信号
 (L2)出力左画像信号(視差調整左画像信号)
 (R1)入力右画像信号
 (R2)出力右画像信号(視差調整左画像信号)
 これらの信号パターンを示している。これらは、図4、図5を参照して説明した信号パターンに対応する。
 画像処理装置100の入力画像信号は、
 (L1)入力左画像信号
 (R1)入力右画像信号
 これらの1組の画像信号であり、これらは、3次元画像表示用の信号であり、予め視差が設定されている。
 すなわち、例えば、図6において、輝度変化部分[P]の中央部分の(L1)入力左画像信号の表示位置と、(R1)入力右画像信号の表示位置にはずれが設定されている。この表示位置ずれによって視差が生ずる。
 なお、以下では、同一被写体の表示部における左画像と右画像との表示位置間の距離を「ディスパリティ」と定義して説明する。
 入力画像(L1),(R1)の輝度変化部分[P]の中央部分のディスパリティは、
 (L1)入力左画像信号の点(p1)と、
 (R1)入力右画像信号の点(p2)と、
 これらの各点間の距離[V1]として設定されている。
 これに対して、出力画像、すなわち視差調整画像信号においては、
 (L2)出力左画像信号(視差調整左画像信号)の点(p3)と、
 (R2)出力右画像信号(視差調整左画像信号)の点(p4)と、
 これらの各点間の距離[V2]がディスパリティとなる。
 このように、輝度変化部分[P]の中央部分のディスパリティは、
 入力画像の組のディスパリティV1、
 出力画像(視差調整画像信号)のディスパリティV2、
 このように異なる値となる。
 本例では、
 V2<V1
 であり、出力画像におけるディスパリティが、入力画像のディスパリティに比較して減少している。このディスパリティの減少より、視差が抑制される。
 この効果は、各画像の位相変化(シフト)による効果として得られるものである。
 図7を参照して、本実施例1の画像処理装置の視差調整の効果について説明する。図7には、以下の各図を示している。
 (a)入力画像の視差範囲S1
 (b)視差調整画像の視差範囲S2
 これらの2つの視差範囲を示している。なお、3次元画像を構成する左画像と右画像(左眼用画像と右眼用画像)には、様々な被写体距離(カメラからの距離)を持つ被写体が含まれ、左画像と右画像には被写体距離に応じた様々な視差が設定される。
 なお、図7(a),(b)には、観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 なお、視差の指標値として、観察者(ユーザ)の左眼201と右眼202の各眼の網膜上の像の位置ずれを示す網膜像差や、同一被写体の表示画面上の距離が利用される。ここでは、同一被写体の表示画面上の距離をディスパリティと定義して、ディスパリティの比較を行う。ディスパリティ=0であれば視差=0となる。これは、観察者(ユーザ)の左眼201によって観察される左画像と、観察者(ユーザ)の右眼202によって観察される右画像、各々における被写体の表示画面210上の表示位置が同一位置となる場合である。
 具体的には、図7(a)の表示画面210上の中央のA点221が視差=0となる被写体A、すなわちディスパリティ=0となる被写体Aである。この場合、ユーザは、被写体Aが表示画面210上に位置するように感じられる。
 なお、図中に示す[A左/右画像]は、ユーザの左眼201によって観察される3次元画像用の左画像における被写体Aの表示画面210上の表示位置と、ユーザの右眼202によって観察される3次元画像用の右画像における被写体Aの表示画面210上の表示位置とが同じ位置であることを意味する。
 一方、図7(a)に示す
 B左画像とB右画像、
 C左画像とC右画像、
 これらの各画像の表示画面210上の表示位置が異なっている。
 これは、ユーザの左眼201によって観察される3次元画像用の左画像における被写体B,Cの表示位置と、ユーザの右眼202によって観察される3次元画像用の右画像における被写体B,Cの表示位置とが異なる位置であることを意味する。
 この様な場合、ユーザは被写体B,Cが表示画面210上と異なる位置にあるように感じられる。
 具体的には、被写体Bは、観察者の左眼201と表示画面210上のB左画像の表示位置を結ぶ直線と、観察者の右眼202と表示画面210上のB右画像の表示位置を結ぶ直線との交点である空間上の点222に位置するように観察される。
 また、被写体Cは、観察者の左眼201と表示画面210上のC左画像の表示位置を結ぶ直線と、観察者の右眼202と表示画面210上のC右画像の表示位置を結ぶ直線との交点である空間上の点223に位置するように観察される。
 このように、観察者によって感じられる被写体の位置は、同一被写体の左画像と右画像の表示画面210上の距離(ディスパリティ)に応じて設定される。表示画面210上の左画像と右画像の被写体間隔を示すディスパリティを用いて説明する。
 被写体Aはディスパリティ=0である。
 被写体Aは、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体Aの位置は表示画面210上の位置221となる。
 被写体Bはディスパリティ=DBである。
 被写体Bは、左画像と右画像の表示画面210上の距離がDBであり、ディスパリティがDBとなる。
 観察者が実感する被写体Bの位置は観察者から表示画面210より遠い位置222となる。
 被写体Cはディスパリティ=DCである。
 なお、DB<DCである。
 被写体Cは、左画像と右画像の表示画面210上の距離がDCであり、ディスパリティがDCとなる。
 観察者が実感する被写体Cの位置は観察者から表示画面210より遠く、さらに被写体Bより遠い位置223となる。
 画像において被写体A,B,Cが観察される場合、観察者の観察する視差範囲は、最も手前の表示画面位置のA点から、画像内の最も遠い被写体C点までの幅[S1]になる。
 図7(b)は、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体A2,B2,C2は、図7(a)のA,B,Cと同じ被写体であるが、前述した変換処理によって画像信号の位相変化に基づく画像シフトが発生し、観察者によって観察される被写体位置が変化する。
 被写体A2はディスパリティ=0である。
 被写体A2は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体A2の位置は表示画面210上の位置231となる。
 被写体B2はディスパリティ=DB2である。
 被写体B2は、左画像と右画像の表示画面210上の距離がDB2であり、ディスパリティがDB2となる。
 観察者が実感する被写体B2の位置は観察者から表示画面210より遠い位置232となる。
 ただし、観察者が実感する被写体B2の位置は、図7(a)に示す変換前の入力画像における被写体位置Bより観察者から近い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体C2はディスパリティ=DC2である。
 なお、DB2<DC2である。
 被写体C2は、左画像と右画像の表示画面210上の距離がDC2であり、ディスパリティがDC2となる。
 観察者が実感する被写体C2の位置は観察者から表示画面210より遠く、さらに被写体B2より遠い位置233となる。
 ただし、観察者が実感する被写体C2の位置は、図7(a)に示す変換前の入力画像における被写体位置Cより観察者に近い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、例えば、B点は左画像位置が右方向に少し移動し、右画像位置が左方向に少し移動することにより、ディスパリティが小さくなる。すなわち、ディスパリティは、DBからDB2に小さくなる。
 さらに奥に位置するC点では、左画像位置が右方向に大きく移動し、右画像位置が左方向に大きく移動し、ディスパリティがさらに小さくなる。
 ディスパリティは、DCからDC2に小さくなる。
 なお、
 (DC-DC2)>(DB-DB2)
 であり、奥の被写体のほうが、ディスパリティの減少幅が大きくなる。
 この結果、図7(a),(b)の視差範囲S1,S2を比較して理解されるように、
 変換前の入力画像の視差範囲S1(A~C)は、変換後の出力画像(視差調整画像)の視差範囲S2(A2~C2)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲S2(A2~C2)は、入力画像の視差範囲S1(A~C)より縮小される。
 図7に示して説明した視差抑制効果は、先に図4、図5を参照して説明した画像シフトの結果もたらされる効果である。
 すなわち、左画像微分処理部113で、図4(b)に示す係数により微分を行い、微分信号を左画像に加算、または微分信号を非線形処理後に左画像に加算することにより、合焦位置から離れた被写体では入力画像に対して右方向に画像がずれる。
 また、右画像微分処理部123で、図5(b)に示す係数により微分を行い、微分信号を右画像に加算、または微分信号を非線形処理後に右画像に加算することにより、合焦位置から離れた被写体では入力画像に対して左方向に画像がずれる。
 この結果、左画像と右画像の間のディスパリティは、入力画像に対して小さくなり、図7(a)の視差範囲S1から図7(b)に示す視差範囲S2のように視差範囲を縮小することができる。
 なお、図1に示す画像処理装置100の実行する画像変換処理では、変換対象画像となる画像において焦点が合った画素位置(例えば一番手前の被写体など)で最もディスパリティの変化が小さく、合焦位置から離れるに従ってディスパリティの変化が大きくなる。
 図7に示す例では、一番手前のA点で焦点があっており、A点でのディスパリティ(DAとする)の変化はほとんど発生しない。画像は被写体が奥に行く(A→B→C)に従って焦点から遠ざかることによりボケが大きくなると考えられる。
 この場合、被写体A,B,Cの、
 画像変換前のディスパリティをDA,DB,DCとし、
 画像変換後のディスパリティをDA2,DB2,DC2とすると、
 ディスパリティの変化幅は、
 (DC2-DC)>(DB2-DB)>(DA2-DA)≒0
 このような設定となる。
 図1に示す非線形変換部113,123では、例えば先に図3説明した非線形変換処理により、微分信号の低域を持ち上げる処理を行う。この処理によって、例えば焦点のあっていないボケ領域(低周波領域)の微分信号のレベルを上げるといった処理が可能となる。この処理によって、図7を参照して説明した処理、すなわち、焦点が合った画素位置(例えば一番手前の被写体など)で最もディスパリティの変化を小さくして、合焦位置から離れるに従ってディスパリティの変化を大きくするといった制御が可能となる。
 画像処理装置100に対する入力信号と、微分信号、および出力信号との具体的な対応関係の例について図8~図11を参照して説明する。
 図8~図11には、入力信号と、微分信号、および出力信号の各ラインを示している。各ラインは、画像信号の1つの水平ラインの一部に相当する。縦軸が輝度、横軸が水平方向の画素位置である。
 入力信号は、画像処理装置100に入力する左画像(L1)10または右画像(R1)20を構成する1つの水平ラインの輝度を示すラインである。
 微分信号は、画像処理装置100の微分器(左画像微分器112または右画像微分器122)における微分処理によって生成される信号である。
 出力信号は、画像処理装置100の合成部(左画像合成部114または右画像合成部124)における合成処理によって生成される信号である。
 図8~図11に示す信号は、以下の処理例に対応する。
 (1)図8:画像を構成する高周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理を適用した場合の処理例(右方向シフト)
 (2)図9:画像を構成する高周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理を適用した場合の処理例(左方向シフト)
 (3a)図10(a):画像を構成する低周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理を適用した場合の処理例(右方向シフト)
 (3b)図10(b):画像を構成する低周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理を適用した場合の処理例(左方向シフト)
 (4a)図11(a):画像を構成する低周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理と、さらに微分信号に対する非線形変換による増幅を行った場合の処理例(右方向シフト)
 (4b)図11(b):画像を構成する低周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理と、さらに微分信号に対する非線形変換による増幅を行った場合の処理例(左方向シフト)
 図8は、画像を構成する高周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理を適用した場合の処理例を示している。
 入力信号(a)に対する微分処理により微分信号(b)が生成され、入力信号と微分信号との合成処理によって出力信号(c)が生成される。
 図から理解されるように、出力信号(c)は入力信号(a)に対して右方向にシフトする。
 図9は、画像を構成する高周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理を適用した場合の処理例を示している。
 入力信号(a)に対する微分処理により微分信号(b)が生成され、入力信号と微分信号との合成処理によって出力信号(c)が生成される。
 図から理解されるように、出力信号(c)は入力信号(a)に対して左方向にシフトする。
 図10(a)は、画像を構成する低周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理を適用した場合の処理例を示している。
 図から理解されるように、出力信号(c)は入力信号(a)に対して右方向にシフトする。
 図10(b)は、画像を構成する低周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理を適用した場合の処理例を示している。
 図から理解されるように、出力信号(c)は入力信号(a)に対して左方向にシフトする。
 図11(a)は、画像を構成する低周波領域に対する微分フィルタ係数[1,0,-1]による微分(本実施例では左画像微分器112)処理と、さらに微分信号に対する非線形変換による増幅を行った場合の処理例を示している。
 図から理解されるように、出力信号(c)は入力信号(a)に対して右方向にシフトする。
 図11(b)は、画像を構成する低周波領域に対する微分フィルタ係数[-1,0,1]による微分(本実施例では右画像微分器122)処理と、さらに微分信号に対する非線形変換による増幅を行った場合の処理例を示している。
 図から理解されるように、出力信号(c)は入力信号(a)に対して左方向にシフトする。
 なお、図1に示す非線形変換部113,123では、例えば先に図3説明した非線形変換処理により、微分信号の低域を持ち上げる処理を行う。この処理によって、例えば焦点のあっていない低周波領域の微分信号のレベルを上げるといった処理が可能であり、この処理によって例えば低周波領域のシフト量(位相変化量)を大きくするといった処理が可能である。
 すなわち、この非線形変換部113,123の変換処理態様の設定に応じて、低周波領域と高周波領域のシフト量の差を大きくする、あるいは小さくするといった制御が実現される。
  [B.実施例2:表示部の表示面より奥側に設定された視差範囲の拡大処理例]
 次に、本発明の画像処理装置の実施例2について説明する。
 実施例2の画像処理装置は、実施例1において説明した図1に示す画像処理装置100と同じ構成を有する。
 ただし、左画像変換部110の左画像微分器112で適用する微分フィルタと、右画像変換部120の右画像微分器122で適用する微分フィルタとを、実施例1の場合と入れ替えた構成である。
 この微分フィルタの変更により、左画像と右画像の画像シフト方向が逆方向となる。この結果、実施例1では視差範囲の縮小処理を行ったが、本実施例では視差範囲を拡大する処理が行われる。
 図12を参照して、本実施例における画像処理装置100の入力画像と出力画像との対応について説明する。この図12は、実施例1において説明した図6と同様の図である。図12には、上から、
 (L1)入力左画像信号
 (L2)出力左画像信号(視差調整左画像信号)
 (R1)入力右画像信号
 (R2)出力右画像信号(視差調整左画像信号)
 これらの信号パターンを示している。
 画像処理装置100の入力画像信号は、
 (L1)入力左画像信号
 (R1)入力右画像信号
 これらの1組の画像信号であり、これらは、3次元画像表示用の信号であり、予め視差が設定されている。
 すなわち、例えば、図12において、輝度変化部分[P]の中央部分の(L1)入力左画像信号の表示位置と、(R1)入力右画像信号の表示位置にはずれ(ディスパリティ)が設定されている。この表示位置ずれによって視差が生ずる。
 入力画像(L1),(R1)の輝度変化部分[P]の中央部分のディスパリティは、
 (L1)入力左画像信号の点(p1)と、
 (R1)入力右画像信号の点(p2)と、
 これらの各点間の距離[V1]として設定されている。
 これに対して、出力画像、すなわち視差調整画像信号においては、
 (L2)出力左画像信号(視差調整左画像信号)の点(p5)と、
 (R2)出力右画像信号(視差調整左画像信号)の点(p6)と、
 これらの各点間の距離[V3]がディスパリティとなる。
 本実施例では、左画像変換部110の左画像微分器112で適用する微分フィルタは、図12(L2)に示すように、
 -1,0,1
 上記系列の微分フィルタ係数を持つ微分フィルタである。
 すなわち、前述の実施例1では、右画像変換部120の右画像微分器122で適した微分フィルタである。
 上記系列の微分フィルタ係数を持つフィルタによる微分処理は、
 水平ラインの画素(n)の微分データ(In')を、
 画素(n)の前(左)の画素(n-1)の画素値(本例では輝度)=(I(n-1))と、
 画素(n)の後(右)の画素(n+1)の画素値(本例では輝度)=(I(n+1))、
 を適用して以下のように算出することを意味する。
 In'=-(I(n-1))+(I(n+1))
 この微分信号は、実施例1において図5(b)を参照して説明した微分信号と同様の信号である。結果として、この微分信号と原入力信号の合成(加算)処理結果は、図12(L1)入力信号のP,Qの輝度変化部分が左方向にシフトされた、図12(L2)に示す出力左画像信号(視差調整左画像(L2))となる。
 一方、右画像変換部120の右画像微分器122で適用する微分フィルタは、図12(R2)に示すように、
 1,0,-1
 上記系列の微分フィルタ係数を持つ微分フィルタである。
 すなわち、前述の実施例1では、左画像変換部110の左画像微分器112で適した微分フィルタである。
 上記系列の微分フィルタ係数を持つフィルタによる微分処理は、
 水平ラインの画素(n)の微分データ(In')を、
 画素(n)の前(左)の画素(n-1)の画素値(本例では輝度)=(I(n-1))と、
 画素(n)の後(右)の画素(n+1)の画素値(本例では輝度)=(I(n+1))、
 を適用して以下のように算出することを意味する。
 In'=(I(n-1))-(I(n+1))
 この微分信号は、実施例1において図4(b)を参照して説明した微分信号と同様の信号である。結果として、この微分信号と原入力信号の合成(加算)処理結果は、図12(R1)入力信号のP,Qの輝度変化部分が右方向にシフトされた、図12(R2)に示す出力右画像信号(視差調整左画像(R2))となる。
 なお、非線形変換処理については省略して説明しているが、非線形変換処理を行った場合もシフト方向は同様の設定となる。
 実施例2は、このように実施例1の左右画像用の各微分器において適用する微分フィルタを入れ替えた処理を行うことで、左画像と右画像のシフト方向を逆方向に設定する構成としている。
 この結果、図12に示すように、輝度変化部分[P]の中央部分のディスパリティは、
 入力画像の組のディスパリティV1、
 出力画像(視差調整画像信号)のディスパリティV3、
 このように異なる値となる。
 本実施例では、
 V1<V3
 であり、出力画像におけるディスパリティV3は、入力画像のディスパリティV1に比較して増加している。このディスパリティの増加より、視差が増幅される。
 この効果は、各画像のシフトによる効果として得られるものである。
 図13を参照して、本実施例2の画像処理装置の視差調整の効果について説明する。図13には、以下の各図を示している。
 (a)入力画像の視差範囲S1
 (b)視差調整画像の視差範囲S3
 なお、図13(a),(b)は、先の実施例1の図7と同様、観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 視差の指標値として、同一被写体の表示画面上の距離であるディスパリティを用いて説明する。
 図13(a)は視差調整前の入力画像に対応する図であり、図7(a)と同じ図である。図13(a)において、
 被写体Aは、ディスパリティ=0、
 被写体Bは、ディスパリティ=DB、
 被写体Cは、ディスパリティ=DC、
 である。
 0<DB<DC
 であり、ユーザの実感する被写体の観察位置は、Aがディスプレイ上、Bはディスプレイより奥(観察者から遠い)、CはBよりさらに遠い位置となる。
 観察者の観察する視差範囲は、最も手前の表示画面位置のA点から、最も遠い被写体観察位置であるC点までの幅[S1]になる。
 図13(b)は、本実施例2に従って、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体A3,B3,C3は、図13(a)のA,B,Cと同じ被写体であるが、前述した変換処理により画像シフトが実行されているため観察者によって観察される被写体位置が変化する。
 被写体A3はディスパリティ=0である。
 被写体A3は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体A3の位置は表示画面210上の位置241となる。
 被写体B3はディスパリティ=DB3である。
 被写体B3は、左画像と右画像の表示画面210上の距離がDB3であり、ディスパリティがDB3となる。
 観察者が実感する被写体B3の位置は観察者から表示画面210より遠い位置242となる。
 ただし、観察者が実感する被写体B3の位置は、図13(a)に示す変換前の入力画像における被写体位置Bより観察者から遠い(表示画面210からも遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体C3はディスパリティ=DC3である。
 なお、DB3<DC3である。
 被写体C3は、左画像と右画像の表示画面210上の距離がDC3であり、ディスパリティがDC3となる。
 観察者が実感する被写体C3の位置は観察者から表示画面210より遠く、さらに被写体B2より遠い位置243となる。
 ただし、観察者が実感する被写体C3の位置は、図13(a)に示す変換前の入力画像における被写体位置Cより観察者から遠い(表示画面210からも遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、本実施例2では、前述の実施例1と逆方向の画像シフトが実行される。
 すなわち、B点は左画像位置が左方向に少し移動し、右画像位置が右方向に少し移動することにより、ディスパリティが大きくなる。すなわち、ディスパリティは、DBからDB3に大きくなる。
 さらに奥に位置するC点では、左画像位置が左方向に大きく移動し、右画像位置が右方向に大きく移動し、ディスパリティがさらに大きくなる。
 ディスパリティは、DCからDC3に大きくなる。
 なお、
 (DC3-DC)>(DB3-DB)
 であり、奥の被写体のほうが、ディスパリティの拡大幅が大きくなる。
 この結果、図13(a),(b)の視差範囲S1,S3を比較して理解されるように、
 変換前の入力画像の視差範囲S1(A~C)は、変換後の出力画像(視差調整画像)の視差範囲S3(A3~C3)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲S3(A3~C3)は、入力画像の視差範囲S1(A~C)より拡大される。
 図13を参照して説明した視差拡大効果は、先に図12を参照して説明した画像シフトの結果もたらされる効果である。
 すなわち、左画像微分処理部113で、図12(L2)に示す係数により微分を行い、微分信号を左画像に加算、または微分信号を非線形処理後に左画像に加算することにより、合焦位置から離れた被写体では入力画像に対して左方向に画像がずれる。
 また、右画像微分処理部123で、図12(R2)に示す係数により微分を行い、微分信号を右画像に加算、または微分信号を非線形処理後に右画像に加算することにより、合焦位置から離れた被写体では入力画像に対して右方向に画像がずれる。
 この結果、左画像と右画像の間のディスパリティは、入力画像に対して大きくなり、図13(a)の視差範囲S1から図13(b)に示す視差範囲S3のように視差範囲を拡大することができる。
 なお、画像処理装置100の実行する画像変換処理では、前述の通り、変換対象画像となる画像において焦点が合った画素位置(例えば一番手前の被写体など)で最もディスパリティの変化が小さく、合焦位置から離れるに従ってディスパリティの変化が大きくなる。
 図13に示す状況では、一番手前のA点で焦点があっており、奥に行くに従って被写体ボケが大きくなると考えると、A点はディスパリティがほとんど変化しない。
 一番手前のA点で焦点があっている場合、画像は被写体が奥に行く(A→B→C)に従って焦点から遠ざかることによりボケが大きくなると考えられる。
 この場合、被写体A,B,Cの、
 画像変換前のディスパリティをDA,DB,DCとし、
 画像変換後のディスパリティをDA3,DB3,DC3とすると、
 ディスパリティの変化幅は、
 (DC3-DC)>(DB3-DB)>(DA3-DA)≒0
 このような設定となる。
  [C.実施例3:表示部の表示面より手前に設定された視差範囲の制御(縮小/拡大)処理例]
 実施例1と実施例2では、画像処理装置に対して入力する3次元表示用の画像、すなわち、左画像(L1)10と右画像(R1)20の視差設定が表示部の表示面から奥側、すなわち観察者から遠い位置に設定される画像である場合の処理例を説明した。すなわち、
 実施例1では表示部の表示面より奥側に設定された視差範囲の縮小、
 実施例2では表示部の表示面より奥側に設定された視差範囲の拡大、
 これらの処理例について説明した、
 しかし、3次元画像の表示に適用する画像は、実施例1,2で説明した画像に限らず、表示部の表示面の手前側、すなわち観察者に近い位置に飛び出すように視差を設定した画像もある。
 以下、実施例3として、視差制御を行なう入力画像が表示面より手前側(観察者方向)に被写体の観察位置が設定される3次元画像である場合の処理例を説明する。
 実施例3(a)では表示部の表示面より手前に設定された視差範囲の縮小、
 実施例3(b)では表示部の表示面より手前に設定された視差範囲の拡大、
 これらの処理例について、順次説明する。
 なお、本実施例3は実施例1で説明した図1の画像処理装置100と同一の構成によって実現される。
 (a)表示部の表示面より手前に設定された視差範囲の縮小処理例
 まず、表示部の表示面より手前に設定された視差範囲の縮小処理例について、図14を参照して説明する。
 図14には、以下の各図を示している。
 (a)入力画像の視差範囲S1
 (b)視差調整画像の視差範囲S4
 なお、図14(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 前述の実施例1,2と同様、視差の指標値として、同一被写体の表示画面上の距離であるディスパリティを用いて説明する。
 図14(a)は視差調整前の入力画像に対応する図である。
 図14(a)において、
 被写体Eは、ディスパリティ=DE=0、
 被写体Fは、ディスパリティ=DF、
 被写体Gは、ディスパリティ=DG、
 である。各ディスパリティの大きさは、
 DG>DF>DE≒0
 上記のような関係にある。
 ユーザの実感する被写体の観察位置は、Eがディスプレイ上、Fはディスプレイより手前(観察者に近い)、GはFよりさらに観察者に近い位置となる。
 観察者の観察する視差範囲は、最も遠い表示画面位置のE点から、最も近い被写体観察位置であるG点までの幅[S1]になる。
 先に説明したように、被写体は、観察者の左眼201と表示画面210上の左画像の表示位置を結ぶ直線と、観察者の右眼202と表示画面210上の右画像の表示位置を結ぶ直線との交点である空間上の点に位置するように観察される。
 本実施例では、その交点が表示画面210より手前(観察者に近い方向)に設定されるように、左画像と右画像の各被写体の画像(E~G右画像とE~G左画像)が設定されている。
 このような設定の3次元画像である場合、図14(a)に示すように、観察者は、各被写体を表示画面210より近い位置に実感することになる。
 前述の通り、図14(a)に示す入力画像の視差範囲は、最も遠い表示画面位置のE点から、最も近い被写体観察位置であるG点までの幅[S1]になる。
 図14(b)は、本実施例3(a)に従って、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体E4,F4,G4は、図14(a)のE,F,Gと同じ被写体であるが、前述した変換処理により画像シフトが実行されているため観察者によって観察される被写体位置が変化する。
 被写体E4はディスパリティ=0である。
 被写体E4は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体E4の位置は表示画面210上の位置となる。
 被写体F4はディスパリティ=DF4である。
 被写体F4は、左画像と右画像の表示画面210上の距離がDF4であり、ディスパリティがDF4となる。
 観察者が実感する被写体F4の位置は表示画面210から手前、すなわち観察者側の位置F4となる。
 ただし、観察者が実感する被写体F4の位置は、図14(a)に示す変換前の入力画像における被写体位置Fより観察者から遠い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体G4はディスパリティ=DG4である。
 なお、DF4<DG4である。
 被写体G4は、左画像と右画像の表示画面210上の距離がDG4であり、ディスパリティがDG4となる。
 観察者が実感する被写体G4の位置は表示画面210から手前、すなわち観察者側の位置G4となる。
 ただし、観察者が実感する被写体G4の位置は、図14(a)に示す変換前の入力画像における被写体位置Gより観察者から遠い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、本実施例3(a)では、前述の実施例2と同方向の画像シフトが実行される。
 具体的には、図12を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については左方向へのシフト処理、
 右画像(R1)20については右方向へのシフト処理、
 これらの画像シフト処理が実行される。
 この結果、左画像のF位置(図14(a)F左画像)が左方向に少し移動して図14(b)F4左画像位置となり、右画像のF位置(図14(a)F右画像)が右方向に少し移動して図14(b)F4右画像位置となる。これにより、ディスパリティが小さくなる。すなわち、ディスパリティは、DFからDF4に小さくなる。
 さらに手前(観察者側)に位置するG点では、左画像のG位置(図14(a)G左画像)が左方向に大きく移動して図14(b)G4左画像位置となり、右画像のG位置(図14(a)G右画像)が右方向に大きく移動して図14(b)G4右画像位置となる。この移動により、ディスパリティがさらに小さくなる。
 ディスパリティは、DGからDG4に小さくなる。
 なお、
 (DG-DG4)>(DF-DF4)
 であり、手前(表示画面210から遠い)の被写体のほうが、ディスパリティの縮小幅が大きくなる。
 この結果、図14(a),(b)の視差範囲S1,S4を比較して理解されるように、
 変換前の入力画像の視差範囲S1(E~G)は、変換後の出力画像(視差調整画像)の視差範囲S4(E4~G4)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲S4(E4~G4)は、入力画像の視差範囲S1(E~G)より縮小される。
 図14を参照して説明した視差範囲縮小効果は、画像処理装置100による画像シフトの結果もたらされる効果である。
 本実施例3(a)では、左画像微分器112において、実施例2と同様、図12(L2)に示す微分フィルタ係数、すなわち、
 [-1,0,1]
 この微分フィルタ係数を適用した微分処理が実行され、図12(L1),(L2)に示すように左画像は左方向へシフトされる。
 また、右画像微分器122において、図12(R2)に示す微分フィルタ係数、すなわち、
 [1,0,-1]
 この微分フィルタ係数を適用した微分処理が実行され、図12(R1),(R2)に示すように右画像は右方向へシフトされる。
 図14に示すように、左画像微分処理部113で、図12(L2)に示す係数により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力画像に対して左方向に画像がずれた変換画像が生成される。
 また、右画像微分処理部123で、図12(R2)に示す係数により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力画像に対して右方向に画像がずれた変換画像が生成される。
 この結果、左画像と右画像の間のディスパリティは、入力画像に対して小さくなり、図14(a)の視差範囲S1から図14(b)に示す視差範囲S4のように視差範囲を縮小することができる。
 なお、本実施例でも、変換対象画像となる画像において焦点が合った画素位置(被写体E)で最もディスパリティの変化が小さく、合焦位置から離れるに従って(E→F→G)ディスパリティの変化が大きくなる設定としている。
 (b)表示部の表示面より手前に設定された視差範囲の拡大処理例
 次に、表示部の表示面より手前に設定された視差範囲の拡大処理例について、図15を参照して説明する。
 図15には、以下の各図を示している。
 (a)入力画像の視差範囲S1
 (b)視差調整画像の視差範囲S4
 なお、図15(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 前述の実施例と同様、視差の指標値として、同一被写体の表示画面上の距離であるディスパリティを用いて説明する。
 図15(a)は視差調整前の入力画像に対応する図であり、図14(a)に示す図と同じである。
 図15(a)において、
 被写体Eは、ディスパリティ=DE=0、
 被写体Fは、ディスパリティ=DF、
 被写体Gは、ディスパリティ=DG、
 である。各ディスパリティの大きさは、
 DG>DF>DE≒0
 上記のような関係にある。
 ユーザの実感する被写体の観察位置は、Eがディスプレイ上、Fはディスプレイより手前(観察者に近い)、GはFよりさらに観察者に近い位置となる。
 この図15(a)に示す設定は、先に説明した図14(a)と同様の設定であり、観察者は、各被写体を表示画面210より近い位置に実感することになる。
 図15(a)に示す入力画像の視差範囲は、最も遠い表示画面位置のE点から、最も近い被写体観察位置であるG点までの幅[S1]になる。
 図15(b)は、本実施例3(b)に従って、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体E5,F5,G5は、図15(a)のE,F,Gと同じ被写体であるが、前述した変換処理により画像シフトが実行されているため観察者によって観察される被写体位置が変化する。
 被写体E5はディスパリティ=0である。
 被写体E5は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体E5の位置は表示画面210上の位置となる。
 被写体F5はディスパリティ=DF5である。
 被写体F5は、左画像と右画像の表示画面210上の距離がDF5であり、ディスパリティがDF5となる。
 観察者が実感する被写体F5の位置は表示画面210から手前、すなわち観察者側の位置F5となる。
 ただし、観察者が実感する被写体F5の位置は、図15(a)に示す変換前の入力画像における被写体位置Fより観察者に近い(表示画面210から遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体G5はディスパリティ=DG5である。
 なお、DF5<DG5である。
 被写体G5は、左画像と右画像の表示画面210上の距離がDG5であり、ディスパリティがDG5となる。
 観察者が実感する被写体G5の位置は表示画面210から手前、すなわち観察者側の位置G5となる。
 ただし、観察者が実感する被写体G5の位置は、図15(a)に示す変換前の入力画像における被写体位置Gより観察者に近い(表示画面210から遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、本実施例3(b)では、前述の実施例1と同方向の画像シフトが実行される。
 具体的には、図6を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については右方向へのシフト処理、
 右画像(R1)20については左方向へのシフト処理、
 これらの画像シフト処理が実行される。
 この結果、左画像のF位置(図15(a)F左画像)が右方向に少し移動して図15(b)F5左画像位置となり、右画像のF位置(図15(a)F右画像)が左方向に少し移動して図15(b)F5右画像位置となる。これにより、ディスパリティが大きくなる。すなわち、ディスパリティは、DFからDF5に大きくなる。
 さらに手前(観察者側)に位置するG点では、左画像のG位置(図15(a)G左画像)が右方向に大きく移動して図15(b)G5左画像位置となり、右画像のG位置(図15(a)G右画像)が左方向に大きく移動して図15(b)G5右画像位置となる。これにより、ディスパリティが大きくなる。すなわち、ディスパリティは、DGからDG5に大きくなる。
 なお、
 (DG5-DG)>(DF5-DF)
 であり、手前(表示画面210から遠い)の被写体のほうが、ディスパリティの拡大幅が大きくなる。
 この結果、図15(a),(b)の視差範囲S1,S5を比較して理解されるように、
 変換前の入力画像の視差範囲S1(E~G)は、変換後の出力画像(視差調整画像)の視差範囲S5(E5~G5)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲S5(E5~G5)は、入力画像の視差範囲S1(E~G)より拡大される。
 図15を参照して説明した視差範囲縮小効果は、画像処理装置100による画像シフトの結果もたらされる効果である。
 本実施例3(b)では、先に説明した実施例1と同様の微分処理が行われ、図6を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については左方向へのシフト処理、
 右画像(R1)20については右方向へのシフト処理、
 これらの画像シフト処理が実行される。
 本実施例3(b)では、左画像微分器112において、図6(L2)に示す微分フィルタ係数、すなわち、
 [1,0,-1]
 この微分フィルタ係数を適用した微分処理が実行され、図6(L1),(L2)に示すように左画像は右方向へシフトされる。
 また、右画像微分器122において、図6(R2)に示す微分フィルタ係数、すなわち、
 [-1,0,1]
 この微分フィルタ係数を適用した微分処理が実行され、図6(R1),(R2)に示すように右画像は左方向へシフトされる。
 図6に示すように、左画像微分処理部113で、図6(L2)に示す係数により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力画像に対して右方向に画像がずれた変換画像が生成される。
 また、右画像微分処理部123で、図6(R2)に示す係数により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力画像に対して左方向に画像がずれた変換画像が生成される。
 この結果、左画像と右画像の間のディスパリティは、入力画像に対して大きくなり、図15(a)の視差範囲S1から図15(b)に示す視差範囲S5のように視差範囲を拡大することができる。
 なお、本実施例でも、変換対象画像となる画像において焦点が合った画素位置(被写体E)で最もディスパリティの変化が小さく、合焦位置から離れるに従って(E→F→G)ディスパリティの変化が大きくなる設定としている。
  [D.実施例4:表示部の表示面の前後に設定された視差範囲の制御処理例]
 次に、表示部の表示面の前後に視差範囲を設定した画像を入力した場合の視差制御処理例について説明する。
 実施例1,2では、表示面の奥に視差範囲が設定された画像に対する処理例を説明し、実施例3では表示面の手前に視差範囲の設定された画像に対する処理例を説明した。このように視差範囲の設定は、左画像と右画像における被写体位置を変更することで様々な態様に設定できる。従って、表示部の表示面の前後に視差範囲を設定した画像も生成できる。以下では、このような表示部の表示面の前後に視差範囲を設定した画像を入力して視差制御を行なう構成例について説明する。
 なお、本実施例4は実施例1で説明した図1の画像処理装置100と同一の構成によって実現される。
 実施例4では、実施例3と同様、以下の2つの処理例について説明する。
 (a)左画像を右方向にシフトし、右画像を左方向にシフトする処理例
 (b)左画像を左方向にシフトし、右画像を右方向にシフトする処理例
 これらの処理例について、順次説明する。
 (a)左画像を右方向にシフトし、右画像を左方向にシフトする処理例
 まず、図16を参照して、画像処理装置100に入力する左画像(L1)10を右方向にシフトし、右画像(R1)20を左方向にシフトする処理例について説明する。
 本処理例は、先の実施例1において説明した図6に示す処理に対応する処理を実行する。
すなわち、
 左画像(L1)10については右方向へのシフト処理、
 右画像(R1)20については左方向へのシフト処理、
 これらの画像シフト処理が実行される。
 本実施例4(a)では、左画像微分器112において、図6(L2)に示す微分フィルタ係数、すなわち、
 [1,0,-1]
 この微分フィルタ係数を適用した微分処理が実行され、図6(L1),(L2)に示すように左画像は右方向へシフトされる。
 また、右画像微分器122において、図6(R2)に示す微分フィルタ係数、すなわち、
 [-1,0,1]
 この微分フィルタ係数を適用した微分処理が実行され、図6(R1),(R2)に示すように右画像は左方向へシフトされる。
 図16を参照して、本実施例4(a)における視差制御処理例について説明する。
 図16には、以下の各図を示している。
 (a)入力画像の視差範囲T1
 (b)視差調整画像の視差範囲T5
 なお、図16(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 本実施例では、観察者(ユーザ)が被写体の位置を表示画面の前後に実感される設定とした画像を入力画像としている。
 先に説明したように、被写体は、観察者の左眼201と表示画面210上の左画像の表示位置を結ぶ直線と、観察者の右眼202と表示画面210上の右画像の表示位置を結ぶ直線との交点である空間上の点に位置するように観察される。
 本実施例では、その交点が表示画面210の前後に設定されるように、左画像と右画像の各被写体の画像(H~J右画像とH~J左画像)が設定されている。
 具体的には、
 被写体Hが表示画面210上に観察され、
 被写体Iが表示画面210の手前(観察者側)に観察され、
 被写体Jが表示画面210の奥側に観察される設定となった入力画像である。
 前述の実施例と同様、視差の指標値として、同一被写体の表示画面上の距離であるディスパリティを用いて説明する。
 図16(a)は視差調整前の入力画像に対応する図である。
 図16(a)において、
 被写体Hは、ディスパリティ=DH=0、
 被写体Iは、ディスパリティ=DI、
 被写体Jは、ディスパリティ=DJ、
 ここで、被写体Iのディスパリティは、被写体Iの像が表示画面210の手前に観察される設定であり、被写体Jのディスパリティは、被写体Jの像が表示画面210の奥に観察される設定である。
 すなわち、図16(a)の表示画面210上の配置から理解されるように、
 左画像における被写体Iの画像(I左画像)は表示画面210の右側、
 右像における被写体Iの画像(I右画像)は表示画面210の左側に設定されている。
 これに対して、
 左画像における被写体Jの画像(J左画像)は表示画面210の左側、
 右像における被写体Jの画像(J右画像)は表示画面210の右側に設定されている。
 このような設定により、被写体Iが表示画面210の手前(観察者側)に観察され、被写体Jが表示画面210の奥側に観察される。
 観察者の観察する視差範囲は、観察者から最も遠いJ点から、最も近いI点までの幅[T1]になる。
 図16(b)は、本実施例4(a)に従って、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体H6,I6,J6は、図16(a)のH,I,Jと同じ被写体であるが、前述した変換処理により画像シフトが実行されているため観察者によって観察される被写体位置が変化する。
 被写体H6はディスパリティ=0である。
 被写体H6は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体H6の位置は表示画面210上の位置となる。
 被写体I6はディスパリティ=DI6である。
 被写体I6は、左画像と右画像の表示画面210上の距離がDI6であり、ディスパリティがDI6となる。
 観察者が実感する被写体I6の位置は表示画面210から手前、すなわち観察者側の位置I6となる。
 ただし、観察者が実感する被写体I6の位置は、図16(a)に示す変換前の入力画像における被写体位置Iより観察者に近い(表示画面210から遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体J6はディスパリティ=DJ6である。
 被写体J6は、左画像と右画像の表示画面210上の距離がDJ6であり、ディスパリティがDJ6となる。
 観察者が実感する被写体J6の位置は表示画面210の奥、すなわち観察者から最も遠い位置J6となる。
 ただし、観察者が実感する被写体J6の位置は、図16(a)に示す変換前の入力画像における被写体位置Jより観察者に近い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、本実施例4(a)では、前述の実施例1と同方向の画像シフトが実行される。
 具体的には、図6を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については右方向へのシフト処理、
 右画像(R1)20については左方向へのシフト処理、
 これらの画像シフト処理が実行される。
 この結果、表示画面210の手前に観察される被写体Iについては以下のような処理が行われる。
 左画像のI位置(図16(a)I左画像)が右方向に移動して図16(b)I6左画像位置となり、右画像のI位置(図16(a)I右画像)が左方向に移動して図16(b)I6右画像位置となる。これにより、ディスパリティが大きくなる。すなわち、ディスパリティは、DIからDI6に大きくなる。
 さらに、表示画面210の奥に観察される被写体Jについては以下のような処理が行われる。
 左画像のJ位置(図16(a)J左画像)が右方向に移動して図16(b)J6左画像位置となり、右画像のJ位置(図16(a)J右画像)が左方向に移動して図16(b)J6右画像位置となる。これにより、ディスパリティが小さくなる。すなわち、ディスパリティは、DJからDJ6に小さくなる。
 このように、実施例4(a)の処理では、
 表示画面210の手前に観察される被写体Iではディスパリティが大きく変更され、より手前に観察されることになる。
 一方、表示画面210の奥に観察される被写体Jではディスパリティが小さく変更され、この場合も変換前より手前に観察されることになる。
 この結果、図16(a),(b)の視差範囲T1,T6を比較して理解されるように、
 変換前の入力画像の視差範囲T1(I~J)は、変換後の出力画像(視差調整画像)の視差範囲T6(I6~J6)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲T6(I6~J6)は、入力画像の視差範囲T1(I~J)を全体として観察者側に近づけるように制御される。
 図16を参照して説明した視差範囲移動効果は、画像処理装置100による画像シフトの結果もたらされる効果である。
 本実施例4(a)では、前述したように、先に説明した実施例1と同様の微分処理が行われ、図6を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については右方向へのシフト処理、
 右画像(R1)20については左方向へのシフト処理、
 これらの画像シフト処理が実行される。
 図6に示すように、左画像微分処理部113で、図6(L2)に示す係数により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力画像に対して右方向に画像がずれた変換画像が生成される。
 また、右画像微分処理部123で、図6(R2)に示す係数により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力画像に対して左方向に画像がずれた変換画像が生成される。
 この結果、左画像と右画像の間のディスパリティが図16(a),(b)に示すように変更され、図16(a)の視差範囲T1から図16(b)に示す視差範囲T6のように視差範囲を全体としてより観察者側に近づけることができる。
 なお、本実施例でも、変換対象画像となる画像において焦点が合った画素位置(被写体E)で最もディスパリティの変化が小さく、合焦位置から離れるに従ってディスパリティの変化が大きくなる設定としている。
 (b)左画像を左方向にシフトし、右画像を右方向にシフトする処理例
 次に、図17を参照して、画像処理装置100に入力する左画像(L1)10を左方向にシフトし、右画像(R1)20を右方向にシフトする処理例について説明する。
 本処理例は、先の実施例2において説明した図12に示す処理に対応する処理を実行する。
すなわち、
 左画像(L1)10については左方向へのシフト処理、
 右画像(R1)20については右方向へのシフト処理、
 これらの画像シフト処理が実行される。
 本実施例4(a)では、左画像微分器112において、図12(L2)に示す微分フィルタ係数、すなわち、
 [-1,0,1]
 この微分フィルタ係数を適用した微分処理が実行され、図12(L1),(L2)に示すように左画像は左方向へシフトされる。
 また、右画像微分器122において、図12(R2)に示す微分フィルタ係数、すなわち、
 [1,0,-1]
 この微分フィルタ係数を適用した微分処理が実行され、図6(R1),(R2)に示すように右画像は右方向へシフトされる。
 図17を参照して、本実施例4(b)における視差制御処理例について説明する。
 図17には、以下の各図を示している。
 (a)入力画像の視差範囲T1
 (b)視差調整画像の視差範囲T5
 なお、図17(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 本実施例では、観察者(ユーザ)が被写体の位置を表示画面の前後に実感される設定とした画像を入力画像としている。
 図17(a)は、先に説明した図16(a)と同様の入力画像の視差範囲T1を示す図である。
 具体的には、
 被写体Hが表示画面210上に観察され、
 被写体Iが表示画面210の手前(観察者側)に観察され、
 被写体Jが表示画面210の奥側に観察される設定となった入力画像である。
 図17(a)において、
 被写体Hは、ディスパリティ=DH=0、
 被写体Iは、ディスパリティ=DI、
 被写体Jは、ディスパリティ=DJ、
 ここで、被写体Iのディスパリティは、被写体Iの像が表示画面210の手前に観察される設定であり、被写体Jのディスパリティは、被写体Jの像が表示画面210の奥に観察される設定である。
 観察者の観察する視差範囲は、観察者から最も遠いJ点から、最も近いI点までの幅[T1]になる。
 図17(b)は、本実施例4(b)に従って、図1に示す画像処理装置100において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体H7,I7,J7は、図17(a)のH,I,Jと同じ被写体であるが、前述した変換処理により画像シフトが実行されているため観察者によって観察される被写体位置が変化する。
 被写体H7はディスパリティ=0である。
 被写体H7は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体H7の位置は表示画面210上の位置となる。
 被写体I7はディスパリティ=DI7である。
 被写体I7は、左画像と右画像の表示画面210上の距離がDI7であり、ディスパリティがDI7となる。
 観察者が実感する被写体I7の位置は表示画面210から手前、すなわち観察者側の位置I7となる。
 ただし、観察者が実感する被写体I7の位置は、図17(a)に示す変換前の入力画像における被写体位置Iより観察者から遠い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 被写体J7はディスパリティ=DJ7である。
 被写体J7は、左画像と右画像の表示画面210上の距離がDJ7であり、ディスパリティがDJ7となる。
 観察者が実感する被写体J7の位置は表示画面210の奥、すなわち観察者から最も遠い位置J7となる。
 ただし、観察者が実感する被写体J7の位置は、図17(a)に示す変換前の入力画像における被写体位置Jより観察者から遠い(表示画面210からも遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 画像処理装置100の画像変換処理により、本実施例4(b)では、前述の実施例2と同方向の画像シフトが実行される。
 具体的には、図12を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については左方向へのシフト処理、
 右画像(R1)20については右方向へのシフト処理、
 これらの画像シフト処理が実行される。
 この結果、表示画面210の手前に観察される被写体Iについては以下のような処理が行われる。
 左画像のI位置(図17(a)I左画像)が左方向に移動して図17(b)I7左画像位置となり、右画像のI位置(図17(a)I右画像)が右方向に移動して図17(b)I7右画像位置となる。これにより、ディスパリティが小さくなる。すなわち、ディスパリティは、DIからDI7に小さくなる。
 さらに、表示画面210の奥に観察される被写体Jについては以下のような処理が行われる。
 左画像のJ位置(図17(a)J左画像)が左方向に移動して図17(b)J7左画像位置となり、右画像のJ位置(図17(a)J右画像)が右方向に移動して図17(b)J7右画像位置となる。これにより、ディスパリティが大きくなる。すなわち、ディスパリティは、DJからDJ7に大きくなる。
 このように、実施例4(b)の処理では、
 表示画面210の手前に観察される被写体Iではディスパリティが小さく変更され、観察者から遠い位置、すなわち表示画面210に近い位置に観察されることになる。
 一方、表示画面210の奥に観察される被写体Jではディスパリティが大きく変更され、この場合も変換前より、観察者からより遠い位置に観察されることになる。
 この結果、図17(a),(b)の視差範囲T1,T7を比較して理解されるように、
 変換前の入力画像の視差範囲T1(I~J)は、変換後の出力画像(視差調整画像)の視差範囲T7(I7~J7)に変化する。
 すなわち、この例では、出力画像(視差調整画像)の視差範囲T7(I7~J7)は、入力画像の視差範囲T1(I~J)を全体として観察者から遠ざけるように制御される。
 図17を参照して説明した視差範囲移動効果は、画像処理装置100による画像シフトの結果もたらされる効果である。
 本実施例4(b)では、前述したように、先に説明した実施例2と同様の微分処理が行われ、図12を参照して説明したと同様の画像シフト処理が実行される。すなわち、
 左画像(L1)10については左方向へのシフト処理、
 右画像(R1)20については右方向へのシフト処理、
 これらの画像シフト処理が実行される。
 図12に示すように、左画像微分処理部113で、図12(L2)に示す係数により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力画像に対して左方向に画像がずれた変換画像が生成される。
 また、右画像微分処理部123で、図12(R2)に示す係数により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力画像に対して右方向に画像がずれた変換画像が生成される。
 この結果、左画像と右画像の間のディスパリティが図17(a),(b)に示すように変更され、図17(a)の視差範囲T1から図17(b)に示す視差範囲T7のように視差範囲を全体としてより観察者から遠ざけることができる。
 なお、本実施例でも、変換対象画像となる画像において焦点が合った画素位置(被写体E)で最もディスパリティの変化が小さく、合焦位置から離れるに従ってディスパリティの変化が大きくなる設定としている。
 ここまで、説明した実施例1~実施例4の構成は、左画像と右画像の画素ごとに対応するディスパリティ(像差)を記述したディスパリティマップを生成する処理や、ディスパリティマップの利用処理が不要であるため処理コストが小さく、回路の小型化が容易である。
 次に、簡易的なディスパリティマップを利用した実施例について説明する。
  [E.実施例5:簡易なディスパリティマップを利用した視差制御を行う実施例]
 次に、実施例5として、簡易なディスパリティマップを利用して視差制御を実行する画像処理装置の構成と処理例について説明する。
 以下に説明する実施例は、簡易的なディスパリティマップを生成することにより、視差範囲の制御をより的確に行うことが可能な画像変換装置を実現する。
 実施例5に係る画像処理装置300の構成例を図18に示す。図18に示す画像処理装置300は、先に実施例1の画像処理装置とし説明した図1に示す画像処理装置100に視差検出部301を追加した構成である。その他の構成は、図1に示す構成と同一である。
 画像処理装置300は、図18に示すように左画像(L1画像)10を入力して画像変換を行い、視差調整が施された視差調整左画像(L2画像)50を生成する左画像変換部110と、右画像(R1画像)20を入力して画像変換を行い、視差調整が施された視差調整右画像(R2画像)60を生成する右画像変換部120、さらに、視差検出部301を有する。
 左画像変換部110は、左画像(L1)10を入力する左画像入力部111、左画像10の微分処理を行う左画像微分処理部112、左画像10の微分信号を非線形変換する左非線形変換部113、左画像10と非線形変換された微分信号を合成する左画像合成部114、変換後の視差調整左画像(L2)50を出力する左画像出力部115から構成される。
 右画像変換部120は、右画像(R1)20を入力する右画像入力部121、右画像20の微分処理を行う右画像微分処理部122、右画像20の微分信号を非線形変換する右非線形変換部123、右画像20と非線形変換された微分信号を合成する右画像合成部124、変換後の視差調整右画像(R2)60を出力する右画像出力部125から構成される。
 この左画像変換部110と右画像変換部120は、先に実施例1~4において説明した処理と同様の処理を実行する。
 視差検出部301は、左画像変換部110の左画像入力部111から出力される左画像輝度信号と、右画像変換部120の右画像入力部121から出力される右画像輝度信号を受信し、左画像と右画像において同一被写体を示すと判断される水平方向の対応画素位置を検出する。
 本実施例における視差検出部301は、左画像と右画像の対応画素位置(以下、対応点と呼ぶ)の位置関係について、以下の判定結果を取得する。
 (a)左画像の対応点が右画像の対応点よりも左に位置する。
 (b)左画像の対応点が右画像の対応点よりも右に位置する。
 この2つのパターンのいずれであるかを判定する。
 (a)左画像の対応点が右画像の対応点よりも左に位置する。
 (a)の場合は、先に実施例4において説明した図17(a)を参照して説明すると、被写体Jの左画像と右画像の対応関係となる。
 すなわち、左画像の対応点(J左画像)は、右画像の対応点(J右画像)よりも左に位置する。
 なお、このような設定の場合、その被写体の観察される位置は、表示画面より奥側(観察者から遠い位置)となる。
 (b)左画像の対応点が右画像の対応点よりも右に位置する。
 (b)の場合は、先に実施例4において説明した図17(a)を参照して説明すると、被写体Iの左画像と右画像の対応関係となる。
 すなわち、左画像の対応点(I左画像)は、右画像の対応点(I右画像)よりも右に位置する。
 なお、このような設定の場合、その被写体の観察される位置は、表示画面より手前側(観察者に近い位置)となる。
 以下では、
 (a)左画像の対応点が右画像の対応点よりも左に位置する。
 この場合のディスパリティを正のディスパリティとする。
 (b)左画像の対応点が右画像の対応点よりも右に位置する。
 この場合のディスパリティを負のディスパリティとする。
 正のディスパリティの場合は、被写体の観察される位置は、表示画面より奥側(観察者から遠い位置)となる。
 負のディスパリティの場合は、被写体の観察される位置は、表示画面より手前側(観察者に近い位置)となる。
 一般的なディスパリティマップは、左画像と右画像の各画素対応の正確な画素ずれ量(画素数)を保持する設定であるが、本実施例では、視差検出部301は、各画素または複数画素からなるブロックについて、上述のディスパリティの正負(極性)のみを検出する。
 視差検出部301は、この画素またはブロック対応のディスパリティ極性情報からなる粗いディスパリティマップを生成して、左画像変換部110の左画像微分処理部112と、右画像変換部120の右画像微分処理部122に入力する。
 なお、本実施例の画像処理装置300における視差検出部301の実行する視差検出処理は、視差の高い数値精度を得るような複雑な視差検出処理は必要ない。ディスパリティマップは、例えば微分処理部のフィルタ係数の制御に用いるが、画像の水平移動は、原理上、入力画像の空間周波数に依存するため、ディスパリティマップの空間解像度は視差制御の性能に大きく影響しない。従って、視差検出処理は縮小した画像を用いる構成としてもよい。または、入力画像を空間的に間引いた点のみで視差情報を検出する構成としてもよい。このような構成により、処理コストを削減することが可能である。
 左画像微分処理部112、および右画像微分処理部122は、それぞれ、入力されるディスパリティマップの対象画素位置での極性に応じて微分処理の態様を切り換える。具体的には、例えば、先に実施例1,2において説明した図6に示す設定の微分フィルタを適用した処理と、図12に示す設定の微分フィルタを適用した処理とを適宜、切り換える処理を行う。
 すなわち、
 (1)左画像を右方向にシフトし、右画像を左方向にシフトする処理(図6)、
 (2)左画像を左方向にシフトし、右画像を右方向にシフトする処理(図12)、
 これらのいずれかの処理をディスパリティマップの対象画素位置での極性に応じて切り換えて実行する。
 以下、図19および図20を参照して、ディスパリティの極性が2方向(表示画面の奥にも手前にも被写体が表示される)にあるような入力画像に対して、本実施例5の図18に示す画像処理装置300を適用した処理例として、以下の処理例について、順次説明する。
 実施例5(a)視差範囲を縮小する実施例
 実施例5(b)視差範囲を拡大する実施例
  (実施例5(a)視差範囲を縮小する実施例)
 まず、図19を参照して、ディスパリティの極性判定情報を適用して視差範囲を縮小する処理を行う実施例について説明する。
 図19は、先の各実施例において説明したと同様、以下の各図を示している。
 (a)入力画像の視差範囲U1
 (b)視差調整画像の視差範囲U8
 なお、図19(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 本実施例では、観察者(ユーザ)が被写体の位置を表示画面の前後に実感される設定とした画像を入力画像としている。
 図19(a)は、先に実施例4において説明した図16(a)、図17(a)と同様、被写体が表示画面210の前後に観察される。すなわち、
 被写体Kが表示画面210上に観察され、
 被写体Lが表示画面210の手前(観察者側)に観察され、
 被写体Mが表示画面210の奥側に観察される設定となった入力画像である。
 図19(a)において、
 被写体Kは、ディスパリティ=DH=0、
 被写体Lは、ディスパリティ=DL(ディスパリティ極性=負(-))、
 被写体Mは、ディスパリティ=DM(ディスパリティ極性=正(+))、
 ここで、被写体Lのディスパリティは極性が負であり、被写体Lの像が表示画面210の手前に観察される設定であり、被写体Mのディスパリティは極性が正であり、被写体Mの像が表示画面210の奥に観察される設定である。
 視差範囲は、被写体L~Mの観察位置に相当する視差範囲[U1]となる。
 図19(b)は、本実施例5(a)に従って、図18に示す画像処理装置300において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体K8,L8,M8は、図19(a)のK,L,Mと同じ被写体であるが、前述したディスパリティ極性に応じた画像シフトを伴う画像変換処理が実行されているため観察者によって観察される被写体位置が変化する。
 被写体K8はディスパリティ=0である。
 被写体K8は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体K8の位置は表示画面210上の位置となる。
 被写体L8はディスパリティ=DL8となる。
 被写体L8は、左画像と右画像の表示画面210上の距離がDL8であり、ディスパリティがDL8となる。
 観察者が実感する被写体L8の位置は表示画面210から手前、すなわち観察者側の位置L8となる。
 ただし、観察者が実感する被写体L8の位置は、図19(a)に示す変換前の入力画像における被写体位置Lより観察者から遠い(表示画面210に近い)位置に設定される。これは画像のシフト処理の結果である。
 このシフト処理においては、図19(a)に示す被写体LのディスパリティDLの極性が考慮される。
 前述したように、被写体Lは、ディスパリティ=DL(ディスパリティ極性=負(-))である。すなわち、左画像の対応点(L左画像)は、右画像の対応点(L右画像)よりも右に位置する。
 このようにディスパリティ極性=負(-)の画素位置(画素またはブロック)についての変換処理は、本実施例5(a)では、
 「左画像を左方向にシフトし、右画像を右方向にシフトする処理(図12参照)」を実行する。
 すなわち、図12に示すように、左画像微分処理部113で、図12(L2)に示す係数[-1,0,1]により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力左画像については左方向に画像がずれた変換画像を生成する。
 また、右画像微分処理部123では、図12(R2)に示す係数[1,0,-1]により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力右画像に対して右方向に画像がずれた変換画像を生成する。
 この画像変換処理により、被写体Lのディスパリティは、図19(a)の示すDLから図19(b)に示すDL8に変更される。結果として、左画像の対応点(L8左画像)と、右画像の対応点(L8右画像)の距離は小さくなり、結果として、被写体像L8は、変換前の図19(a)に示す被写体像Lの位置より、観察者から遠ざかる(表示画面210に近づく)方向に移動して設定される。
 一方、表示画面210の奥に位置する被写体Mは、画像変換前のディスパリティ=DMが、画像変換の結果、図19(b)に示すディスパリティ=DM8となる。
 観察者が実感する被写体M8の位置は表示画面210より奥の位置M8となる。
 ただし、観察者が実感する被写体M8の位置は、図19(a)に示す変換前の入力画像における被写体位置Mより観察者から近い(表示画面210に近い)位置に設定される。これは前述の画像のシフト処理の結果である。
 このシフト処理においても、図19(a)に示す被写体MのディスパリティDMの極性が考慮される。
 前述したように、被写体Mは、ディスパリティ=DM(ディスパリティ極性=正(+))である。すなわち、左画像の対応点(M左画像)は、右画像の対応点(M右画像)よりも左に位置する。
 このようにディスパリティ極性=正(+)の画素位置(画素またはブロック)についての変換処理は、本実施例5(a)では、
 「左画像を右方向にシフトし、右画像を左方向にシフトする処理(図6参照)」を実行する。
 すなわち、図6に示すように、左画像微分処理部113で、図6(L2)に示す係数[1,0,-1]により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力左画像については右方向に画像がずれた変換画像を生成する。
 また、右画像微分処理部123では、図6(R2)に示す係数[-1,0,1]により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力右画像に対して左方向に画像がずれた変換画像を生成する。
 この画像変換処理により、被写体Mのディスパリティは、図19(a)の示すDMから図19(b)に示すDM8に変更される。結果として、左画像の対応点(M8左画像)と、右画像の対応点(M8右画像)の距離は小さくなり、結果として、被写体像M8は、変換前の図19(a)に示す被写体像Mの位置より、観察者に近づく(表示画面210に近づく)方向に移動して設定される。
 この結果、変換画像によって表示される3次元画像の視差範囲は、図19(b)に示す視差範囲[U8]となる。
 変換後の視差範囲[U8]は、変換前の画像による視差範囲[U1]に比較して、表示画面の前後とも表示画面210に近づき、縮小された視差範囲となる。
 このように、本実施例5(a)によれば、表示画面の手前に観察される被写体と、表示画面の奥に観察される被写体について、それぞれ逆のパターンの微分フィルタ係数を用いた処理により、逆方向のシフト処理を実行する。すなわちディスパリティの極性に応じて異なるフィルタを選択適用して異なる方向への画像シフト処理(図6または図12)を実行する。
 この処理により、表示画面の手前に観察される被写体も、表示画面の奥に観察される被写体も、その観察位置を表示画面方向に移動させることが可能となり、結果として、より効率的に視差範囲を縮小(U1からU8)することが可能となる。
  (実施例5(b)視差範囲を拡大する実施例)
 次に、図20を参照して、ディスパリティの極性判定情報を適用して視差範囲を拡大する処理を行う実施例について説明する。
 図20は、先の各実施例において説明したと同様、以下の各図を示している。
 (a)入力画像の視差範囲U1
 (b)視差調整画像の視差範囲U9
 なお、図20(a),(b)には、さらに観察者(ユーザ)の左眼201、右眼202と、3次元画像表示を実行中の表示部の表示画面210を示している。
 表示画面210上には、被写体距離に応じた様々な視差を持つ画像が提示される。
 本実施例では、観察者(ユーザ)が被写体の位置を表示画面の前後に実感される設定とした画像を入力画像としている。
 図20(a)は、図19(a)と同様、被写体が表示画面210の前後に観察される。すなわち、
 被写体Kが表示画面210上に観察され、
 被写体Lが表示画面210の手前(観察者側)に観察され、
 被写体Mが表示画面210の奥側に観察される設定となった入力画像である。
 図20(a)において、
 被写体Kは、ディスパリティ=DH=0、
 被写体Lは、ディスパリティ=DL(ディスパリティ極性=負(-))、
 被写体Mは、ディスパリティ=DM(ディスパリティ極性=正(+))、
 ここで、被写体Lのディスパリティは極性が負であり、被写体Lの像が表示画面210の手前に観察される設定であり、被写体Mのディスパリティは極性が正であり、被写体Mの像が表示画面210の奥に観察される設定である。
 視差範囲は、被写体L~Mの観察位置に相当する視差範囲[U1]となる。
 図20(b)は、本実施例5(b)に従って、図18に示す画像処理装置300において変換された画像、すなわち例えば視差調整左画像(L2)50と、視差調整右画像(R2)60とによって表示される画像の観察状況を示している。
 被写体K9,L9,M9は、図20(a)のK,L,Mと同じ被写体であるが、前述したディスパリティ極性に応じた画像シフトを伴う画像変換処理が実行されているため観察者によって観察される被写体位置が変化する。
 被写体K9はディスパリティ=0である。
 被写体K9は、左画像と右画像が表示画面210上の同じ位置に表示されており、ディスパリティが0となる。
 観察者が実感する被写体K9の位置は表示画面210上の位置となる。
 被写体L9はディスパリティ=DL9となる。
 被写体L9は、左画像と右画像の表示画面210上の距離がDL9であり、ディスパリティがDL9となる。
 観察者が実感する被写体L9の位置は表示画面210から手前、すなわち観察者側の位置L9となる。
 ただし、観察者が実感する被写体L9の位置は、図20(a)に示す変換前の入力画像における被写体位置Lより観察者に近い(表示画面210から遠い)位置に設定される。これは画像のシフト処理の結果である。
 このシフト処理においては、図20(a)に示す被写体LのディスパリティDLの極性が考慮される。
 前述したように、被写体Lは、ディスパリティ=DL(ディスパリティ極性=負(-))である。すなわち、左画像の対応点(L左画像)は、右画像の対応点(L右画像)よりも右に位置する。
 このようにディスパリティ極性=負(-)の画素位置(画素またはブロック)についての変換処理は、本実施例5(b)では、先の実施例5(a)とは異なり、
 「左画像を右方向にシフトし、右画像を左方向にシフトする処理(図6参照)」を実行する。
 すなわち、図6に示すように、左画像微分処理部113で、図6(L2)に示す係数[1,0,-1]により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力左画像については右方向に画像がずれた変換画像を生成する。
 また、右画像微分処理部123では、図6(R2)に示す係数[-1,0,1]により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力右画像に対して左方向に画像がずれた変換画像を生成する。
 この画像変換処理により、被写体Lのディスパリティは、図20(a)の示すDLから図20(b)に示すDL9に変更される。結果として、左画像の対応点(L9左画像)と、右画像の対応点(L9右画像)の距離は大きくなり、結果として、被写体像L9は、変換前の図20(a)に示す被写体像Lの位置より、観察者に近づく(表示画面210から遠ざかる)方向に移動して設定される。
 一方、表示画面210の奥に位置する被写体Mは、画像変換前のディスパリティ=DMが、画像変換の結果、図20(b)に示すディスパリティ=DM9となる。
 観察者が実感する被写体M9の位置は表示画面210より奥の位置M9となる。
 ただし、観察者が実感する被写体M9の位置は、図20(a)に示す変換前の入力画像における被写体位置Mより観察者から遠い(表示画面210から遠い)位置に設定される。これは前述の画像のシフト処理の結果である。
 このシフト処理においても、図20(a)に示す被写体MのディスパリティDMの極性が考慮される。
 前述したように、被写体Mは、ディスパリティ=DM(ディスパリティ極性=正(+))である。すなわち、左画像の対応点(M左画像)は、右画像の対応点(M右画像)よりも左に位置する。
 このようにディスパリティ極性=正(+)の画素位置(画素またはブロック)についての変換処理は、本実施例5(b)では、
 「左画像を左方向にシフトし、右画像を右方向にシフトする処理(図12参照)」を実行する。
 すなわち、図12に示すように、左画像微分処理部113で、図12(L2)に示す係数[-1,0,1]により微分を行い、微分信号、または微分信号の非線形処理結果を左画像に加算する合成処理により、入力左画像については左方向に画像がずれた変換画像を生成する。
 また、右画像微分処理部123では、図12(R2)に示す係数[1,0,-1]により微分を行い、微分信号、または微分信号を非線形処理後に右画像に加算する合成処理により、入力右画像に対して右方向に画像がずれた変換画像を生成する。
 この画像変換処理により、被写体Mのディスパリティは、図20(a)の示すDMから図20(b)に示すDM9に変更される。結果として、左画像の対応点(M9左画像)と、右画像の対応点(M9右画像)の距離は大きくなり、結果として、被写体像M9は、変換前の図20(a)に示す被写体像Mの位置より、観察者から遠ざかる(表示画面210から遠ざかる)方向に移動して設定される。
 この結果、変換画像によって表示される3次元画像の視差範囲は、図20(b)に示す視差範囲[U9]となる。
 変換後の視差範囲[U9]は、変換前の画像による視差範囲[U1]に比較して、表示画面の前後とも表示画面210から遠ざかり、拡大された視差範囲となる。
 このように、本実施例5(b)によれば、表示画面の手前に観察される被写体と、表示画面の奥に観察される被写体について、それぞれ逆のパターンの微分フィルタ係数を用いた処理により、逆方向のシフト処理を実行する。すなわちディスパリティの極性に応じて異なるフィルタを選択適用して異なる方向への画像シフト処理(図6または図12)を実行する。
 この処理により、表示画面の手前に観察される被写体も、表示画面の奥に観察される被写体も、その観察位置を表示画面方向から遠ざかる方向に移動させることが可能となり、結果として、より効率的に視差範囲を拡大(U1からU9)することが可能となる。
 なお、本実施例でも、変換対象画像となる画像において焦点が合った画素位置(被写体E)で最もディスパリティの変化が小さく、合焦位置から離れるに従ってディスパリティの変化が大きくなる設定としている。
  [F.実施例6:シフト態様の制御用の信号を入力可能とした構成を有する実施例]
 次に、シフト態様の制御のための制御信号を入力可能とした構成を有する実施例について図21~23を参照して説明する。
 上述の実施例では、図1に示す構成において、左画像微分器112と右画像微分器122において適用する微分フィルタ係数について、図6や図12を参照して説明したように、[-1,0,1]と[1,0,-1]の組み合わせを利用する構成としている。
 具体的には、以下のような設定となっている。
 実施例1では、図6に従った微分フィルタ係数の設定(左画像微分器:[1,0,-1]、右画像微分器[-1,0,1])として、左画像を右方向にシフト、右画像を左方向にシフトする設定。
 実施例2では図12に従った設定(左画像微分器:[-1,0,1]、右画像微分器[1,0,-1])として、左画像を左方向にシフト、右画像を右方向にシフトする設定。
 実施例3(a)では図12に従った設定、
 実施例3(b)では図6に従った設定、
 実施例4(a)では図6に従った設定、
 実施例4(b)では図12に従った設定、
 実施例5(a)では図12に従った設定、
 実施例5(b)では図6に従った設定、
 このように、各実施例において、各微分器において適用する微分フィルタ係数を設定している。
 この微分フィルタ係数の設定態様に応じて、画像のシフト方向の制御が可能となる。
 また、微分フィルタ係数は、[-1,0,1],[1,0,-1]のような組み合わせに限らず、[-2,0,2],[2,0,-2]、さらには、[-1,-0.5,0,0.5,1],[1,0.5,0,-0.5,-1]の組み合わせ、あるいは一次微分フィルタ以外の2次元フィルタを適用するといった様々な設定が可能であり、この様な微分フィルタ係数の変更により、シフト態様を変更することが可能となる。
 また、上述の実施例1~5では、左線形変換部113、および右線形変換部123では、例えば図3に示すパターンに従った非線形変換処理を実行すると説明した。
 前述したように、この変換パターンを調整することで、シフト態様を制御できる。具体的には、例えば焦点のあった領域とボケ領域とのシフト比率などを変更する制御が可能となる。
 実施例6では、シフト方向やシフト態様を制御するための制御信号入力部を設けた構成である。
 図21に示す画像処理装置400は、図1に示す画像処理装置100に制御信号入力部401を追加した構成を有する。その他の構成は、図1に示す構成と同一である。
 画像処理装置400は、図21に示すように左画像(L1画像)10を入力して画像変換を行い、視差調整が施された視差調整左画像(L2画像)50を生成する左画像変換部110と、右画像(R1画像)20を入力して画像変換を行い、視差調整が施された視差調整右画像(R2画像)60を生成する右画像変換部120、さらに、視差検出部301を有する。
 左画像変換部110は、左画像(L1)10を入力する左画像入力部111、左画像10の微分処理を行う左画像微分処理部112、左画像10の微分信号を非線形変換する左非線形変換部113、左画像10と非線形変換された微分信号を合成する左画像合成部114、変換後の視差調整左画像(L2)50を出力する左画像出力部115から構成される。
 右画像変換部120は、右画像(R1)20を入力する右画像入力部121、右画像20の微分処理を行う右画像微分処理部122、右画像20の微分信号を非線形変換する右非線形変換部123、右画像20と非線形変換された微分信号を合成する右画像合成部124、変換後の視差調整右画像(R2)60を出力する右画像出力部125から構成される。
 この左画像変換部110と右画像変換部120は、先に実施例1~4において説明した処理と同様の処理を実行する。
 制御信号入力部401は、左画像微分器112と右画像微分器122において適用する微分態様を制御するための制御信号、および、左画像非線形変換部113と、右画像非線形変換部123に変換処理の制御信号を入力する。
 微分器の微分フィルタの設定制御構成の具体例について図22を参照して説明する。図22は、左画像微分器112の内部構成例を示す図である。
 左画像微分器112は、フィルタ選択部421、微分フィルタ適用部422を有する。
 微分フィルタ適用部422は、複数の異なる微分フィルタ係数を選択適用可能な構成を有している。フィルタ選択部421は、制御信号入力部401からの制御信号に応じて、特定の微分フィルタを選択し、選択した微分フィルタによって、左画像入力部111から入力する左画像の輝度信号に対する微分処理を実行する。
 例えばこのような構成により、様々な微分フィルタ係数を適用した微分処理が実現される。
 なお、図22は左画像微分器112の構成例として説明したが、右画像微分器122も同様の構成を有し、様々な微分フィルタ係数を適用した微分処理が実現される。
 図21に示すように、制御信号入力部401の制御信号は、左画像非線形変換部113と、右画像非線形変換部123にも制御信号を入力する。
 左画像非線形変換部113と、右画像非線形変換部123に入力される制御信号は、微分信号の変換処理態様を制御する信号である。先に説明した実施例では、例えば図3に示すパターンに従った非線形変換処理を実行する構成として説明したが、本実施例では、制御信号によって、変換パターンを様々な態様に制御可能な構成としている。制御信号は、例えば入力(In)に対して適用する関数Fとして設定可能である。
 この制御信号としての関数Fによって、
 出力Out=F(In)が決定される。
 このように変換パターンを調整することで、シフト態様を制御できる。具体的には、例えば焦点のあった領域とボケ領域とのシフト比率などを変更する制御が可能となる。
 なお、変換処理は非線形に限らず線形変換とする設定としてもよい。
 このように、図21に示す画像処理装置400は、左画像微分器112と右画像微分器122において適用する微分態様を制御するための制御信号、および、左画像非線形変換部113と、右画像非線形変換部123に変換処理の制御信号を入力可能な構成とした。
 この制御信号の入力により、画像のシフト方向やシフト態様の制御が可能となる。
 例えば変換後の画像を表示部に表示させて、表示画像をユーザが観察しながら制御信号を変更するといった処理により、ユーザの好みの視差範囲の設定や3次元画像の設定を実現することが可能となる。
 図21を参照して説明した構成は、前述した実施例1~4の構成として説明した図1の画像処理装置に制御信号入力部401を追加した構成であるが、実施例5の構成として説明した図18に示す画像処理装置300に制御信号入力部を追加した構成としてもよい。図23に、この画像処理装置500の構成例を示す。
 図23に示す画像処理装置500は、先に実施例5の画像処理装置として説明した図18に示す画像処理装置300に制御信号入力部501を追加した構成である。
 左画像変換部110、右画像変換部120、視差検出部301の構成および実行する処理は先に実施例5において説明したとほぼ同様である。
 ただし、図23に示す画像処理装置500は、左画像微分器112と右画像微分器122において適用する微分態様を制御するための制御信号、および、左画像非線形変換部113と、右画像非線形変換部123に変換処理の制御信号を入力可能な構成である。
 この制御信号の入力により、画像のシフト方向やシフト態様の制御が可能となる。
 例えば変換後の画像を表示部に表示させて、表示画像をユーザが観察しながら制御信号を変更するといった処理により、ユーザの好みの視差範囲の設定や3次元画像の設定を実現することが可能となる。
 なお、上述した実施例において、入力画像をそのまま適用して変換する処理構成として説明したが、各画像入力部で入力した画像(左画像10、右画像20)に対して縮小処理や間引き処理を実行し、その後、微分処理、非線形変換、合成処理、あるいは視差検出処理を実行する構成としてもよい。このような処理構成とすることで、データ処理量を削減することが可能となる。なお、実施例5において説明したように、視差検出部301の視差検出処理のみを縮小画像あるいは間引き処理画像を適用した処理として実行する構成としてもよい。
 また、上記した各実施例では、左画像微分器と右画像微分器とで微分フィルタ係数のパターンを逆系列とした設定の微分フィルタを適用する構成としたが、左画像微分器と右画像微分器とで同じ微分フィルタ係数を用いて微分処理を実行し、その後の合成処理において、一方(例えば左画像)は、微分信号(または微分信号を非線形変換した信号)を原画像信号に加算し、他方(例えば右画像)は原画像信号に対する減算処理を実行する構成としても同様の効果を奏することができる。
 以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本発明の一実施例構成によれば、立体画像表示に適用する左画像と右画像の視差制御を行なう装置、方法が提供される。本発明の画像処理装置は、左眼提示用の左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換部と、右眼提示用の右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換部を有する。各画像変換部は、例えば入力画像に対して逆特性の係数列の微分フィルタ係数を適用した微分信号を生成し、該微分信号またはこの微分信号の非線形信号を原画像信号に加算する合成処理により視差を制御した変換信号を生成する。本処理により視差範囲の縮小または拡大等の処理が実現される。
  10 左画像(L1画像)
  20 右画像(R1画像)
  50 視差調整左画像(L2画像)
  60 視差調整右画像(R2画像)
 100 画像処理装置
 110 左画像変換部
 111 左画像入力部
 112 左画像微分処理部
 113 左非線形変換部
 114 左画像合成部
 115 左画像出力部
 120 右画像変換部
 121 右画像入力部
 122 右画像微分処理部
 123 右非線形変換部
 124 右画像合成部
 125 右画像出力部
 300 画像処理装置
 301 視差検出部
 400 画像処理装置
 401 制御信号入力部
 421 フィルタ選択部
 422 微分フィルタ適用部
 500 画像処理装置
 501 制御信号入力部

Claims (12)

  1.  立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換部と、
     立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換部を有し、
     前記左画像変換部、および右画像変換部は、各入力画像の画像信号の特徴量を抽出し、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成する画像処理装置。
  2.  前記左画像変換部は、
     前記特徴量として前記左画像の画像信号の微分信号を生成する左画像微分器と、
     前記左画像の微分信号、または該微分信号の変換信号を前記左画像信号に加算する合成処理を実行して前記左画像変換画像を生成する左画像合成部を有し、
     前記右画像変換部は、
     前記特徴量として前記右画像の画像信号の微分信号を生成する右画像微分器と、
     前記右画像の微分信号、または該微分信号の変換信号を前記右画像信号に加算する合成処理を実行して前記右画像変換画像を生成する右画像合成部を有する請求項1に記載の画像処理装置。
  3.  前記左画像変換部は、
     前記前記左画像の微分信号の非線形変換処理を実行する左画像非線形変換部を有し、前記左画像合成部は、前記左画像非線形変換部の生成した変換信号を前記左画像信号に加算する合成処理を実行して前記左画像変換画像を生成し、
     前記右画像変換部は、
     前記前記右画像の微分信号の非線形変換処理を実行する右画像非線形変換部を有し、前記右画像合成部は、前記右画像非線形変換部の生成した変換信号を前記右画像信号に加算する合成処理を実行して前記右画像変換画像を生成する請求項2に記載の画像処理装置。
  4.  前記左画像微分器と前記右画像微分器は、逆パターンの微分フィルタ係数列を有する一次微分フィルタを適用した微分処理を実行する請求項2または3に記載の画像処理装置。
  5.  前記左画像微分器と前記右画像微分器は、同一の微分態様による微分処理を実行し、
     前記左画像合成部と前記右画像合成部のいずれか一方は、各画像の微分信号または該微分信号の変換信号を入力画像信号に加算し、他方が入力画像信号から減算する処理を行う請求項2または3に記載の画像処理装置。
  6.  前記左画像微分器と前記右画像微分器は、入力画像信号の輝度信号の微分処理を実行する請求項2~5いずれかに記載の画像処理装置。
  7.  前記画像処理装置は、さらに、
     画像処理装置に入力する前記左画像と前記右画像における同一被写体部に相当する対応点の配置を解析して視差情報を生成する視差検出部を有し、
     前記左画像微分器と前記右画像微分器は、前記視差検出部の生成する前記視差情報に応じて、微分処理態様を変更して微分処理を実行する請求項2~6いずれかに記載の画像処理装置。
  8.  前記視差検出部は、
     画像処理装置に入力する前記左画像と前記右画像における同一被写体部に相当する対応点の配置が、
     (a)左画像の対応点が右画像の対応点よりも左に位置する、
     (b)左画像の対応点が右画像の対応点よりも右に位置する、
     上記(a),(b)いずれの設定にあるかを示すディスパリティ極性情報を生成し、
     前記左画像微分器と前記右画像微分器は、前記視差検出部の生成するディスパリティ極性情報に応じて、逆パターンの微分フィルタ係数列を有する一次微分フィルタを適用した微分処理を実行する請求項7に記載の画像処理装置。
  9.  前記視差検出部は、
     画像処理装置に入力する前記左画像と前記右画像の縮小画像または間引き画像を適用して視差情報を生成する請求項7または8に記載の画像処理装置。
  10.  前記画像処理装置は、さらに、
     前記左画像微分器と前記右画像微分器の微分処理態様、または前記左画像非線形変換部と前記右画像非線形変換部における変換処理態様の少なくともいずれかを変更制御するための制御信号を入力する制御信号入力部を有する請求項3~9いずれかに記載の画像処理装置。
  11.  画像処理装置において実行する画像処理方法であり、
     左画像変換部が、立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成する左画像変換ステップと、
     右画像変換部が、立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成する右画像変換ステップを有し、
     前記左画像変換ステップ、および右画像変換ステップは、各入力画像の画像信号の特徴量を抽出し、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成するステップである画像処理方法。
  12.  画像処理装置において画像処理を実行させるプログラムであり、
     左画像変換部に、立体画像表示に適用する左眼提示用の左画像を入力し、左画像の画像信号を右方向または左方向に位相変化させて左画像変換画像を生成させる左画像変換ステップと、
     右画像変換部に、立体画像表示に適用する右眼提示用の右画像を入力し、右画像の画像信号を左方向または右方向に位相変化させて右画像変換画像を生成させる右画像変換ステップを実行させ、
     前記左画像変換ステップ、および右画像変換ステップにおいて、各入力画像の画像信号の特徴量を抽出させ、抽出特徴量を適用した画像変換処理により、前記左画像変換画像、および前記右画像変換画像を生成させるプログラム。
PCT/JP2011/050042 2010-02-12 2011-01-05 画像処理装置、および画像処理方法、並びにプログラム WO2011099314A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201180008412.4A CN102742285B (zh) 2010-02-12 2011-01-05 图像处理设备和图像处理方法
EP20110742063 EP2536159A4 (en) 2010-02-12 2011-01-05 IMAGE PROCESSING DEVICE, IMAGE PROCESSING PROCESS AND CORRESPONDING PROGRAM
US13/576,987 US9088774B2 (en) 2010-02-12 2011-01-05 Image processing apparatus, image processing method and program
RU2012133463/08A RU2012133463A (ru) 2010-02-12 2011-01-05 Устройство обработки изображений, способ обработки изображений и программа
BR112012019677A BR112012019677A2 (pt) 2010-02-12 2011-01-05 aparelho e método de processamento de imagem, e, programa para fazer com que um aparelho de processamento de imagem excute processamento de imagem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010029239A JP5521608B2 (ja) 2010-02-12 2010-02-12 画像処理装置、および画像処理方法、並びにプログラム
JP2010-029239 2010-02-12

Publications (1)

Publication Number Publication Date
WO2011099314A1 true WO2011099314A1 (ja) 2011-08-18

Family

ID=44367600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/050042 WO2011099314A1 (ja) 2010-02-12 2011-01-05 画像処理装置、および画像処理方法、並びにプログラム

Country Status (7)

Country Link
US (1) US9088774B2 (ja)
EP (2) EP2536159A4 (ja)
JP (1) JP5521608B2 (ja)
CN (1) CN102742285B (ja)
BR (1) BR112012019677A2 (ja)
RU (1) RU2012133463A (ja)
WO (1) WO2011099314A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077420A1 (ja) * 2010-12-09 2012-06-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6019568B2 (ja) * 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
JP6618260B2 (ja) * 2015-02-19 2019-12-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6124094B2 (ja) * 2016-05-20 2017-05-10 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
JP7143092B2 (ja) * 2018-03-12 2022-09-28 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、および画像処理方法
JP6849775B2 (ja) * 2019-11-14 2021-03-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07167633A (ja) 1993-08-26 1995-07-04 Matsushita Electric Ind Co Ltd 立体画像撮像及び表示装置
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
EP2152011A2 (en) * 2008-08-06 2010-02-10 Sony Corporation Image processing apparatus, image processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4535954B2 (ja) 2005-04-18 2010-09-01 日本電信電話株式会社 2眼式立体表示装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07167633A (ja) 1993-08-26 1995-07-04 Matsushita Electric Ind Co Ltd 立体画像撮像及び表示装置
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
EP2152011A2 (en) * 2008-08-06 2010-02-10 Sony Corporation Image processing apparatus, image processing method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L. ZHANG; W. J. TAM: "Stereoscopic image generation based on depth image for 3D TV", IEEE TRANS. ON BROADCASTING, vol. 51, no. 2, June 2005 (2005-06-01)
See also references of EP2536159A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077420A1 (ja) * 2010-12-09 2012-06-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9922441B2 (en) 2010-12-09 2018-03-20 Saturn Licensing Llc Image processing device, image processing method, and program
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置

Also Published As

Publication number Publication date
JP5521608B2 (ja) 2014-06-18
US9088774B2 (en) 2015-07-21
EP3079360A1 (en) 2016-10-12
CN102742285A (zh) 2012-10-17
EP2536159A4 (en) 2014-06-11
EP2536159A1 (en) 2012-12-19
CN102742285B (zh) 2015-06-17
BR112012019677A2 (pt) 2016-05-03
JP2011166606A (ja) 2011-08-25
US20130010059A1 (en) 2013-01-10
RU2012133463A (ru) 2014-02-10

Similar Documents

Publication Publication Date Title
JP5521608B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5521913B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
JP5347717B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5387377B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5879713B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2010084724A1 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
WO2012086120A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
EP2469870A2 (en) Image processing device, image processing method, and program
WO2011118084A1 (ja) 画像処理装置および画像処理方法
WO2012056685A1 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
JP2011035712A (ja) 画像処理装置、画像処理方法及び立体画像表示装置
CN102256143A (zh) 视频处理装置及方法
JP2011164202A (ja) 画像表示装置、画像表示システム及び画像表示方法
JP2012120057A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6033625B2 (ja) 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体
JP2010171628A (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
KR101939243B1 (ko) 입체 깊이 조정 및 초점 조정
Liu et al. Deinterlacing of depth-image-based three-dimensional video for a depth-image-based rendering system
JP5794335B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2012018001A1 (ja) 映像処理装置、表示装置及び映像処理方法
Jurk et al. Advanced Video Processing for Future Autostereoscopic 3D Displays
JP5569635B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180008412.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11742063

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2011742063

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011742063

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 6805/DELNP/2012

Country of ref document: IN

Ref document number: 2012133463

Country of ref document: RU

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13576987

Country of ref document: US

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012019677

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012019677

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20120806