WO2010084724A1 - 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 - Google Patents

画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 Download PDF

Info

Publication number
WO2010084724A1
WO2010084724A1 PCT/JP2010/000218 JP2010000218W WO2010084724A1 WO 2010084724 A1 WO2010084724 A1 WO 2010084724A1 JP 2010000218 W JP2010000218 W JP 2010000218W WO 2010084724 A1 WO2010084724 A1 WO 2010084724A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
displayed
display area
outer frame
Prior art date
Application number
PCT/JP2010/000218
Other languages
English (en)
French (fr)
Inventor
嘉次郎 潮
裕 市原
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009011155A external-priority patent/JP5396877B2/ja
Priority claimed from JP2009070947A external-priority patent/JP2010224190A/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201080005065.5A priority Critical patent/CN102293001B/zh
Publication of WO2010084724A1 publication Critical patent/WO2010084724A1/ja
Priority to US13/187,497 priority patent/US8791989B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers

Definitions

  • the present invention relates to an image processing device, a program, an image processing method, a recording method, and a recording medium.
  • stereoscopic (3D) image presentation technology is known.
  • a right-eye image when an object is viewed from the right eye and a left-eye image when the object is viewed from the left eye are generated, and the right-eye image is generated by the user.
  • Patent Document 1 Japanese Patent Publication JP-A-10-117362 Patent Document 2 Japanese Patent Publication JP-A 2002-262310 Patent Document 3 Japanese Patent Publication JP-A-8-205201
  • stereo stereoscopic vision technique may give an unpleasant feeling to the user.
  • the image displayed on the surface is made to feel as if there is depth and pop-out due to parallax of both eyes. Therefore, compared with the case of viewing a normal three-dimensional object, the function of vision and brain is different, and this may cause unnatural feeling in the image, resulting in discomfort.
  • the discrepancy between visual vergence and accommodation difference between the intersection of binocular vergence and the actual in-focus position as an image
  • the stereo stereoscopic technology has a high cost for generating a parallax image for stereoscopic video.
  • two images (right-eye image and left-eye image) having parallax with respect to one scene must be generated. Therefore, at the time of shooting, parallax images must be acquired by two or more cameras that are appropriately installed and controlled, which is expensive. Also, when an image is artificially synthesized by computer graphics or the like, the cost for generating a parallax image is high.
  • Various methods for generating a parallax image based on a two-dimensional image have also been proposed. For example, a method has been proposed in which a plurality of images acquired with a time difference are used as a right eye image and a left eye image, respectively.
  • a method of generating a parallax image from a two-dimensional image by analyzing a two-dimensional image and allowing a user to add depth information has been proposed.
  • both methods are complicated and involve manual work with human judgment, which is expensive.
  • Patent Documents 1 to 3 a method for presenting a stereoscopic image without giving parallax to the right-eye image and the left-eye image has been proposed.
  • Patent Documents 1 to 3 a method for presenting a stereoscopic image without giving parallax to the right-eye image and the left-eye image.
  • none of the methods is clear about the specific processing for appropriately presenting a stereoscopic image.
  • the stereoscopic video provided based on such a two-dimensional image there are cases where only one of the images is present at the right and left end portions of the screen, which is unnatural.
  • such a stereo stereoscopic technique may cause an unnatural feeling in the image at the end portion of the display screen.
  • the stereoscopic video is interrupted at a portion corresponding to the edge of the screen.
  • an object of the present invention is to provide an image processing apparatus, a program, an image processing method, a recording method, and a recording medium that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims.
  • the dependent claims define further advantageous specific examples of the present invention.
  • an image processing apparatus for enabling a two-dimensional image to be displayed three-dimensionally, wherein the two-dimensional image is shifted left and right within a display area.
  • a left end processing unit for adding a left end image displayed within a predetermined range from the left end of the display area; and outputting the left image to which the right end image has been added to a user's left eye, wherein the left end image And an output unit that outputs the added right image to the right eye of the user. Furthermore, a program and an image processing method for causing a computer to function as such an image processing apparatus are provided.
  • a recording method for recording an image for enabling a two-dimensional image to be displayed three-dimensionally wherein the two-dimensional image is shifted left and right within a display area.
  • Image data and right side image data are generated, a right end image displayed within a predetermined range from a right end of the display area is added to the right side of the left side image, and the display area is set to the left side of the right side image.
  • the left end image displayed within a predetermined range from the left end of the image is added, and the image data of the left image to which the right end image is added is read by the playback device in the recording medium and output to the left eye of the user
  • the image data of the right image which is recorded in the left image data recording area that holds the image to be stored, and to which the left end image is added, is read by the playback device in the recording medium to the right eye of the user.
  • Holds the image output Te provides a recording method for recording the right image data recording area. Furthermore, a recording medium recorded by such a recording method is provided.
  • the image processing apparatus generates a display image from a two-dimensional image, and the two-dimensional amount is a shift amount that does not depend on each display object included in the two-dimensional image.
  • an image processing apparatus, a program, and an image processing method that include a display image generation unit that generates the display image that is displayed on the inside of an outer frame provided on an outer edge. .
  • an image processing apparatus for generating a display image from a two-dimensional image, the outer frame to be displayed as at least a part of the outer frame provided on the outer edge of the display image.
  • An outer frame image generation unit that generates an image, and a shift amount that does not depend on each display object included in the two-dimensional image within the display area inside the outer frame, the two-dimensional image is shifted left and right.
  • An image processing apparatus comprising: a display image generation unit that generates the display image.
  • FIG. 1 shows a configuration of an image processing apparatus 10 according to a first embodiment.
  • An example of the display by the display part 32 is shown.
  • An example of a display point on the left image, a display point on the right image, and an image perceived by the user is shown.
  • An example of a non-corresponding area in which only one of the effective visual field of the user in the display area and the left image or the right image in the display area is displayed is shown.
  • An example of the line of sight when the user is paying attention to the right end of the display area is shown.
  • An example of the left side image to which the right end image of a single color was added, and an example of the right side image to which the left end image of a single color was added are shown.
  • An example of a left image to which a right end image obtained by copying a part of the right image is added and an example of a right image to which a left end image obtained by copying a part of the left image is added are shown.
  • An example of the left side image expanded in the right direction and an example of the right side image expanded in the left direction are shown.
  • An example of the structure of the display part 32 which displays a left side image and a right side image is shown.
  • An example of the left side image from which the left end portion is deleted and an example of the right side image from which the right end portion is deleted are shown.
  • An example in which a left image and a right image are generated after enlarging a two-dimensional image is shown.
  • the structure of the image processing apparatus 10 which concerns on the 1st modification of 1st Embodiment is shown.
  • the structure of the image processing apparatus 10 which concerns on the 2nd modification of 1st Embodiment is shown.
  • the structure of the image processing apparatus 10 which concerns on the 3rd modification of 1st Embodiment is shown.
  • 1 shows a configuration of a recording / reproducing system 50 according to a first embodiment.
  • 2 shows a configuration of an image processing apparatus 110 according to a second embodiment. An example of the non-corresponding area and the crosstalk in which only one of the left image and the right image is displayed is shown. An example of an outer frame image is shown.
  • the structure of the image processing apparatus 110 which concerns on the 1st modification of 2nd Embodiment is shown.
  • the structure of the output part 118 with which the image processing apparatus 110 which concerns on the 2nd modification of 2nd Embodiment is provided is shown.
  • 2 shows an exemplary hardware configuration of a computer 1900 according to an embodiment of the present invention.
  • FIG. 1 shows a configuration of an image processing apparatus 10 according to the first embodiment.
  • the image processing apparatus 10 is an apparatus for enabling a given two-dimensional image to be displayed in a three-dimensional manner. More specifically, the image processing device 10 generates an image to be output to the user's right eye and an image to be output to the user's left eye based on the given two-dimensional image, and the display device To display.
  • the given two-dimensional image may be a still image or a moving image including a plurality of still images that are temporally continuous.
  • the image processing apparatus 10 includes a generation unit 20, a right end processing unit 22, a left end processing unit 24, and an output unit 30.
  • the generation unit 20 receives a two-dimensional image from a reproduction device that reproduces data from a recording medium or a reception device that receives transmitted data.
  • the generation unit 20 generates a left image and a right image obtained by shifting the two-dimensional image left and right within the display area by a distance equal to or less than the inter-pupil distance. For example, the generation unit 20 generates a left image and a right image based on the same two-dimensional image.
  • the interpupillary distance is the distance between the human pupils (40 mm to 90 mm), and when the left image and the right image are displayed at positions separated by the distance, the human image of the left image viewed by the left eye is displayed.
  • the distance is such that the display object and the display object of the right image viewed with the right eye can be merged and recognized as one image, and the merged image can be recognized at infinity.
  • the eyes of the viewer's eyes are parallel. Therefore, it is desirable that the generation unit 20 generates a left image and a right image in which the two-dimensional image is shifted left and right by a distance greater than 0 and 90 mm or less in the display area.
  • a human may be able to perform binocular fusion even with an object that is in a direction that is opened 2 to 3 degrees to the left and right from the state where the eyes of both eyes are parallel. Therefore, the distance between the left image and the right image is 3 degrees or less (preferably 2 degrees) from the parallel state of the left eye to the left side, preferably 3 degrees or less (preferably from the parallel state of the right eye). (2 degrees) may be a distance shifted.
  • the allowable amount that the distance between the left image and the right image may deviate from the interpupillary distance increases as the distance between the viewer and the display surface increases.
  • the display area is an area of an image display portion in a display device that provides a stereoscopic image to the user. More specifically, for example, the display area is an area formed on one screen such as a display area of a television device or one window area displayed in a computer monitor. Further, for example, the display area may be an area formed by two screens such as a display surface of a head mounted display.
  • the generation unit 20 generates a left image so that the distance between the left image and the right image on the display area is the interpupillary distance according to the pixel size of the given two-dimensional image and the size of the display area. The distance on the data between the right side image and the right side image may be changed.
  • the generation unit 20 generates the left image by shifting the original two-dimensional image to the left as an example. Further, as an example, the generation unit 20 generates the right image by shifting the original two-dimensional image in the right direction. For example, the generation unit 20 may delete a portion of the left image generated by shifting the original two-dimensional image in the left direction and extending beyond the left boundary of the display area to the left. As an example, the generation unit 20 may delete a portion of the right image generated by shifting the original two-dimensional image in the right direction and protruding beyond the right boundary of the display area.
  • the generation unit 20 selects one of the horizontal lines of the display area alternately in a predetermined direction in the vertical direction.
  • An image displayed on the horizontal line (for example, even lines) is a left image.
  • the generation unit 20 sets the image displayed on the other horizontal line (for example, odd line) when the horizontal lines of the display area are alternately selected by a predetermined number in the vertical direction as the right image.
  • the generation unit 20 selects one of the frames included in the moving image alternately by a predetermined number in time order. Let the image displayed in the frame (for example, even frame) be the left image. Further, in this case, the generation unit 20 sets the image displayed in the other frame (for example, odd frame) when the frames included in the moving image are alternately selected by a predetermined number in time order as the right image.
  • the generation unit 20 displays the left-eye display.
  • the image displayed on the screen is the left image.
  • the generation unit 20 sets the image displayed on the right-eye display surface as the right image.
  • the generation unit 20 may perform a process of generating the left image and the right image by a computer software calculation.
  • the generation unit 20 may perform image processing in real time on a video signal transmitted or played back in real time.
  • the right end processing unit 22 adds a right end image displayed within a predetermined range from the right end of the display area to the right side of the left image. For example, the right end processing unit 22 adds the right end image to a blank portion on the right side of the left image obtained as a result of shifting the original two-dimensional image to the left. A specific example of the right end image added by the right end processing unit 22 will be described later in detail.
  • the left end processing unit 24 adds a left end image displayed within a predetermined range from the left end of the display area to the left side of the right image. For example, the left end processing unit 24 adds the left end image to the left blank portion of the right image obtained as a result of shifting the original two-dimensional image in the right direction. A specific example of the left end image added by the left end processing unit 24 will be described later in detail.
  • the output unit 30 has a display area where an area in which the left image and the right image are not overlapped and displayed is located outside the effective visual field of the user. And the output part 30 outputs the left side image to which the right end image was added with respect to a user's left eye by this display area. Further, the output unit 30 outputs the right image to which the left end image is added to the right eye of the user using this display area.
  • the output unit 30 may be configured to display the left image and the right image in a display area formed on one screen such as a stationary liquid crystal display. Instead of this, the output unit 30 may be configured to separately display the left image and the right image in each of display areas formed by two screens such as a head-mounted display.
  • the output unit 30 includes a display unit 32 and stereoscopic glasses 34.
  • the display unit 32 includes a plurality of pixels arranged in a two-dimensional matrix, and has a display area in which pixel lines for displaying an image are alternately arranged for the left eye and the right eye of the user.
  • the stereoscopic glasses 34 give the image displayed by the pixel line for the right eye of the display unit 32 only to the right eye, and give the image displayed by the pixel line for the left eye of the display unit 32 only to the left eye. .
  • the generation unit 20 generates a left image from each pixel of the two-dimensional image corresponding to each pixel line for the left eye in the display area.
  • the right image is generated by shifting each pixel of the two-dimensional image corresponding to each pixel line for the right eye in the display area to the right. Since such a generation unit 20 can generate the left image and the right image by shifting the pixel data in the horizontal direction in units of pixel lines, the circuit configuration can be simplified.
  • the display unit 32 emits circularly polarized light in the first rotation direction from the pixel line for the left eye. Further, as an example, the display unit 32 emits circularly polarized light in the second rotation direction that is reverse to the circularly polarized light in the first rotation direction from the pixel line for the right eye. The display unit 32 displays the left image using the left eye pixel line, and displays the right image using the right eye pixel line.
  • the stereoscopic glasses 34 include a left-eye polarizing filter disposed on the left eye of the user that transmits circularly polarized light in the first rotational direction and blocks circularly polarized light in the second rotational direction, A right-eye polarizing filter disposed on the right eye of the user that transmits circularly polarized light in two rotational directions and blocks circularly polarized light in the first rotational direction.
  • the stereoscopic glasses 34 give the left image displayed by the left eye pixel line of the display unit 32 only to the left eye, and the right image displayed by the right eye pixel line of the display unit 32 by the right eye. Can only be given to.
  • the output unit 30 may have any configuration as long as the left image can be given only to the user's left eye and the right image can be given only to the user's right eye.
  • the output unit 30 may include a display device that alternately displays the left image and the right image in terms of time and glasses with shutters that have a shutter synchronized with the display device.
  • the glasses with shutters open the left eye shutter and close the right eye shutter during the period when the left image is displayed, and open the right eye shutter and close the left eye during the period when the right image is displayed. Close the shutter.
  • the left image can be given only to the user's left eye
  • the right image can be given only to the user's right eye.
  • the output unit 30 may be a head mounted display having a left eye display surface and a right eye display surface.
  • the output unit 30 is a device that displays the left image only on the user's left eye and the right image only on the user's right eye using color filters or spectral characteristic differences, deflection direction differences, and the like. May be.
  • a stereoscopic image is generated by shifting the two-dimensional image to the left and right.
  • the image processing apparatus 10 it is a very simple process and can provide a stereo image to a user at low cost.
  • FIG. 2 shows an example of display by the display unit 32.
  • the display unit 32 when one horizontal line in the display area is alternately selected in the vertical direction, one (for example, even line) is the left-eye pixel line, and the other (for example, odd line) is the right.
  • This is an ophthalmic pixel line.
  • the generation unit 20 generates a left-side image from each pixel of the two-dimensional image corresponding to the left-eye pixel line in the display area of the display unit 32, and at the same time, the right-eye pixel line in the display area.
  • a right-side image is generated from each pixel of the two-dimensional image corresponding to, and given to the display unit 32.
  • the display unit 32 uses the stereoscopic glasses 34 to give the left image displayed by the left eye pixel line only to the left eye and the right image displayed by the right eye pixel line as the right eye. Can only be given to.
  • FIG. 3 shows an example of a display point on the left image, a display point on the right image, and an image perceived by the user.
  • a human is looking at a two-dimensional image at a short distance, the image given to the left eye and the right eye are not the same but have parallax. From this parallax, a human recognizes that what he is looking at is a two-dimensional image. Further, when a human is looking at an object at infinity (for example, 10 m or more), the image given to the left eye and the image given to the right eye are the same with no parallax. When a human is looking at infinity, there is no parallax between the image given to the left eye and the image given to the right eye. I feel a feeling.
  • object at infinity for example, 10 m or more
  • the image processing apparatus 10 generates a left-side image and a right-side image without parallax (that is, the same as each other) that are shifted to the left and right by the same distance as the distance between pupils of the user. Then, the image processing apparatus 10 provides the left image to the user's left eye and the right image to the user's right eye. As a result, the image processing apparatus 10 can bring the user's left eye and right eye line of sight into parallel states, i.e., the user's line of sight is not congested (the left eye and right eye line of sight do not intersect). . Thereby, the image processing apparatus 10 can make the user look at infinity. That is, for example, as shown in FIG. 3, the image processing apparatus 10 allows the user to perceive both point A (black circle point) and point B (triangular point) as points located at infinity. .
  • the image processing apparatus 10 can provide the user with a stereoscopic image by giving the user an image with no parallax to the left eye and the right eye while viewing the image at infinity.
  • the image processing apparatus 10 can give a sense of presence as if looking out from a window, for example, in a landscape image or the like.
  • the image processing apparatus 10 can give a real feeling as seen with a magnifying glass to an image taken at a short distance such as macro photography.
  • the reason why the image processing apparatus 10 can give the image a sense of reality such as a sense of reality and a real feeling as described above is estimated as follows. Since the image processing apparatus 10 does not converge the user's line of sight, the image position cannot be specified by parallax. However, even when there is no parallax, the human estimates the position of the image from the actual size and angle of view of the object derived from common sense of experience. Then, humans unconsciously and instantaneously perform such position estimation, and obtain an actual size sense together with a stereoscopic effect. Therefore, it is estimated that the image processing apparatus 10 can give the image a realistic feeling as described above without converging the user's line of sight.
  • the image processing apparatus 10 can make the user feel a stereoscopic effect more strongly when displaying a moving image.
  • the image processing apparatus 10 does not generate a phenomenon called a writing effect, in which a plane appears standing, and a phenomenon called a miniature garden effect, which reduces the feeling of spreading in the horizontal direction of the screen by emphasizing the depth and popping feeling. . Therefore, according to the image processing apparatus 10, it is possible to provide a stereoscopic image having a natural stereoscopic effect and a realistic sensation.
  • the image processing apparatus 10 since the image processing apparatus 10 does not congest the user's line of sight, there is no discrepancy between visual convergence and adjustment, and discomfort can be reduced. Further, since the image processing apparatus 10 perceives a stereoscopic image at a position farther than the screen, it is possible to give the user a feeling of looking through a frame (for example, a window frame or a magnifying glass frame). Therefore, according to the image processing apparatus 10, a phenomenon in which an image that appears to pop out before the screen is unnaturally cut by the screen frame does not occur, and a natural stereoscopic image can be provided to the user.
  • a frame for example, a window frame or a magnifying glass frame
  • FIG. 4 shows an example of the user's effective field of view in the display area and a non-corresponding area in which only one of the left image and the right image in the display area is displayed.
  • the left side portion of the display area there is an area (non-corresponding area) where the left screen is displayed but the right screen is not displayed when a left image and a right image are generated by shifting one two-dimensional image left and right.
  • the right side portion of the display area there is a non-corresponding area where the right screen is displayed but the left screen is not displayed.
  • Such a non-corresponding region cannot provide a stereoscopic image to the user.
  • the visual field of humans has an effective visual field and a peripheral visual field.
  • the effective visual field is excellent in resolving power and color detection, and the line of sight moves instantaneously and is used for conscious recognition and gaze. That is, the effective visual field is a range in which the user is conscious of viewing when watching a television image or a picture.
  • Peripheral vision is sensitive to light and dark, but contributes little to cognitive understanding (eg, determining who a person is or reading a character).
  • the image processing apparatus 10 displays the left side image and the right side image with respect to a display region whose size is such that the non-corresponding region is located outside the effective visual field. Therefore, the image processing apparatus 10 can prevent the user from consciously recognizing an image of a non-corresponding portion that cannot provide a stereoscopic image.
  • the image processing apparatus 10 preferably displays the left image and the right image in the display region of a value whose width in the left-right direction is represented by the following formula (1).
  • W represents the width of the display area in the left-right direction.
  • D represents the distance from the user's viewpoint to the display surface.
  • L represents the distance between the pupils of the user.
  • represents the angle of the effective visual field of the user. Note that ⁇ is generally about 20 °.
  • the width W in the left-right direction in the display area is a value obtained by multiplying the sine value of the half of the effective visual field angle by a value twice the distance from the viewpoint to the display surface (2 ⁇ D ⁇ sin). ( ⁇ / 2)) and a value (3 ⁇ L) three times the interpupillary distance are preferably equal to or greater than the sum.
  • the generation unit 20 generates the left image and the right image when the display area has the horizontal width represented by the expression (1). Thereby, the image processing apparatus 10 can provide a natural stereoscopic image.
  • the generation unit 20 generates a left image and a right image that are shifted to the left and right on the condition that the screen of the display unit 32 has a width W represented by Expression (1), and displays a stereoscopic image to the user.
  • the distance from the user's viewpoint to the display surface recommended for a wide-size (aspect ratio: 16: 9) television is about three times the screen vertical size from the center of the screen. Therefore, as an example, the generation unit 20 provides a stereoscopic image to the user on the condition that the display unit 32 is a wide television of 20 inches or more.
  • FIG. 5 shows an example of the line of sight when the user is paying attention to the right end of the display area.
  • a human sees the display area he / she usually pays attention to the center portion and does not pay attention to the end portion. Therefore, if the horizontal width of the display area has the value shown in Expression (1), the image processing apparatus 10 does not usually give the user a sense of discomfort.
  • the human will be at the right or left edge of the display area. Pay attention to.
  • the line of sight of one eye is inside the display area and the line of sight of the other eye is outside the display area. .
  • Such a sense of incongruity that occurs at the end affects the overall monitoring feeling.
  • the image processing apparatus 10 can provide a natural stereoscopic image at the right end and the left end of the display area by displaying the frame so that the user is aware of the frame.
  • FIG. 6 shows an example of a left image to which a single color right end image is added and an example of a right image to which a single color left end image is added.
  • the right end processing unit 22 adds a right end image of a single color displayed within a predetermined range from the right end of the display area to the right side of the left image.
  • the right end processing unit 22 adds a right end image of a dark color such as black or a light color such as white displayed within a predetermined range from the right end of the display area to the right side of the left image.
  • the right end processing unit 22 outputs the right end image of a dark color such as black or a light color such as white in a blank portion on the right side of the left image in the display area, which can be a result of shifting the original two-dimensional image leftward. Append.
  • the left end processing unit 24 adds a left end image of a dark color such as black or a light color such as white displayed within a predetermined range from the left end of the display area to the left side of the right image.
  • the left edge processing unit 24 shifts the left edge image of a dark color such as black or a light color such as white into the left blank portion of the right image in the display area, which can be obtained as a result of shifting the original two-dimensional image to the right. Append.
  • the image processing apparatus 10 can display the frame at the right end portion and the left end portion in the display area so as to make the user aware of the frame by adding such right end image and left end image. As a result, the image processing apparatus 10 can provide the user with a natural three-dimensional image that looks like the scenery outside from the window frame.
  • the right end processing unit 22 further provides a dark frame image such as black or a light color such as white having a width equal to or greater than the distance between the pupils on each of the left and right sides of the left image to which the right end image is added.
  • the left end processing unit 24 displays a dark frame image such as black or white having a width equal to or greater than the distance between the pupils on each of the right and left sides of the right image to which the left end image is added. Add more. Thereby, the image processing apparatus 10 can display a clear frame in the display screen.
  • FIG. 7 shows an example of a left image to which a right end image obtained by copying a part of the right image is added, and an example of a right image to which a left end image obtained by copying a part of the left image is added.
  • the right end processing unit 22 adds, as a right end image, a portion displayed within a predetermined range from the right end of the display area in the right image on the right side of the left image.
  • the right end processing unit 22 copies a portion displayed within a range from the right end of the display area in the right image to a position corresponding to the right end of the left image, and adds it as the right end image to the right side of the left image. .
  • the left end processing unit 24 adds, as a left end image, a portion displayed within a predetermined range from the left end of the display area in the left image on the left side of the right image.
  • the left end processing unit 24 copies a portion displayed within a range from the left end of the display area in the left image to a position corresponding to the left end of the right image, and adds it as the left end image to the left side of the right image.
  • the image processing apparatus 10 gives the same image to the right eye and the left eye at the right end or the left end of the display area. Therefore, the image processing apparatus 10 according to the present example can provide an image that does not feel unnatural even when congestion occurs in the right end portion or the left end portion of the display area. it can. It should be noted that, in the central portion of the display area, the condition for fusion of both eyes is maintained, so that it is less likely that congestion will occur compared to the end portion.
  • the right end processing unit 22 may add an image obtained by blurring a portion displayed within a predetermined range from the right end of the display area in the right image to the right side of the left image as the right end image.
  • the left end processing unit 24 may add an image obtained by blurring a portion displayed within a predetermined range from the left end of the display area in the left image to the left side of the right image as the left end image.
  • Such an image processing apparatus 10 can reduce the visual field struggle and make the user feel a three-dimensional effect when congestion occurs in the right end portion or the left end portion of the display area.
  • the right end processing unit 22 may use the color of the right end image as an average color of a portion displayed in a predetermined range from the right end of the display area in the right image. Further, in addition to or instead of this, the right end processing unit 22 may set the luminance of the right end image as the average luminance of the portion of the right image that is displayed within a predetermined range from the right end of the display area. For example, the left end processing unit 24 may use the color of the left end image as an average color of a portion of the left image displayed within a predetermined range from the left end of the display area.
  • the left end processing unit 24 may set the luminance of the left end image as the average luminance of a portion of the left image displayed within a predetermined range from the left end of the display area.
  • Such an image processing device 10 can reduce the visual field struggle because images with the same hue or luminance can be given to the left eye and the right eye when congestion occurs in the right end portion or the left end portion of the display area. Can do.
  • FIG. 8 shows an example of the left image enlarged in the right direction and an example of the right image enlarged in the left direction.
  • the right end processing unit 22 enlarges the left image to the right and generates an image including the left image and the right end image.
  • the right end processing unit 22 generates an image including the left image and the right end image by enlarging the left image to the right at a larger enlargement ratio as it is closer to the left and right ends.
  • the right end processing unit 22 may not enlarge the left image from a predetermined position (for example, the center position) of the left image.
  • the left end processing unit 24 enlarges the right image to the left and generates an image including the right image and the left end image.
  • the left end processing unit 24 generates an image including the right image and the left end image by enlarging the right image to the left at a larger enlargement ratio as it is closer to the left and right ends.
  • the right end processing unit 22 does not have to enlarge the right image from a predetermined position (for example, the center position) of the right image.
  • the image processing apparatus 10 can provide a natural image in which images are continuous at the end.
  • the right end processing unit 22 and the left end processing unit 24 may enlarge the left image and the right image vertically according to the enlargement ratio in the right direction and the left direction. In this case, the right end processing unit 22 and the left end processing unit 24 delete the portions outside the display area in the left image and the right image as a result of enlarging vertically.
  • the right end processing unit 22 is a portion that is displayed on the right side of the left image within a predetermined range from the right end of the display area in the left image (for example, a pixel column for one column or several columns from the right end). May be added as a right end image.
  • the left end processing unit 24 is a portion displayed within a predetermined range from the left end of the display area in the right image on the left side of the right image (for example, a pixel column for one column or several columns from the left end). May be added as a left end image.
  • Such an image processing apparatus 10 can provide a natural image in which images are continuous at the end.
  • FIG. 9 shows an example of the configuration of the display unit 32 that displays the left image and the right image.
  • the display unit 32 may include a physical outer frame unit 40 that covers a non-corresponding region where the left image and the right image do not overlap each other in the left image and the right image displayed on the display region.
  • the outer frame portion 40 is, for example, a tape or the like that is directly attached on the display surface of the display portion 32.
  • FIG. 10 shows an example of the left image from which the left end portion is deleted and an example of the right image from which the right end portion is deleted.
  • the right end processing unit 22 deletes a predetermined range on the right side of the right image instead of adding the right end image to the right side of the left image.
  • the left end processing unit 24 deletes a predetermined range on the left side of the left image instead of adding the left end image to the left side of the right image.
  • Such an image processing apparatus 10 can display an image without a non-corresponding portion that cannot provide a stereoscopic image.
  • the display unit 32 outputs a dark color (for example, a black image) or the like from a portion where the image in the display area is deleted. Therefore, such an image processing apparatus 10 can provide a natural stereoscopic image as in the case where the same outer frame as that of FIG. 9 is provided.
  • FIG. 11 shows an example in which a left image and a right image are generated after enlarging a two-dimensional image.
  • the image processing apparatus 10 may perform the following processing.
  • the generation unit 20 enlarges the two-dimensional image left and right by a predetermined distance.
  • the generation unit 20 expands in the left-right direction so that the horizontal width becomes a distance obtained by adding the horizontal width of the display area and the inter-pupil distance.
  • the generation unit 20 may enlarge the vertical direction of the two-dimensional image with the same enlargement ratio as that of the horizontal direction.
  • the generation unit 20 generates a left image and a right image obtained by shifting the enlarged two-dimensional image left and right by a predetermined distance within the display area. For example, the generation unit 20 shifts the left image to the left by a distance corresponding to 1 ⁇ 2 of the inter-pupil distance, and shifts the right image to the right by a distance corresponding to 1 ⁇ 2 the inter-pupil distance.
  • the right end processing unit 22 deletes a predetermined distance range on the right side of the right image instead of adding the right end image to the right side of the left image.
  • the right end processing unit 22 deletes the range corresponding to the interpupillary distance from the right end of the right image.
  • the left end processing unit 24 deletes a predetermined distance range on the left side of the left image instead of adding the left end image to the left side of the right image. As an example, the left end processing unit 24 deletes a range corresponding to the interpupillary distance from the left end of the left image.
  • Such an image processing apparatus 10 can display an image without a non-corresponding portion that cannot provide a stereoscopic image. Therefore, such an image processing apparatus 10 can provide a natural stereoscopic image. Note that when the two-dimensional image is also enlarged in the vertical direction, the image processing apparatus 10 deletes portions of the left image and the right image that exceed the upper and lower boundaries of the display range.
  • FIG. 12 shows the configuration of the image processing apparatus 10 according to a first modification of the first embodiment. Since the image processing apparatus 10 according to this modification employs substantially the same configuration and function as the image processing apparatus 10 shown in FIG. 1, members having substantially the same function and configuration are denoted by the same reference numerals, and the following differences are noted. Description is omitted except for the points.
  • the image processing apparatus 10 further includes a characteristic measurement unit 44.
  • the characteristic measurement unit 44 measures the characteristic of the portion displayed in a predetermined range from the right end of the display area in the right image generated by the generation unit 20.
  • the characteristic measurement unit 44 measures the characteristic of a portion displayed in a predetermined range from the left end of the display area in the left image generated by the generation unit 20.
  • the characteristic measurement unit 44 measures the spatial frequency, the average color, the rate of change per time, and the like in the corresponding part.
  • the right end processing unit 22 generates a right end image based on the image of the right part image based on the image of the part according to the characteristics of the part displayed within the predetermined range from the right end of the display area. Select whether to generate the right-most image with the set display conditions.
  • the left end processing unit 24 according to the present example generates a left end image based on the image of the part according to the characteristics of the part displayed within a predetermined range from the left end of the display area in the left image, Alternatively, it is selected whether to generate a left end image with a preset display condition.
  • the image of the preset display condition is, for example, a preset color image, a preset brightness image, a preset pattern image, or the like.
  • Such an image processing device 10 determines whether to display a user without discomfort when congestion occurs or to display a frame to provide a natural stereoscopic image to the user. Can be switched according to
  • the right end processing unit 22 when the spatial frequency of a portion displayed in a predetermined range from the right end of the display area in the right image is equal to or higher than a reference value, the right end processing unit 22 generates a right end image based on the image of the portion. When the spatial frequency of the part is less than the reference value, a right end image with a preset display condition is generated. For example, when the spatial frequency of a portion displayed in a predetermined range from the left end of the display area in the left image is equal to or higher than a reference value, the left end processing unit 24 calculates the left end image based on the image of the portion. When the spatial frequency of the part is less than the reference value, a left end image with a preset display condition is generated.
  • Such an image processing apparatus 10 displays an object that does not cause discomfort even when congestion occurs when an object of interest with a high spatial frequency is displayed at the edge of the display area.
  • a natural stereoscopic image can be provided by displaying a frame.
  • the right end processing unit 22 when the average color of a portion displayed within a predetermined range from the right end of the display area in the right image is outside the reference range, the right end processing unit 22 generates a right end image based on the image of the portion. When the average color of the part is within the reference range, a right end image with a preset display condition is generated. Further, as an example, when the average color of a portion displayed within a predetermined range from the left end of the display area in the left image is outside the reference range, the left end processing unit 24 calculates the left end image based on the image of the portion. When the average color of the part is within the reference range, a left end image with a preset display condition is generated.
  • Such an image processing apparatus 10 displays an object that does not cause discomfort even when congestion occurs when an attention object having a different color from the other part is displayed at the edge of the display area.
  • a natural stereoscopic image can be provided by displaying a frame.
  • the image processing apparatus 10 is an apparatus for stereoscopically displaying a plurality of continuous two-dimensional images included in a moving image.
  • the right end processing unit 22 is based on the image of the portion. The right end image is generated, and when the change rate per time of the portion is less than the reference value, the right end image of the preset display condition is generated.
  • the left end processing unit 24 is based on the image of the portion.
  • a left end image is generated, and when the rate of change per time of the portion is less than a reference value, a left end image with a preset display condition is generated.
  • Such an image processing apparatus 10 displays an object that does not cause discomfort even when congestion occurs when an object of interest with a large time change is displayed at the edge of the display area.
  • a natural stereoscopic image can be provided by displaying a frame.
  • the right end processing unit 22 and the left end processing unit 24 for example, according to distance information used in focus control at the time of shooting a given two-dimensional image, a value separately input by a moving image generator, or the like.
  • the generation processing contents of the right end image and the left end image may be switched.
  • the right end processing unit 22 and the left end processing unit 24 may switch the generation processing contents of the right end image and the left end image according to the contents of the scene.
  • FIG. 13 shows a configuration of the image processing apparatus 10 according to the second modification of the first embodiment. Since the image processing apparatus 10 according to this modification employs substantially the same configuration and function as the image processing apparatus 10 shown in FIG. 1, members having substantially the same function and configuration are denoted by the same reference numerals, and the following differences are noted. Description is omitted except for the points.
  • the image processing apparatus 10 further includes a line-of-sight measurement unit 46.
  • the line-of-sight measurement unit 46 measures the user's line-of-sight direction.
  • the line-of-sight measurement unit 46 detects the user's eyeball part from the user's face image obtained by an imaging sensor or the like attached to the display unit 32 and measures the user's line-of-sight direction.
  • the line-of-sight measurement unit 46 may measure the user's line-of-sight direction with a sensor or the like provided in the stereoscopic glasses 34.
  • the right end processing unit 22 is based on an image of a portion displayed within a predetermined range from the right end of the display area when the line-of-sight direction is shifted to the right from the reference range including the center of the display area. A right end image is generated, and when the line-of-sight direction is not shifted to the right from the reference range, a right end image with a preset display condition is generated.
  • the left end processing unit 24 displays an image of a portion displayed within a predetermined range from the left end of the display area when the line-of-sight direction is shifted to the left from the reference range including the center of the display area.
  • a left end image is generated, and if the line-of-sight direction is not shifted to the left from the reference range, a left end image with a preset display condition is generated.
  • Such an image processing apparatus 10 performs display so as not to cause discomfort even when congestion occurs when the user's line-of-sight direction is directed to the end of the display area, and the user's line-of-sight direction is the display area.
  • a frame can be displayed to provide a natural stereoscopic image.
  • FIG. 14 shows a configuration of the image processing apparatus 10 according to a third modification of the first embodiment. Since the image processing apparatus 10 according to this modification employs substantially the same configuration and function as the image processing apparatus 10 shown in FIG. 1, members having substantially the same function and configuration are denoted by the same reference numerals, and the following differences are noted. Description is omitted except for the points.
  • the image processing apparatus 10 further includes a setting color storage unit 48.
  • the set color storage unit 48 stores colors to be set in the right end image and the left end image.
  • the set color storage unit 48 stores a dark color such as black or a light color such as white.
  • the set color storage unit 48 may store a color that is the same as or close to the color of the frame of the display device as an example.
  • storage part 48 memorize
  • the set color storage unit 48 stores, for example, a color designated by the user.
  • the right end processing unit 22 and the left end processing unit 24 according to this example set the colors of the right end image and the left end image to the colors stored in the setting color storage unit 48.
  • Such an image processing apparatus 10 can display a right end image and a left end image of a color suitable for making the user aware of the frame or a color that reduces the visual field conflict.
  • FIG. 15 shows a configuration of the recording / reproducing system 50 according to the present embodiment.
  • the recording / reproducing system 50 generates data for enabling stereoscopic display from the two-dimensional image and records the data on the recording medium 100.
  • the recording / reproducing system 50 reproduces data from the recording medium 100 and displays a stereoscopic image.
  • the recording / reproducing system 50 includes a generating unit 20, a recording device 62, a reproducing device 64, and an output unit 30.
  • the generation unit 20 and the output unit 30 have the same functions and configurations as the generation unit 20 and the output unit 30 described with reference to FIGS.
  • the recording / reproducing system 50 may be configured without the output unit 30.
  • the recording device 62 records the left image and the right image generated by the generating unit 20 on the recording medium 100.
  • the playback device 64 reads the left image and the right image stored in the recording medium 100 and gives them to the output unit 30.
  • the recording medium 100 records an image that is read by the playback device 64 and displayed three-dimensionally.
  • the recording medium 100 has a left image data recording area and a right image data storage area.
  • the left image data recording area is a left image of the left image and the right image generated by shifting the two-dimensional image left and right within the display area, and is read by the playback device 64 to the left eye of the user.
  • the image data of the left image output in this way is held.
  • the right image data recording area is a right image of the left image and the right image generated by shifting the two-dimensional image left and right within the display area, and is read by the playback device 64 to the right eye of the user.
  • the image data of the right image output in this way is held.
  • a natural stereoscopic image can be generated by simple processing and recorded on the recording medium 100. Furthermore, according to the recording / reproducing system 50, it is possible to reproduce data from the recording medium 100 and provide a stereoscopic image to the user.
  • FIG. 16 shows a configuration of the image processing apparatus 110 according to the second embodiment.
  • the image processing apparatus 110 generates a display image from the two-dimensional image. More specifically, the image processing apparatus 110 generates an image to be output to the viewer's right eye and an image to be output to the viewer's left eye based on the given two-dimensional image. Display on the display device.
  • the given two-dimensional image may be a still image or a moving image including a plurality of still images that are temporally continuous.
  • the image processing apparatus 110 includes a display image generation unit 112, an outer frame image generation unit 114, a synthesis unit 116, and an output unit 118.
  • the display image generation unit 112 receives a two-dimensional image from a reproduction device that reproduces data from a recording medium or a reception device that receives transmitted data.
  • the display image generation unit 112 is a display image obtained by shifting the two-dimensional image left and right by a shift amount that does not depend on each display object included in the two-dimensional image, and displays the image inside the outer frame provided on the outer edge.
  • a display image is generated.
  • the display image generation unit 112 generates a display image in which the two-dimensional image is shifted left and right by a predetermined shift amount according to the position in the two-dimensional image.
  • the display image generation unit 112 displays a display image including a right-eye image for the right eye and a left-eye image for the left eye obtained by shifting the position of the two-dimensional image by a predetermined shift amount to the left and right. Generate. More specifically, the display image generation unit 112 generates a left image and a right image in which the same two-dimensional image is shifted left and right by a distance equal to or less than the inter-pupil distance in the display area.
  • the display image generation unit 112 generates the left image by shifting the original two-dimensional image to the left by a distance that is 1 ⁇ 2 of the interpupillary distance. Further, as an example, the display image generation unit 112 generates the right image by shifting the original two-dimensional image to the right by a distance that is 1 ⁇ 2 of the inter-pupil distance. Further, as an example, the display image generation unit 112 may delete a portion of the left image generated by shifting the original two-dimensional image in the left direction and extending beyond the left boundary of the display area. As an example, the display image generation unit 112 may delete a portion of the right image generated by shifting the original two-dimensional image in the right direction and extending beyond the right boundary of the display area to the right.
  • the outer frame image generation unit 114 generates an outer frame image to be displayed as the outer frame of the display area in which the display image is displayed.
  • the outer frame image generation unit 114 may generate an outer frame image that is displayed as an outer frame provided at least in part around the display area in which the display image is displayed.
  • the synthesizing unit 116 synthesizes the left image and the outer frame image, and gives them to the output unit 118.
  • the synthesizing unit 116 synthesizes the right image and the outer frame image, and provides the synthesized image to the output unit 118.
  • the output unit 118 outputs the left image to the left eye of the viewer.
  • the output unit 118 outputs the right image to the right eye of the viewer. Further, the output unit 118 outputs the outer frame image to both the left eye and the right eye of the viewer.
  • the output unit 118 includes a display unit 120 and observation glasses 122.
  • the display unit 120 includes a display image display unit 132 and an outer frame image display unit 134.
  • the display image display unit 132 displays a display image including a left image and a right image in a display area inside the outer frame.
  • the outer frame image display unit 134 displays the outer frame image in a display area corresponding to the outer frame.
  • the display unit 120 includes a plurality of pixels arranged in a two-dimensional matrix, similar to the display unit 32 according to the first embodiment shown in FIG. 2, for the left and right eyes of the viewer. On the other hand, it has a display area in which pixel lines for displaying an image are alternately arranged.
  • the display unit 120 displays a left image obtained by synthesizing the outer frame image with each pixel line for the left eye. As an example, the display unit 120 emits circularly polarized light in the first rotation direction from the left-eye pixel line.
  • the display unit 120 displays the right image obtained by synthesizing the outer frame image with the pixel line for the right eye. For example, the display unit 120 emits circularly polarized light in the second rotation direction that is reverse to the circularly polarized light in the first rotation direction from the pixel line for the right eye.
  • Such a display unit 120 can display a display image including a left image and a right image on the display image display unit 132, and can display an outer frame image on the outer frame image display unit 134.
  • the observation glasses 122 give the image displayed by the pixel line for the right eye of the display unit 120 only to the right eye, and give the image displayed by the pixel line for the left eye of the display unit 120 only to the left eye.
  • the observation glasses 122 include a left-eye polarizing filter disposed on the left eye of the viewer that transmits circularly polarized light in the first rotational direction and blocks circularly polarized light in the second rotational direction, A right-eye polarizing filter disposed on the right eye of the viewer that transmits circularly polarized light in the rotational direction and blocks circularly polarized light in the first rotational direction.
  • the output unit 118 including the display unit 120 and the observation glasses 122 can output the left image to the left eye of the viewer and output the right image to the right eye of the viewer. . Further, such an output unit 118 can output the outer frame image to both the left eye and the right eye of the viewer.
  • the output unit 118 provides the left image only to the viewer's left eye, the right image to only the viewer's right eye, and the outer frame image to both the viewer's left eye and right eye. Any configuration is possible as long as it is possible.
  • the output unit 118 includes a display device that alternately displays a left image combined with an outer frame image and a right image combined with an outer frame image temporally, and glasses with shutters having a shutter synchronized with the display device. You may have. In this case, the glasses with shutters open the left eye shutter and close the right eye shutter during the period in which the left image with the outer frame image is displayed, and the right image with the outer frame image displayed is displayed. During this period, the right eye shutter is opened and the left eye shutter is closed.
  • the output unit 118 may be a head mounted display having a left eye display area and a right eye display area. Further, the output unit 118 displays the left image only on the left eye of the viewer and the right image only on the right eye of the viewer using a color filter or a spectral characteristic difference, a difference in deflection direction, and the like. It may be a device that performs.
  • the display image is generated by shifting the two-dimensional image left and right.
  • the image processing apparatus 110 it is possible to provide a viewer with a display image with very simple processing and at a low cost.
  • the outer frame image generation unit 114 and the outer frame image display unit 134 function as an outer frame unit provided on at least a part of the outer edge of the display image. Therefore, the image processing apparatus 110 can view the display image through the outer frame. That is, the image processing apparatus 110 can display the display image inside the outer frame. Thereby, according to the image processing apparatus 110, it is possible to provide a natural display image without giving the viewer the feeling that the peripheral portion of the display image is interrupted.
  • the outer frame image generation unit 114 may shift the outer frame image left and right by a shift amount smaller than the shift amount of the display image. That is, the outer frame image generation unit 114 outputs an outer frame image to be given to the left eye (that is, an outer frame image to be synthesized with the left image) and an outer frame image to be given to the right eye (that is, an outer frame to be synthesized with the right image). A shift amount smaller than the shift amount of the display image may be given to the image). For example, the outer frame image generation unit 114 may generate an outer frame image with a shift amount of zero. As a result, the image processing apparatus 110 can display the outer frame in front of the display target of the display image (the viewer side) and provide the viewer with a more natural display image.
  • the outer frame image display unit 134 displays an outer frame image when the image processing apparatus 110 displays a display image, and the outer frame image display unit 134 displays an outer frame when the image processing apparatus 110 does not display a two-dimensional image stereoscopically.
  • the structure which does not display an image may be sufficient.
  • the outer frame image display unit 134 receives a parameter indicating whether to display a display image, and performs switching. Thereby, the image processing apparatus 110 can widen an effective display area when the display image is not provided.
  • the display image display unit 132 and the outer frame image display unit 134 display images and outer frames in the right eye display region and the left eye display region in the head mounted display. Display an image.
  • the outer frame image generation unit 114 generates an outer frame image shifted left and right by a shift amount that is closer to the viewpoint than the display area for the right eye and the display area for the left eye in the head mounted display.
  • the image processing apparatus 110 can display the outer frame in front of the display target of the display image (the viewer side) and provide the viewer with a more natural display image.
  • the image processing apparatus 110 can provide the user with a stereoscopic image by giving the user an image at infinity and giving an image without parallax to the left eye and the right eye.
  • the image processing apparatus 110 can give a sense of presence as if looking out from a window, for example, in a landscape image or the like.
  • the image processing apparatus 110 can give a real feeling as seen with a magnifying glass to an image taken at a short distance such as macro photography.
  • FIG. 17 shows an example of the non-corresponding area and the crosstalk in which only one of the left image and the right image is displayed.
  • the left screen and the right screen are not displayed when the left image and the right image are generated by shifting one two-dimensional image left and right. (That is, a non-corresponding region where the right image and the left image do not overlap).
  • a non-corresponding area where the right screen is displayed but the left screen is not displayed exists in the right side portion of the display area when the outer frame image is not displayed.
  • crosstalk or ghost that appears as a vertical line is observed at a position inside the pupil distance from the right end of the display area and a position inside the pupil distance from the left end of the display area.
  • Such a non-corresponding region and crosstalk give the viewer an unnatural feeling.
  • FIG. 18 shows an example of the outer frame image. Therefore, it is preferable that the outer frame image generation unit 114 generates an outer frame image that covers at least the non-corresponding region and the crosstalk included in the display image. That is, it is preferable that the outer frame image generation unit 114 generates an outer frame image in which the frame width of each of the left side and the right side is at least the inter-pupil distance. As a result, according to the image processing apparatus 110, it is possible to provide the viewer with a natural display image by hiding the non-corresponding region and the crosstalk portion that give unnatural feeling in the display image.
  • the outer frame image generation unit 114 may generate an outer frame image having only the left side portion and the right side portion. That is, an outer frame image that does not have an upper side portion and a lower side portion may be generated. Thereby, the image processing apparatus 110 can provide a display image in which at least the non-corresponding region and the crosstalk portion are hidden.
  • FIG. 19 shows a configuration of an image processing apparatus 110 according to a first modification of the second embodiment. Since the image processing apparatus 110 according to this modification employs substantially the same configuration and function as the image processing apparatus 110 illustrated in FIG. 16, members having substantially the same function and configuration are denoted by the same reference numerals, and the following differences are noted. Description is omitted except for the points.
  • the image processing apparatus 110 includes a display image generation unit 112 and an output unit 118.
  • the output unit 118 according to this modification includes a display unit 120, observation glasses 122, and an outer frame unit 136.
  • the display unit 120 displays a display image including the left side image and the right side image generated by the display image generation unit 112.
  • the outer frame unit 136 is provided between the display unit 120 and the viewer and functions as an outer frame of the display image.
  • the outer frame portion 136 is provided at a peripheral portion of the screen of the display unit 120.
  • the outer frame portion 136 covers at least a part of the display area in which the right and left images obtained by shifting the two-dimensional image left and right among the display images displayed by the display unit 120 do not overlap. More preferably, the outer frame portion 136 covers at least the non-corresponding region and the crosstalk portion included in the display image, similarly to the outer frame image shown in FIG. According to such an image processing apparatus 110 according to this modification, it is possible to provide the viewer with a natural display image by hiding the non-corresponding region and the crosstalk portion that give unnatural feeling in the display image. it can.
  • the outer frame 136 covers at least a part of the display area where the right image and the left image do not overlap when the image processing apparatus 110 displays a display image, and the image processing apparatus 110 displays the two-dimensional image.
  • the configuration may be such that the display area is not covered when the image is not stereoscopically displayed.
  • the outer frame portion 136 moves inward to hide the peripheral portion of the display surface of the display unit 120, and when the display image is not displayed, It may be configured to move outward to expose all of the surfaces. Thereby, the outer frame part 136 can widen an effective display area when the display image is not displayed.
  • FIG. 20 shows a configuration of the output unit 118 provided in the image processing apparatus 110 according to the second modification of the second embodiment.
  • the image processing apparatus 110 according to the present modification employs substantially the same configuration and functions as the image processing apparatus 110 illustrated in FIG. 19, and therefore, members having substantially the same functions and configurations are denoted by the same reference numerals, and the following differences are noted. Description is omitted except for the points.
  • the output unit 118 is a head mounted display that is attached to the viewer's head and displays a display image to the viewer.
  • the display image display unit 132 displays a display image in the left eye display area 140 and the right eye display area 142 of the head mounted display.
  • the output unit 118 includes an outer frame portion 136-L for the left eye and an outer frame portion 136-R for the right eye.
  • the left eye outer frame portion 136 -L covers a part of the left image output from the left eye display area 140.
  • the right-eye outer frame portion 136 -R covers a part of the right-side image output from the right-eye display area 142.
  • the left-eye outer frame portion 136-L and the right-eye outer frame portion 136-R are closer to the viewpoint than the left-eye display region 140 and the right-eye display region 142 in the head-mounted display.
  • FIG. 21 shows an example of a hardware configuration of a computer 1900 according to the present embodiment.
  • a computer 1900 according to this embodiment is connected to a CPU peripheral unit having a CPU 2000, a RAM 2020, a graphic controller 2075, and a display device 2080 that are connected to each other by a host controller 2082, and to the host controller 2082 by an input / output controller 2084.
  • Input / output unit having communication interface 2030, hard disk drive 2040, and CD-ROM drive 2060, and legacy input / output unit having ROM 2010, flexible disk drive 2050, and input / output chip 2070 connected to input / output controller 2084 With.
  • the host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate.
  • the CPU 2000 operates based on programs stored in the ROM 2010 and the RAM 2020 and controls each unit.
  • the graphic controller 2075 acquires image data generated by the CPU 2000 or the like on a frame buffer provided in the RAM 2020 and displays it on the display device 2080.
  • the graphic controller 2075 may include a frame buffer for storing image data generated by the CPU 2000 or the like.
  • the input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the CD-ROM drive 2060, which are relatively high-speed input / output devices.
  • the communication interface 2030 communicates with other devices via a network.
  • the hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900.
  • the CD-ROM drive 2060 reads a program or data from the CD-ROM 2095 and provides it to the hard disk drive 2040 via the RAM 2020.
  • the ROM 2010, the flexible disk drive 2050, and the relatively low-speed input / output device of the input / output chip 2070 are connected to the input / output controller 2084.
  • the ROM 2010 stores a boot program that the computer 1900 executes at startup and / or a program that depends on the hardware of the computer 1900.
  • the flexible disk drive 2050 reads a program or data from the flexible disk 2090 and provides it to the hard disk drive 2040 via the RAM 2020.
  • the input / output chip 2070 connects the flexible disk drive 2050 to the input / output controller 2084 and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.
  • the program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as the flexible disk 2090, the CD-ROM 2095, or an IC card and provided by the user.
  • the program is read from the recording medium, installed in the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed by the CPU 2000.
  • the computer 1900 functions as the image processing apparatus 10 according to the first embodiment or the image processing apparatus 110 according to the second embodiment.
  • a program installed on the computer 1900 and causing the computer 1900 to function as the image processing apparatus 10 according to the first embodiment includes a generation module, a right end processing module, a left end processing module, and an output module. These programs or modules work on the CPU 2000 or the like to cause the computer 1900 to function as the generation unit 20, the right end processing unit 22, the left end processing unit 24, and the output unit 30, respectively.
  • the information processing described in these programs is read into the computer 1900, and the generating unit 20, the right end processing unit 22, the left end processing, which are specific means in which the software and the various hardware resources described above cooperate with each other.
  • the unit 24 and the output unit 30 function.
  • the specific image processing apparatus 10 according to the intended use is constructed
  • a program installed in the computer 1900 and causing the computer 1900 to function as the image processing apparatus 110 according to the second embodiment includes a display image generation module, an outer frame image generation module, a synthesis module, and an output module. . These programs or modules work on the CPU 2000 or the like to cause the computer 1900 to function as the display image generation unit 112, the outer frame image generation unit 114, the synthesis unit 116, and the output unit 118, respectively.
  • the information processing described in these programs is read into the computer 1900, whereby the display image generation unit 112, which is a specific means in which the software and the various hardware resources described above cooperate, and the outer frame image generation. Functions as the unit 114, the combining unit 116, and the output unit 118. And the specific image processing apparatus 10 according to the intended use is constructed
  • the CPU 2000 executes a communication program loaded on the RAM 2020 and executes a communication interface based on the processing content described in the communication program.
  • a communication process is instructed to 2030.
  • the communication interface 2030 reads transmission data stored in a transmission buffer area or the like provided on a storage device such as the RAM 2020, the hard disk drive 2040, the flexible disk 2090, or the CD-ROM 2095, and sends it to the network.
  • the reception data transmitted or received from the network is written into a reception buffer area or the like provided on the storage device.
  • the communication interface 2030 may transfer transmission / reception data to / from the storage device by a DMA (direct memory access) method. Instead, the CPU 2000 transfers the storage device or the communication interface 2030 as a transfer source.
  • the transmission / reception data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.
  • the CPU 2000 is all or necessary from among files or databases stored in an external storage device such as a hard disk drive 2040, a CD-ROM drive 2060 (CD-ROM 2095), and a flexible disk drive 2050 (flexible disk 2090).
  • This portion is read into the RAM 2020 by DMA transfer or the like, and various processes are performed on the data on the RAM 2020. Then, CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like.
  • the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, or a storage device.
  • the CPU 2000 can also store a part of the RAM 2020 in the cache memory and perform reading and writing on the cache memory. Even in such a form, the cache memory bears a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device unless otherwise indicated. To do.
  • the CPU 2000 performs various operations, such as various operations, information processing, condition determination, information search / replacement, etc., described in the present embodiment, specified for the data read from the RAM 2020 by the instruction sequence of the program. Is written back to the RAM 2020. For example, when performing the condition determination, the CPU 2000 determines whether the various variables shown in the present embodiment satisfy the conditions such as large, small, above, below, equal, etc., compared to other variables or constants. When the condition is satisfied (or not satisfied), the program branches to a different instruction sequence or calls a subroutine.
  • the CPU 2000 can search for information stored in a file or database in the storage device. For example, in the case where a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 displays the plurality of entries stored in the storage device. The entry that matches the condition in which the attribute value of the first attribute is specified is retrieved, and the attribute value of the second attribute that is stored in the entry is read, thereby associating with the first attribute that satisfies the predetermined condition The attribute value of the specified second attribute can be obtained.
  • the program or module shown above may be stored in an external recording medium.
  • an optical recording medium such as DVD or CD
  • a magneto-optical recording medium such as MO
  • a tape medium such as an IC card, and the like
  • a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1900 via the network.

Abstract

 立体画像における画面の右側および左側の端部部分の不自然さを解消する。2次元画像を立体的に表示するための画像処理装置10であって、2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部20と、左側画像の右側に、表示領域の右端から所定の範囲内に表示される右端画像を付加する右端処理部22と、右側画像の左側に、表示領域の左端から所定の範囲内に表示される左端画像を付加する左端処理部24と、右端画像が付加された左側画像をユーザの左眼に対して出力し、左端画像が付加された右側画像をユーザの右眼に対して出力する出力部30とを備える画像処理装置10を提供する。

Description

画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
 本発明は、画像処理装置、プログラム、画像処理方法、記録方法および記録媒体に関する。
 従来より、立体(3D)画像の提示技術が知られている。立体映像を提示する技術の一つとして、物体を右眼から見たときの右眼用画像および当該物体を左眼から見たときの左眼用画像を生成して、右眼用画像をユーザの右眼に対してのみに表示し、左眼用画像をユーザの左眼に対してのみに表示する技術(ステレオ立体視技術)が存在する。
 特許文献1 日本国特許公開公報 特開平10-117362号
 特許文献2 日本国特許公開公報 特開2002-262310号
 特許文献3 日本国特許公開公報 特開平8-205201号
 ところで、このようなステレオ立体視技術は、ユーザに不快感を与える場合がある。ステレオ立体視技術では、面上に表示された画像を、両眼の視差により、あたかも奥行きおよび飛び出しがあるように感じさせている。従って、通常の立体物を見ている場合と比較して、視覚と脳の働きが異なり、このことが場合により画像に不自然感を生じさせ、結果として不快感を引き起こすとされている。特に、視覚の輻輳と調節との不一致(両眼輻輳の交差点と、実際に像として焦点が合っている位置とが異なること)が、大きな要因とされている。
 また、ステレオ立体視技術は、立体映像用の視差画像を生成するためのコストが大きい。ステレオ立体視技術では、1つの場面に対して視差を有する2つの画像(右眼用画像および左眼用画像)を生成しなければならない。従って、撮影時において、適切に設置及び制御された2個以上のカメラにより視差画像を取得しなければならなく、コストが大きい。また、コンピュータグラフィクス等により人工的に画像を合成する場合にも、視差画像を生成するためのコストが大きい。
 また、2次元画像を元に視差画像を生成する方法も種々提案されている。例えば、時間差をもって取得された複数画像をそれぞれ右眼用画像および左眼用画像とする方法が提案されている。また、例えば、2次元画像を解析してユーザが奥行き情報を付加する作業を行って、2次元画像から視差画像を生成する方法も提案されている。しかしながら、何れの方法も処理が煩雑で人間判断を伴うマニュアル作業が含まれており、コストが大きい。
 また、右眼用画像及び左眼用画像に視差を与えずに立体映像を提示する方法も提案されている(特許文献1~3)。しかしながら、いずれの方法も、立体映像を適切に提示するための具体的な処理については明確ではない。さらに、このような2次元画像を元に提供される立体映像は、画面の右側および左側の端部部分において、一方の画像のみしか存在しない部分が生じてしまい、不自然となる場合がある。
 また、このようなステレオ立体視技術は、表示画面の端部部分において、画像に不自然感を生じさせる場合がある。例えば、立体映像が画面の端部に対応する部分において途切れてしまう場合がある。
 そこで本発明は、上記の課題を解決することのできる画像処理装置、プログラム、画像処理方法、記録方法および記録媒体を提供することを目的とする。この目的は請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
 上記課題を解決するために、本発明の第1の態様においては、2次元画像を立体的に表示可能にするための画像処理装置であって、前記2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加する右端処理部と、前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加する左端処理部と、前記右端画像が付加された前記左側画像をユーザの左眼に対して出力し、前記左端画像が付加された前記右側画像をユーザの右眼に対して出力する出力部と、を備える画像処理装置を提供する。更に、コンピュータをこのような画像処理装置として機能させるプログラム、画像処理方法を提供する。
 また、本発明の第2の態様においては、2次元画像を立体的に表示可能にするための画像を記録する記録方法であって、前記2次元画像を表示領域内において左右にずらした左側画像の画像データおよび右側画像の画像データを生成し、前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加し、前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加し、右端画像が付加された前記左側画像の画像データを、記録媒体における、再生装置によって読み取られてユーザの左眼に対して出力される画像を保持する左側画像データ記録領域に記録し、左端画像が付加された前記右側画像の画像データを、記録媒体における、再生装置によって読み取られてユーザの右眼に対して出力される画像を保持する右側画像データ記録領域に記録する記録方法を提供する。さらに、このような記録方法により記録がされた記録媒体を提供する。
 また、本発明の第3の態様においては、2次元画像から表示用画像を生成する画像処理装置であって、前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像であり、外縁に設ける外枠の内側に表示する前記表示用画像を生成する表示用画像生成部を備える画像処理装置、プログラムおよび画像処理方法を提供する。
 また、本発明の第4の態様においては、2次元画像から表示用画像を生成する画像処理装置であって、前記表示用画像の外縁に設ける外枠の少なくとも一部として表示されるべき外枠画像を生成する外枠画像生成部と、前記外枠の内側の表示領域内において、前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像を生成する表示用画像生成部と、を備える画像処理装置を提供する。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。
第1実施形態に係る画像処理装置10の構成を示す。 表示部32による表示の一例を示す。 左側画像上の表示点、右側画像上の表示点、及び、ユーザにより知覚される像の一例を示す。 表示領域におけるユーザの有効視野、及び、表示領域における左側画像または右側画像の一方のみが表示される非対応領域の一例を示す。 ユーザが表示領域の右端部に注目している場合の視線の一例を示す。 単一色の右端画像が付加された左側画像の一例、および、単一色の左端画像が付加された右側画像の一例を示す。 右側画像の一部分をコピーした右端画像が付加された左側画像の一例、および、左側画像の一部分をコピーした左端画像が付加された右側画像の一例を示す。 右方向に拡大した左側画像の一例、および、左方向に拡大した右側画像の一例を示す。 左側画像および右側画像を表示する表示部32の構成の一例を示す。 左端部分を削除した左側画像の一例、および、右端部分を削除した右側画像の一例を示す。 2次元画像を拡大した後に、左側画像および右側画像を生成した場合の一例を示す。 第1実施形態の第1変形例に係る画像処理装置10の構成を示す。 第1実施形態の第2変形例に係る画像処理装置10の構成を示す。 第1実施形態の第3変形例に係る画像処理装置10の構成を示す。 第1実施形態に係る記録再生システム50の構成を示す。 第2実施形態に係る画像処理装置110の構成を示す。 左側画像または右側画像の一方のみが表示される非対応領域およびクロストークの一例を示す。 外枠画像の一例を示す。 第2実施形態の第1変形例に係る画像処理装置110の構成を示す。 第2実施形態の第2変形例に係る画像処理装置110に備えられる出力部118の構成を示す。 本発明の実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、第1実施形態に係る画像処理装置10の構成を示す。画像処理装置10は、与えられた2次元画像を立体的に表示可能にするための装置である。より具体的には、画像処理装置10は、与えられた2次元画像に基づき、ユーザの右眼に対して出力する画像および当該ユーザの左眼に対して出力する画像を生成して、表示装置に表示する。なお、与えられる2次元画像は、静止画像であっても、時間的に連続する複数の静止画像を含む動画像であってもよい。
 画像処理装置10は、生成部20と、右端処理部22と、左端処理部24と、出力部30とを備える。生成部20は、一例として、記録媒体からデータを再生する再生装置または伝送されたデータを受信する受信装置から、2次元画像を受け取る。
 生成部20は、2次元画像を表示領域内において左右に瞳孔間距離以下の距離分ずらした左側画像および右側画像を生成する。生成部20は、一例として、同一の2次元画像に基づいて左側画像および右側画像を生成する。
 ここで、瞳孔間距離は、人間の瞳間の距離(40mmから90mm)であって、当該距離だけ離した位置に左側画像および右側画像を表示すると、人間が、左眼で見た左側画像の表示物と右眼で見た右側画像の表示物とを融合して一つの像として認識することができ、且つ、融合した像を無限遠に認識することができる距離である。この場合、観視者の両眼の視線は平行となっている。従って、生成部20は、2次元画像を表示領域内において左右に0より大きく90mm以下の距離分ずらした左側画像および右側画像を生成することが望ましい。
 なお、人間は、両眼の視線が平行な状態から左右に2~3度程度開いた方向にある対象でも、両眼融合視をできる場合がある。従って、左側画像と右側画像との間の距離は、左眼の視線が平行状態から左側に3度以下(好ましくは2度)、右眼の視線が平行状態から右側に3度以下(好ましくは2度)ずれる距離であってもよい。左側画像と右側画像との間の距離が、瞳孔間距離からずれてよい許容量は、観視者と表示面との間の距離が遠くなるほど大きくなる。
 また、表示領域は、ユーザに対して立体画像を提供する表示装置における画像の表示部分の領域である。より具体的には、例えば、表示領域は、テレビジョン装置の表示面、コンピュータのモニタ内に表示された1つのウィンドウ領域等の1つの画面上に形成された領域である。また、例えば、表示領域は、ヘッドマウントディスプレイの表示面等のように2つの画面により形成された領域であってもよい。生成部20は、一例として、与えられた2次元画像の画素サイズと表示領域の大きさとに応じて、左側画像および右側画像間の表示領域上における距離が瞳孔間距離となるように、左側画像と右側画像と間のデータ上における距離を変更してもよい。
 生成部20は、一例として、元の2次元画像を左方向にずらして左側画像を生成する。また、生成部20は、一例として、元の2次元画像を右方向にずらして右側画像を生成する。また、生成部20は、一例として、元の2次元画像を左方向にずらして生成された左側画像における、表示領域の左側境界から左側にはみ出した部分を削除してもよい。生成部20は、一例として、元の2次元画像を右方向にずらして生成された右側画像における、表示領域の右側境界から右側にはみ出した部分を削除してもよい。
 また、当該画像処理装置10が1個の表示領域を有する表示装置により立体画像を提供する場合、生成部20は、当該表示領域の水平ラインを垂直方向に所定本ずつ交互に選択した場合における一方の水平ライン(例えば偶数ライン)に表示される画像を、左側画像とする。また、この場合、生成部20は、表示領域の水平ラインを垂直方向に所定本ずつ交互に選択した場合における他方の水平ライン(例えば奇数ライン)に表示される画像を、右側画像とする。
 また、当該画像処理装置10が1個の表示領域を有する表示装置により立体画像を提供する場合、生成部20は、動画像に含まれる各フレームを時間順に所定枚ずつ交互に選択した場合における一方のフレーム(例えば偶数フレーム)に表示される画像を、左側画像とする。また、この場合、生成部20は、動画像に含まれる各フレームを時間順に所定枚ずつ交互に選択した場合における他方のフレーム(例えば奇数フレーム)に表示される画像を、右側画像とする。
 また、当該画像処理装置10がヘッドマウントディスプレイのような左眼用表示面および右眼用表示面を有する表示装置によりユーザに対して立体画像を提供する場合、生成部20は、左眼用表示面に表示される画像を左側画像とする。また、この場合、生成部20は、右眼用表示面に表示される画像を右側画像とする。
 また、生成部20は、一例として、左側画像および右側画像を生成する処理をコンピュータのソフトウェア演算により行ってもよい。これに代えて、生成部20は、リアルタイムで伝送または再生されるビデオ信号に対してリアルタイムで画像処理を行ってもよい。
 右端処理部22は、左側画像の右側に、表示領域の右端から所定の範囲内に表示される右端画像を付加する。右端処理部22は、一例として、元の2次元画像を左方向にずらした結果できた左側画像の右側の空白部分に、右端画像を付加する。なお、右端処理部22が付加する右端画像の具体例については、詳細を後述する。
 左端処理部24は、右側画像の左側に、表示領域の左端から所定の範囲内に表示される左端画像を付加する。左端処理部24は、一例として、元の2次元画像を右方向にずらした結果できた右側画像の左側の空白部分に、左端画像を付加する。なお、左端処理部24が付加する左端画像の具体例については、詳細を後述する。
 出力部30は、左側画像および右側画像が重複して表示されない領域が、ユーザの有効視野の外側に位置する表示領域を有する。そして、出力部30は、この表示領域により、右端画像が付加された左側画像をユーザの左眼に対して出力する。また、出力部30は、この表示領域により、左端画像が付加された右側画像をユーザの右眼に対して出力する。
 出力部30は、一例として、据置型の液晶ディスプレイのような1つの画面上に形成された表示領域内に、左側画像および右側画像を重複して表示する構成であってよい。これに代えて、出力部30は、ヘッドマウントディスプレイのような2つの画面により形成された表示領域のそれぞれに、左側画像および右側画像を別個に表示する構成であってもよい。
 本実施形態においては、出力部30は、表示部32と、立体視用メガネ34とを有する。表示部32は、2次元マトリクス状に配置された複数の画素を含み、ユーザの左眼および右眼に対して画像を表示する画素ラインが交互に配置された表示領域を有する。立体視用メガネ34は、表示部32の右眼用の画素ラインにより表示された画像を右眼のみに与え、表示部32の左眼用の画素ラインにより表示された画像を左眼のみに与える。出力部30がこのような表示部32および立体視用メガネ34を有する場合、生成部20は、表示領域における左眼に対する各画素ラインに対応する2次元画像の各画素から左側画像を生成すると共に、表示領域における右眼に対する各画素ラインに対応する2次元画像の各画素を右側にずらして右側画像を生成する。このような生成部20は、画素データを画素ライン単位で水平方向にずらすことにより、左側画像および右側画像を生成することができるので、回路構成を簡易にすることができる。
 表示部32は、一例として、左眼用画素ラインから第1回転方向の円偏光を発する。また、表示部32は、一例として、右眼用画素ラインから第1回転方向の円偏光とは逆回転の第2回転方向の円偏光を発する。そして、表示部32は、左眼用画素ラインにより左側画像を表示し、右眼用画素ラインにより右側画像を表示する。
 また、立体視用メガネ34は、一例として、第1回転方向の円偏光を透過して第2回転方向の円偏光を遮断するユーザの左眼上に配置される左眼用偏光フィルタと、第2回転方向の円偏光を透過して第1回転方向の円偏光を遮断するユーザの右眼上に配置される右眼用偏光フィルタとを有する。これにより、立体視用メガネ34は、表示部32の左眼用画素ラインにより表示された左側画像を左眼のみに与え、表示部32の右眼用画素ラインにより表示された右側画像を右眼のみに与えることができる。
 なお、出力部30は、左側画像をユーザの左眼のみに与え、右側画像をユーザの右眼のみに与えることができれば、どのような構成であってもよい。出力部30は、一例として、左側画像および右側画像を時間的に交互に表示する表示装置と、表示装置に同期したシャッタを有するシャッタ付メガネとを有してもよい。この場合、シャッタ付メガネは、左側画像が表示されている期間において左眼のシャッタを開いて右眼のシャッタを閉じ、右側画像が表示されている期間において右眼のシャッタを開いて左眼のシャッタを閉じる。このような出力部30によれば、左側画像をユーザの左眼のみに与え、右側画像をユーザの右眼のみに与えることができる。
 また、出力部30は、左眼用表示面と右眼用表示面とを有するヘッドマウントディスプレイであってもよい。また、出力部30は、色フィルタまたは分光特性差、偏向方向の違い等を利用して、左側画像をユーザの左眼のみに表示し、右側画像をユーザの右眼のみに表示する装置であってもよい。
 以上のように画像処理装置10によれば、2次元画像を左右にずらすことで立体画像を生成する。これにより、画像処理装置10によれば、非常に簡単な処理であって且つ小さいコストで立体画像をユーザに提供することができる。
 図2は、表示部32による表示の一例を示す。表示部32は、一例として、表示領域内における水平ラインを垂直方向に1本ずつ交互に選択した場合における一方(例えば偶数ライン)が左眼用画素ラインであり、他方(例えば奇数ライン)が右眼用画素ラインである。そして、この場合、生成部20は、このような表示部32の表示領域における左眼用画素ラインに対応する2次元画像の各画素から左側画像を生成すると共に、表示領域における右眼用画素ラインに対応する2次元画像の各画素から右側画像を生成して、表示部32に与える。これにより、表示部32は、立体視用メガネ34を用いることにより、左眼用画素ラインにより表示された左側画像を左眼のみに与え、右眼用画素ラインにより表示された右側画像を右眼のみに与えることができる。
 図3は、左側画像上の表示点、右側画像上の表示点、及び、ユーザにより知覚される像の一例を示す。人間が近距離の2次元画像を見ている場合、左眼に与えられている画像と右眼に与えられているが画像とは同一ではなく視差がある。人間は、この視差から、見ているものが2次元画像であると認識する。また、人間が無限遠(例えば10m以上)の物体を見ている場合、左眼に与えられている画像と右眼に与えられているが画像とは、視差がなく同一となる。人間は、無限遠を見ている場合、左眼に与えられている画像と右眼に与えられている画像との間に視差が無いことにより、見ている物体及び景色等に立体感および臨場感を感じる。
 画像処理装置10は、ユーザの瞳孔間距離と同じだけ左右に距離ずらした視差のない(即ち、互いに同じ)左側画像および右側画像を生成する。そして、画像処理装置10は、左側画像をユーザの左眼に与え、右側画像をユーザの右眼に与える。この結果、画像処理装置10は、ユーザの左眼および右眼の視線を平行状態とする、即ち、ユーザの視線を輻輳させない(左眼および右眼の視線を交差させない)状態とすることができる。これにより、画像処理装置10は、ユーザを、無限遠を見ている状態にすることができる。即ち、例えば、図3に示されるように、画像処理装置10は、ユーザに、A点(黒丸の点)およびB点(三角の点)をともに無限遠に位置する点として知覚させることができる。
 このように画像処理装置10は、ユーザに無限遠を見ている状態として且つ左眼と右眼とに視差のない画像を与えることにより、ユーザに立体的を感じる画像を提供することができる。例えば、画像処理装置10は、例えば風景画像等に、窓から外を見たような臨場感を与えることができる。また、画像処理装置10は、マクロ撮影などの近距離撮影の画像に、虫眼鏡でみたような実物感を与えることができる。
 画像処理装置10が、以上のような臨場感および実物感といった現実感を画像に与えることができる理由は、以下のように推定される。画像処理装置10は、ユーザの視線を輻輳させないので、視差による像の位置の特定をさせることができない。しかし、視差が無い場合であっても、人間は、経験常識から導き出される実際の対象物の大きさと画角から、像の位置を推定している。そして、人間は、このような位置の推定を無意識かつ瞬時に行い、立体感とともに実寸の感覚を得る。従って、画像処理装置10は、画像処理装置10は、ユーザの視線を輻輳させなくても、以上のような現実感を画像に与えることができると推定される。
 また、人間は、動画像を見ている場合、遠くの物体は動きが小さく、近くの物体は動きが大きく感じる。人間は、動画像を見ている場合、視差よりも、このような物体の動きに、より強く立体感を感じる。従って、画像処理装置10は、動画像を表示する場合には、ユーザに立体感をより強く感じさせることができる。
 さらに、画像処理装置10は、書割り効果と呼ばれる平面が立って見える現象、および、箱庭効果と呼ばれる、奥行きおよび飛び出し感を強調することによって画面の横方向の拡がり感を低下させる現象を発生させない。従って、画像処理装置10によれば、自然な立体感および臨場感を有する立体画像を提供することができる。
 また、画像処理装置10は、ユーザの視線を輻輳させないので、視覚の輻輳と調節との不一致が生じず、不快感を少なくすることができる。また、画像処理装置10は、画面よりも遠い位置に立体像を知覚させるので、枠(例えば、窓枠および虫眼鏡の枠等)を通してみるような感覚をユーザに与えることができる。従って、画像処理装置10によれば、画面より前に飛び出して見える像が画面枠で不自然に切断される現象が生じず、自然な立体画像をユーザに提供することができる。
 図4は、表示領域におけるユーザの有効視野、及び、表示領域における左側画像または右側画像の一方のみが表示される非対応領域の一例を示す。表示領域の左辺部分には、1枚の2次元画像を左右にずらして左側画像および右側画像を生成した場合における左側画面は表示されるが右側画面は表示されない領域(非対応領域)が存在する。同様に、表示領域の右辺部分には、右側画面は表示されるが左側画面は表示されない非対応領域が存在する。このような非対応領域は、ユーザに立体画像を提供することができない。
 また、人間の視覚域には、有効視野と、周辺視野が存在する。有効視野は、解像力及び色検知に優れ、視線が瞬時に移動し、意識的認知および注視に用いられる。即ち、有効視野は、テレビ映像または絵画等を観視する場合において、見ていると意識している範囲となる。周辺視野は、明暗に敏感であるが、認知的理解(例えば人物が誰か判定する、字を読む)には殆ど寄与しない。
 そこで、画像処理装置10は、非対応領域が、有効視野の外部に位置するような大きさの表示領域に対して、左側画像および右側画像を表示することが好ましい。これにより、画像処理装置10は、立体画像を提供することができない非対応部分の画像を、ユーザに意識的認知されなくすることができる。
 画像処理装置10は、例えば、左右方向の幅が下記の式(1)に表わされる値の表示領域に左側画像および右側画像を表示することが好ましい。式(1)において、Wは、表示領域の左右方向の幅を表わす。Dは、ユーザの視点から表示面までの距離を表わす。Lは、ユーザの瞳孔間距離を表わす。θは、ユーザの有効視野の角度を表わす。なお、θは、一般に約20°である。
 W≧(3×L)+(2×D×sin(θ/2)) …(1)
 即ち、表示領域における左右方向の幅Wは、有効視野の角度の2分の1の値の正弦値に、視点から表示面までの距離の2倍の値を乗じた値(2×D×sin(θ/2))と、瞳孔間距離の3倍の値(3×L)とを、加算した値以上であることが好ましい。
 以上から、生成部20は、表示領域が式(1)により表わされる横幅を有する場合に左側画像および右側画像を生成する。これにより、画像処理装置10は、自然な立体画像を提供することができる。
 生成部20は、一例として、表示部32の画面が、式(1)により表わされる幅Wを有することを条件に、左右にずらした左側画像および右側画像を生成して、ユーザに立体画像を提供する。ワイドサイズ(縦横比16:9)のテレビにおいて推奨されているユーザの視点から表示面までの距離は、画面中央部より、画面縦サイズの3倍程度の距離である。従って、生成部20は、一例として、表示部32が20インチ以上のワイドテレビであることを条件に、ユーザに立体画像を提供する。
 図5は、ユーザが表示領域の右端部に注目している場合の視線の一例を示す。人間が表示領域を見る場合、通常、中央部に注目し、端部には注目しない。従って、表示領域の横幅が式(1)において示した値を有すれば、通常においては、画像処理装置10は、ユーザに大きな違和感を与えることはない。
 しかし、表示領域の左端部または右端部に注目物が表示されている場合、または、中央部から左端部または右端部へ向かい注目物が移動する場合、人間は、表示領域の右端部または左端部に注目する。ユーザが表示領域の左端部または右端部を注目し且つ輻輳が生起されない場合、図5に示されるように、一方の眼の視線は表示領域内となり、他方の眼の視線は表示領域外となる。このような端部において生じる違和感が全体の監視感に対して影響を与える。
 ここで、人間は、窓枠から外の風景を見ている場合には違和感を有さない。従って、画像処理装置10は、ユーザに枠を意識させるような表示をすることにより、表示領域の右端部および左端部において自然な立体画像を提供することができる。
 図6は、単一色の右端画像が付加された左側画像の一例、および、単一色の左端画像が付加された右側画像の一例を示す。右端処理部22は、一例として、左側画像の右側に、表示領域の右端から所定の範囲内に表示される単一色の右端画像を付加する。右端処理部22は、一例として、左側画像の右側に、表示領域の右端から所定の範囲内に表示される黒等の暗色または白等の明色の右端画像を付加する。右端処理部22は、一例として、元の2次元画像を左方向にずらした結果できる、表示領域内における左側画像の右側の空白部分に、黒等の暗色または白等の明色の右端画像を付加する。
 また、左端処理部24は、一例として、右側画像の左側に、表示領域の左端から所定の範囲内に表示される、黒等の暗色または白等の明色の左端画像を付加する。左端処理部24は、一例として、元の2次元画像を右方向にずらした結果できる、表示領域内における右側画像の左側の空白部分に、黒等の暗色または白等の明色の左端画像を付加する。
 画像処理装置10は、このような右端画像および左端画像を付加することにより、表示領域における右端部および左端部において、枠を意識させるような表示をすることができる。これにより、画像処理装置10は、窓枠から外の風景を見ているような自然な立体画像をユーザに提供することができる。
 また、右端処理部22は、一例として、右端画像が付加された左側画像における、左側および右側のそれぞれに、瞳孔間距離以上の幅の黒等の暗色または白等の明色の枠画像を更に付加する。同様に、左端処理部24は、一例として、左端画像が付加された右側画像における、右側および左側のそれぞれに、瞳孔間距離以上の幅の黒等の暗色または白等の明色の枠画像を更に付加する。これにより、画像処理装置10は、表示画面内に明確な枠を表示することができる。
 図7は、右側画像の一部分をコピーした右端画像が付加された左側画像の一例、および、左側画像の一部分をコピーした左端画像が付加された右側画像の一例を示す。右端処理部22は、一例として、左側画像の右側に、右側画像における表示領域の右端から所定の範囲内に表示される部分を右端画像として付加する。右端処理部22は、一例として、右側画像における表示領域の右端から、左側画像の右端に対応する位置までの範囲内に表示される部分をコピーして、右端画像として左側画像の右側に付加する。
 また、左端処理部24は、一例として、右側画像の左側に、左側画像における表示領域の左端から所定の範囲内に表示される部分を左端画像として付加する。左端処理部24は、一例として、左側画像における表示領域の左端から、右側画像の左端に対応する位置までの範囲内に表示される部分をコピーして、左端画像として右側画像の左側に付加する。
 表示領域の右端部または左端部に注目している場合において輻輳が生起されると、右眼と左眼との間で見ているものが異なる視野闘争の問題が生じる。この場合、右眼に与えられる画像と左眼に与えられる画像とがかけ離れているほど、人間に与える不自然感は大きい。しかし、本例に係る画像処理装置10は、表示領域の右端部または左端部において右眼および左眼に同一の画像を与える。従って、本例に係る画像処理装置10は、表示領域の右端部または左端部において輻輳が生起された場合であっても、視野闘争を軽減して、不自然に感じない画像を提供することができる。なお、表示領域の中央部においては、両目融合の条件が保たれているので、端部と比較して輻輳が生起される可能性は低い。
 また、右端処理部22は、一例として、左側画像の右側に、右側画像における表示領域の右端から所定の範囲内に表示される部分をぼかした画像を右端画像として付加してもよい。また、左端処理部24は、一例として、右側画像の左側に、左側画像における表示領域の左端から所定の範囲内に表示される部分をぼかした画像を左端画像として付加してもよい。
 右眼および左眼にフォーカスレベルが異なる画像が与えられた場合、人間は、与えられる画像を立体的に感じる。従って、このような画像処理装置10は、表示領域の右端部または左端部において輻輳が生起された場合、視野闘争を軽減するとともに、ユーザに立体感を感じさせることができる。
 また、右端処理部22は、一例として、右端画像の色を、右側画像における、表示領域の右端から所定の範囲内に表示される部分の平均色としてもよい。さらに、これに加えてまたはこれに代えて、右端処理部22は、右端画像の輝度を、右側画像における、表示領域の右端から所定の範囲内に表示される部分の平均輝度としてもよい。また、左端処理部24は、一例として、左端画像の色を、左側画像における、表示領域の左端から所定の範囲内に表示される部分の平均色としてもよい。さらに、これに加えてまたはこれに代えて、左端処理部24は、左端画像の輝度を、左側画像における、表示領域の左端から所定の範囲内に表示される部分の平均輝度としてもよい。このような画像処理装置10は、表示領域の右端部または左端部において輻輳が生起された場合、色合いまたは輝度の同じ画像を左眼と右眼に与えることができるので、視野闘争を軽減することができる。
 図8は、右方向に拡大した左側画像の一例、および、左方向に拡大した右側画像の一例を示す。右端処理部22は、一例として、左側画像を右に拡大して左側画像および右端画像を含む画像を生成する。この場合において、右端処理部22は、左側画像を左右の端部に近いほど大きい拡大率で右へと拡大して左側画像および右端画像を含む画像を生成する。更に、この場合において、右端処理部22は、左側画像の所定位置(例えば中央位置)から左側の画像を拡大しなくてもよい。
 また、左端処理部24は、一例として、右側画像を左に拡大して右側画像および左端画像を含む画像を生成する。この場合において、左端処理部24は、右側画像を左右の端部に近いほど大きい拡大率で左へと拡大して右側画像および左端画像を含む画像を生成する。更に、この場合において、右端処理部22は、右側画像の所定位置(例えば中央位置)から右側の画像を拡大しなくてもよい。このような本例に係る画像処理装置10は、端部において画像が連続した自然な画像を提供することができる。
 また、右端処理部22および左端処理部24は、右方向および左方向への拡大率に合わせて、左側画像および右側画像を上下に拡大してもよい。この場合、右端処理部22および左端処理部24は、上下に拡大した結果、左側画像および右側画像における表示領域外となった部分を削除する。
 また、右端処理部22は、一例として、左側画像の右側に、当該左側画像における表示領域の右端から所定の範囲内に表示される部分(例えば、右端から1列分または数列分の画素列)を、右方向に繰り返す画像を右端画像として付加してもよい。また、左端処理部24は、一例として、右側画像の左側に、当該右側画像における表示領域の左端から所定の範囲内に表示される部分(例えば、左端から1列分または数列分の画素列)を、左方向に繰り返す画像を左端画像として付加してもよい。このような画像処理装置10は、端部において画像が連続した自然な画像を提供することができる。
 図9は、左側画像および右側画像を表示する表示部32の構成の一例を示す。表示部32は、表示領域上により表示される左側画像および右側画像における、左側画像および右側画像が互いに重ならない非対応領域を覆う、物理的な外枠部40を有する構成であってもよい。外枠部40は、一例として、表示部32の表示面上に直接貼り付けるテープ等である。これにより、画像処理装置10は、立体画像を提供することができない非対応部分の画像を隠して、自然な立体画像を提供することができる。
 図10は、左端部分を削除した左側画像の一例、および、右端部分を削除した右側画像の一例を示す。右端処理部22は、一例として、左側画像の右側に右端画像を付加することに代えて、右側画像の右側の所定の範囲を削除する。また、左端処理部24は、一例として、右側画像の左側に左端画像を付加することに代えて、左側画像の左側の所定の範囲を削除する。
 このような画像処理装置10は、立体画像を提供することができない非対応部分を無くした画像を表示することができる。ここで、表示部32は、表示領域中における画像が削除された部分から、暗色(例えば黒画像)等を出力する。従って、このような画像処理装置10は、図9と同様の外枠を設けた場合と同様に、自然な立体画像を提供することができる。
 図11は、2次元画像を拡大した後に、左側画像および右側画像を生成した場合の一例を示す。画像処理装置10は、一例として、次のような処理を行ってもよい。
 まず、生成部20は、2次元画像を所定の距離分左右に拡大する。例えば、生成部20は、横幅が、表示領域の横幅と瞳孔間距離とを加算した距離となるように左右方向に拡大する。この場合において、生成部20は、2次元画像の上下方向についても、左右方向と同じ拡大率で拡大してもよい。
 続いて、生成部20は、拡大した2次元画像を表示領域内において所定の距離分左右にずらした左側画像および右側画像を生成する。生成部20は、一例として、左側画像を左側に瞳孔間距離の1/2の距離分ずらし、右側画像を右側に瞳孔間距離の1/2の距離分ずらす。
 続いて、右端処理部22は、左側画像の右側に右端画像を付加することに代えて、右側画像の右側の所定の距離の範囲を削除する。右端処理部22は、一例として、右側画像の右端から、瞳孔間距離分の範囲を削除する。
 また、左端処理部24は、右側画像の左側に左端画像を付加することに代えて、左側画像の左側の所定の距離の範囲を削除する。左端処理部24は、一例として、左側画像の左端から、瞳孔間距離分の範囲を削除する。
 このような画像処理装置10は、立体画像を提供することができない非対応部分を無くした画像を表示することができる。従って、このような画像処理装置10は、自然な立体画像を提供することができる。なお、2次元画像を上下方向にも拡大した場合、画像処理装置10は、左側画像および右側画像における、表示範囲の上下の境界を超える部分について削除する。
 図12は、第1実施形態の第1変形例に係る画像処理装置10の構成を示す。本変形例に係る画像処理装置10は、図1に示した画像処理装置10と略同一の構成及び機能を採るので、略同一の機能及び構成を取る部材については同一の符号を付け、以下相違点を除き説明を省略する。
 本変形例に係る画像処理装置10は、特性測定部44を更に備える。特性測定部44は、生成部20により生成された右側画像における、表示領域の右端から所定の範囲内に表示される部分の特性を測定する。また、特性測定部44は、生成部20により生成された左側画像における、表示領域の左端から所定の範囲内に表示される部分の特性を測定する。特性測定部44は、一例として、対応する部分における、空間周波数、平均色および時間当たりの変化率等を測定する。
 本例に係る右端処理部22は、右側画像における、表示領域の右端から所定の範囲内に表示される部分の特性に応じて、当該部分の画像に基づいて右端画像を生成するか、または予め設定された表示条件の右端画像を生成するかを選択する。また、本例に係る左端処理部24は、左側画像における、表示領域の左端から所定の範囲内に表示される部分の特性に応じて、当該部分の画像に基づいて左端画像を生成するか、または予め設定された表示条件の左端画像を生成するかを選択する。ここで、予め設定された表示条件の画像とは、例えば、予め設定された色の画像、予め設定された輝度の画像および予め設定されたパターン画像等をいう。このような画像処理装置10は、輻輳が生起される場合においてユーザに不快感を与えない表示をするか、または、枠を表示してユーザに自然な立体画像を提供するかを、画像の特性に応じて切り替えることができる。
 右端処理部22は、一例として、右側画像における、表示領域の右端から所定の範囲内に表示される部分の空間周波数が基準値以上の場合に、当該部分の画像に基づいて右端画像を生成し、当該部分の空間周波数が基準値未満の場合に、予め設定された表示条件の右端画像を生成する。また、左端処理部24は、一例として、左側画像における、表示領域の左端から所定の範囲内に表示される部分の空間周波数が基準値以上の場合に、当該部分の画像に基づいて左端画像を生成し、当該部分の空間周波数が基準値未満の場合に、予め設定された表示条件の左端画像を生成する。このような画像処理装置10は、表示領域の端部に、空間周波数の高い注目物が表示されている場合には輻輳が生起されても不快感を与えないような表示をし、空間周波数の高い注目物が表示されていない場合には枠を表示して自然な立体画像を提供することができる。
 また、右端処理部22は、一例として、右側画像における、表示領域の右端から所定の範囲内に表示される部分の平均色が基準範囲外の場合に、当該部分の画像に基づいて右端画像を生成し、当該部分の平均色が基準範囲内の場合に、予め設定された表示条件の右端画像を生成する。また、左端処理部24は、一例として、左側画像における、表示領域の左端から所定の範囲内に表示される部分の平均色が基準範囲外の場合に、当該部分の画像に基づいて左端画像を生成し、当該部分の平均色が基準範囲内の場合に、予め設定された表示条件の左端画像を生成する。このような画像処理装置10は、表示領域の端部に、他部分と色が異なる注目物が表示されている場合には輻輳が生起されても不快感を与えないような表示をし、他部分と色が異なる注目物が表示されていない場合には枠を表示して自然な立体画像を提供することができる。
 また、当該画像処理装置10が、動画に含まれる連続する複数の2次元画像を立体的に表示するための装置であるとする。この場合、右端処理部22は、一例として、右側画像における、表示領域の右端から所定の範囲内に表示される部分の時間当たりの変化率が基準値以上の場合に、当該部分の画像に基づいて右端画像を生成し、当該部分の時間当たりの変化率が基準値未満の場合に、予め設定された表示条件の右端画像を生成する。また、左端処理部24は、一例として、左側画像における、表示領域の左端から所定の範囲内に表示される部分の時間当たりの変化率が基準値以上の場合に、当該部分の画像に基づいて左端画像を生成し、当該部分の時間当たりの変化率が基準値未満の場合に、予め設定された表示条件の左端画像を生成する。このような画像処理装置10は、表示領域の端部に、時間変化の大きい注目物が表示されている場合には輻輳が生起されても不快感を与えないような表示をし、時間変化の大きい注目物が表示されていない場合には枠を表示して自然な立体画像を提供することができる。
 更に、右端処理部22および左端処理部24は、一例として、与えられた2次元画像の撮影時のフォーカス制御において用いられた距離情報、動画像の生成者が別個に入力した値等に応じて、右端画像および左端画像の生成処理内容を切り換えてもよい。また、右端処理部22および左端処理部24は、一例として、動画像が与えられた場合には、シーンの内容に応じて、右端画像および左端画像の生成処理内容を切り換えてもよい。
 図13は、第1実施形態の第2変形例に係る画像処理装置10の構成を示す。本変形例に係る画像処理装置10は、図1に示した画像処理装置10と略同一の構成及び機能を採るので、略同一の機能及び構成を取る部材については同一の符号を付け、以下相違点を除き説明を省略する。
 本変形例に係る画像処理装置10は、視線計測部46を更に備える。視線計測部46は、ユーザの視線方向を計測する。視線計測部46は、一例として、表示部32に取り付けた撮像センサ等により得られたユーザの顔画像から、当該ユーザの眼球部分を検出して、ユーザの視線方向を計測する。また、視線計測部46は、立体視用メガネ34に設けられたセンサ等によりユーザの視線方向を計測してもよい。
 本例に係る右端処理部22は、視線方向が表示領域の中心を含む基準範囲よりも右にずれている場合に、表示領域の右端から所定の範囲内に表示される部分の画像に基づいて右端画像を生成し、視線方向が基準範囲より右にずれていない場合に、予め設定された表示条件の右端画像を生成する。また、本例に係る左端処理部24は、視線方向が表示領域の中心を含む基準範囲よりも左にずれている場合に、表示領域の左端から所定の範囲内に表示される部分の画像に基づいて左端画像を生成し、視線方向が基準範囲より左にずれていない場合に、予め設定された表示条件の左端画像を生成する。このような画像処理装置10は、ユーザの視線方向が表示領域の端部に向いている場合には輻輳が生起されても不快感を与えないような表示をし、ユーザの視線方向が表示領域の中央部分に向いている場合には枠を表示して自然な立体画像を提供することができる。
 図14は、第1実施形態の第3変形例に係る画像処理装置10の構成を示す。本変形例に係る画像処理装置10は、図1に示した画像処理装置10と略同一の構成及び機能を採るので、略同一の機能及び構成を取る部材については同一の符号を付け、以下相違点を除き説明を省略する。
 本変形例に係る画像処理装置10は、設定色記憶部48を更に備える。設定色記憶部48は、右端画像および左端画像に設定すべき色を記憶する。
 設定色記憶部48は、一例として、黒等の暗色または白等の明色の色を記憶する。また、設定色記憶部48は、一例として、表示装置の枠の色と同色または近い色を記憶してもよい。また、設定色記憶部48は、一例として、左右異なる色を記憶する。また、設定色記憶部48は、一例として、ユーザにより指定された色を記憶する。
 本例に係る右端処理部22および左端処理部24は、右端画像および左端画像の色を、設定色記憶部48に記憶された色に設定する。このような画像処理装置10は、ユーザに対して枠を意識させるために適した色または視野闘争を軽減する色の右端画像および左端画像を表示することができる。
 図15は、本実施形態に係る記録再生システム50の構成を示す。記録再生システム50は、2次元画像から立体的に表示可能にするためのデータを生成して、記録媒体100に記録する。また、記録再生システム50は、記録媒体100からデータを再生して立体画像を表示する。
 記録再生システム50は、生成部20と、記録装置62と、再生装置64と、出力部30とを備える。生成部20及び出力部30は、図1~図14を参照して説明した生成部20及び出力部30と同様の機能及び構成を有する。なお、記録再生システム50は、出力部30を備えない構成であってもよい。
 記録装置62は、生成部20により生成された左側画像および右側画像を記録媒体100に記録する。再生装置64は、記録媒体100に記憶された左側画像および右側画像を読み出して、出力部30に与える。
 記録媒体100は、再生装置64によって読み取られて立体的に表示される画像を記録する。記録媒体100は、左側画像データ記録領域と、右側画像データ記憶領域とを有する。左側画像データ記録領域は、2次元画像を表示領域内において左右にずらすことにより生成された左側画像および右側画像のうちの左側画像であって、再生装置64によって読み取られてユーザの左眼に対して出力される左側画像の画像データを保持する。右側画像データ記録領域は、2次元画像を表示領域内において左右にずらすことにより生成された左側画像および右側画像のうちの右側画像であって、再生装置64によって読み取られてユーザの右眼に対して出力される右側画像の画像データを保持する。
 このような記録再生システム50によれば、自然な立体画像を簡易な処理で生成して記録媒体100に記録することができる。さらに、記録再生システム50によれば、記録媒体100からデータを再生してユーザに立体画像を提供することができる。
 図16は、第2実施形態に係る画像処理装置110の構成を示す。画像処理装置110は、2次元画像から表示用画像を生成する。より具体的には、画像処理装置110は、与えられた2次元画像に基づき、観視者の右眼に対して出力する画像および当該観視者の左眼に対して出力する画像を生成して、表示装置に表示する。なお、与えられる2次元画像は、静止画像であっても、時間的に連続する複数の静止画像を含む動画像であってもよい。
 画像処理装置110は、表示用画像生成部112と、外枠画像生成部114と、合成部116と、出力部118とを備える。表示用画像生成部112は、一例として、記録媒体からデータを再生する再生装置または伝送されたデータを受信する受信装置から、2次元画像を受け取る。
 表示用画像生成部112は、2次元画像内に含まれる各表示対象物に依存しないシフト量分2次元画像を左右にシフトさせた表示用画像であり、外縁に設ける外枠の内側に表示する表示用画像を生成する。表示用画像生成部112は、一例として、2次元画像内の位置に応じて予め定められたシフト量分2次元画像を左右にずらした表示用画像を生成する。
 本実施形態においては、表示用画像生成部112は、予め定められたシフト量分2次元画像を左右に位置をずらした右眼用の右側画像および左眼用の左側画像を含む表示用画像を生成する。より具体的には、表示用画像生成部112は、同一の2次元画像を、表示領域内において左右に瞳孔間距離以下の距離分ずらした左側画像および右側画像を生成する。
 表示用画像生成部112は、一例として、元の2次元画像を、瞳孔間距離の1/2の距離分左方向にずらして左側画像を生成する。また、表示用画像生成部112は、一例として、元の2次元画像を瞳孔間距離の1/2の距離分右方向にずらして右側画像を生成する。また、表示用画像生成部112は、一例として、元の2次元画像を左方向にずらして生成された左側画像における、表示領域の左側境界から左側にはみ出した部分を削除してもよい。表示用画像生成部112は、一例として、元の2次元画像を右方向にずらして生成された右側画像における、表示領域の右側境界から右側にはみ出した部分を削除してもよい。
 外枠画像生成部114は、表示用画像が表示される表示領域の外枠として表示されるべき外枠画像を生成する。外枠画像生成部114は、表示用画像が表示される表示領域の周囲における、少なくとも一部に設けられる外枠として表示される外枠画像を生成してもよい。
 合成部116は、左側画像と外枠画像とを合成して、出力部118に与える。また、合成部116は、右側画像と外枠画像と合成して、出力部118に与える。
 出力部118は、左側画像を観視者の左眼に対して出力する。また、出力部118は、右側画像を観視者の右眼に対して出力する。更に、出力部118は、外枠画像を観視者の左眼および右眼の両方に対して出力する。
 本実施形態においては、出力部118は、表示部120と、観察用メガネ122とを有する。表示部120は、表示用画像表示部132と、外枠画像表示部134とを含む。表示用画像表示部132は、外枠の内側の表示領域に、左側画像および右側画像を含む表示用画像を表示する。外枠画像表示部134は、外枠に対応する表示領域に、外枠画像を表示する。
 表示部120は、一例として、図2に示した第1実施形態に係る表示部32と同様に、2次元マトリクス状に配置された複数の画素を含み、観視者の左眼および右眼に対して画像を表示する画素ラインが交互に配置された表示領域を有する。表示部120は、左眼用の各画素ラインにより、外枠画像が合成された左側画像を表示する。表示部120は、一例として、左眼用画素ラインから第1回転方向の円偏光を発する。
 また、表示部120は、右眼用の画素ラインにより、外枠画像が合成された右側画像を表示する。表示部120は、一例として、右眼用画素ラインから第1回転方向の円偏光とは逆回転の第2回転方向の円偏光を発する。このような表示部120は、表示用画像表示部132に左側画像および右側画像を含む表示用画像を表示し、外枠画像表示部134に外枠画像を表示することができる。
 観察用メガネ122は、表示部120の右眼用の画素ラインにより表示された画像を右眼のみに与え、表示部120の左眼用の画素ラインにより表示された画像を左眼のみに与える。観察用メガネ122は、一例として、第1回転方向の円偏光を透過して第2回転方向の円偏光を遮断する観視者の左眼上に配置される左眼用偏光フィルタと、第2回転方向の円偏光を透過して第1回転方向の円偏光を遮断する観視者の右眼上に配置される右眼用偏光フィルタとを有する。
 このような表示部120および観察用メガネ122を有する出力部118は、左側画像を観視者の左眼に対して出力し、右側画像を観視者の右眼に対して出力することができる。さらに、このような出力部118は、外枠画像を観視者の左眼および右眼の両方に対して出力することができる。
 なお、出力部118は、左側画像を観視者の左眼のみに与え、右側画像を観視者の右眼のみに与え、外枠画像を観視者の左眼および右眼の両方に与えることができれば、どのような構成であってもよい。出力部118は、一例として、外枠画像が合成された左側画像および外枠画像が合成された右側画像を時間的に交互に表示する表示装置と、表示装置に同期したシャッタを有するシャッタ付メガネとを有してもよい。この場合、シャッタ付メガネは、外枠画像が合成された左側画像が表示されている期間において左眼のシャッタを開いて右眼のシャッタを閉じ、外枠画像が合成された右側画像が表示されている期間において右眼のシャッタを開いて左眼のシャッタを閉じる。
 また、出力部118は、左眼用表示領域と右眼用表示領域とを有するヘッドマウントディスプレイであってもよい。また、出力部118は、色フィルタまたは分光特性差、偏向方向の違い等を利用して、左側画像を観視者の左眼のみに表示し、右側画像を観視者の右眼のみに表示する装置であってもよい。
 以上のように画像処理装置110によれば、2次元画像を左右にずらすことで表示用画像を生成する。これにより、画像処理装置110によれば、非常に簡単な処理であって且つ小さいコストで表示用画像を観視者に提供することができる。
 さらに、画像処理装置110は、外枠画像生成部114および外枠画像表示部134が表示用画像の外縁の少なくとも一部に設けられる外枠部として機能する。従って、画像処理装置110は、表示用画像を外枠を介して観視させることができる。即ち、画像処理装置110は、外枠の内側に表示用画像を表示することができる。これにより、画像処理装置110によれば、表示用画像の周囲部分が途切れて見える感覚を観視者に与えることなく、自然な表示用画像を提供することができる。
 なお、外枠画像生成部114は、一例として、表示用画像のシフト量よりも小さなシフト量分、外枠画像を左右にずらしてもよい。即ち、外枠画像生成部114は、左眼に与える外枠画像(即ち、左側画像に合成される外枠画像)と、右眼に与える外枠画像(即ち、右側画像に合成される外枠画像)との間に、表示用画像のシフト量よりも小さなシフト量を与えてもよい。例えば、外枠画像生成部114は、シフト量が0の外枠画像を生成してもよい。これにより、画像処理装置110は、表示用画像の表示対象物よりも手前(観視者側)に外枠を表示して、より自然な表示用画像を観視者に提供することができる。
 また、外枠画像表示部134は、当該画像処理装置110が表示用画像を表示する場合に外枠画像を表示し、当該画像処理装置110が2次元画像を立体的に表示しない場合に外枠画像を表示しない構成であってもよい。外枠画像表示部134は、一例として、表示用画像を表示するか否かを示すパラメータを受け取って、切り替えを行う。これにより、画像処理装置110は、表示用画像を提供しない場合において、有効な表示領域を広くすることができる。
 また、出力部118がヘッドマウントディスプレイである場合、表示用画像表示部132および外枠画像表示部134は、ヘッドマウントディスプレイにおける右眼用表示領域および左眼用表示領域に表示用画像および外枠画像を表示する。そして、この場合、外枠画像生成部114は、ヘッドマウントディスプレイにおける右眼用表示領域および左眼用表示領域より視点に近く見えるシフト量分左右にずらした外枠画像を生成する。これにより、画像処理装置110は、表示用画像の表示対象物よりも手前(観視者側)に外枠を表示して、より自然な表示用画像を観視者に提供することができる。
 このように画像処理装置110は、ユーザに無限遠を見ている状態として且つ左眼と右眼とに視差のない画像を与えることにより、ユーザに立体的を感じる画像を提供することができる。例えば、画像処理装置110は、第1実施形態に係る画像処理装置10と同様に、例えば風景画像等に、窓から外を見たような臨場感を与えることができる。また、画像処理装置110は、マクロ撮影などの近距離撮影の画像に、虫眼鏡でみたような実物感を与えることができる。
 図17は、左側画像または右側画像の一方のみが表示される非対応領域およびクロストークの一例を示す。外枠画像を表示しない場合における表示領域の左辺部分には、1枚の2次元画像を左右にずらして左側画像および右側画像を生成した場合における左側画面は表示されるが右側画面は表示されない領域(即ち、右側画像および左側画像が重ならない非対応領域)が存在する。同様に、外枠画像を表示しない場合における表示領域の右辺部分には、右側画面は表示されるが左側画面は表示されない非対応領域が存在する。
 また、表示領域の右端から瞳孔間距離分内側の位置、および、表示領域の左端から瞳孔間距離分内側の位置には、縦方向の線に見えるクロストーク(またはゴースト)が観察される。このような非対応領域およびクロストークは、観視者に不自然感を与えてしまう。
 図18は、外枠画像の一例を示す。そこで、外枠画像生成部114は、表示用画像に含まれる少なくとも非対応領域およびクロストークを覆う外枠画像を生成することが好ましい。即ち、外枠画像生成部114は、左辺および右辺のそれぞれの枠幅が少なくとも瞳孔間距離以上である外枠画像を生成することが好ましい。これにより画像処理装置110によれば、表示用画像において不自然感を与える非対応領域およびクロストーク部分を隠して、観視者に自然な表示用画像を提供することができる。
 また、外枠画像生成部114は、左辺部分および右辺部分のみを有する外枠画像を生成してもよい。即ち、上辺部分および下辺部分を有さない外枠画像を生成してもよい。これにより、画像処理装置110は、少なくとも非対応領域およびクロストーク部分を隠した表示用画像を提供することができる。
 図19は、第2実施形態の第1変形例に係る画像処理装置110の構成を示す。本変形例に係る画像処理装置110は、図16に示した画像処理装置110と略同一の構成及び機能を採るので、略同一の機能及び構成を取る部材については同一の符号を付け、以下相違点を除き説明を省略する。
 本変形例に係る画像処理装置110は、表示用画像生成部112と、出力部118とを備える。本変形例に係る出力部118は、表示部120と、観察用メガネ122と、外枠部136とを有する。表示部120は、表示用画像生成部112より生成された左側画像および右側画像を含む表示用画像を表示する。
 外枠部136は、表示部120と観視者との間に設けられ、表示用画像の外枠として機能する。外枠部136は、一例として、表示部120における画面の周縁部分に設けられる。
 外枠部136は、表示部120により表示される表示用画像のうちの、2次元画像を左右にずらした右側画像および左側画像が重ならない表示領域の少なくとも一部を覆う。より好ましくは、外枠部136は、図18に示した外枠画像と同様に、表示用画像に含まれる少なくとも非対応領域およびクロストーク部分を覆う。このような本変形例に係る画像処理装置110によれば、表示用画像において不自然感を与える非対応領域およびクロストーク部分を隠して、観視者に自然な表示用画像を提供することができる。
 なお、外枠部136は、当該画像処理装置110が表示用画像を表示する場合に、右側画像および左側画像が重ならない表示領域の少なくとも一部を覆い、当該画像処理装置110が2次元画像を立体的に表示しない場合に、当該表示領域を覆わない構成であってもよい。外枠部136は、一例として、表示用画像を表示する場合に、表示部120の表示面の周縁部分を隠すべく内側方向に移動し、表示用画像を表示しない場合に、表示部120の表示面の全てを露出させるべく外側方向に移動する構成であってもよい。これにより、外枠部136は、表示用画像を表示しない場合において、有効な表示領域を広くすることができる。
 図20は、第2実施形態の第2変形例に係る画像処理装置110に備えられる出力部118の構成を示す。本変形例に係る画像処理装置110は、図19に示した画像処理装置110と略同一の構成及び機能を採るので、略同一の機能及び構成を取る部材については同一の符号を付け、以下相違点を除き説明を省略する。
 本変形例に係る出力部118は、観視者の頭部に装着され、当該観視者に表示用画像を表示するヘッドマウントディスプレイである。表示用画像表示部132は、ヘッドマウントディスプレイにおける左眼用表示領域140および右眼用表示領域142に表示用画像を表示する。
 また、本変形例に係る出力部118は、左眼用の外枠部136-Lと、右眼用の外枠部136-Rとを有する。左眼用の外枠部136-Lは、左眼用表示領域140から出力された左側画像の一部を覆う。右眼用の外枠部136-Rは、右眼用表示領域142から出力された右側画像の一部を覆う。そして、このような左眼用の外枠部136-Lおよび右眼用の外枠部136-Rは、ヘッドマウントディスプレイにおける左眼用表示領域140および右眼用表示領域142より視点の近くに設けられる。このような本変形例に係る画像処理装置110によれば、表示用画像において不自然感を与える非対応領域およびクロストーク部分を隠して、観視者に自然な表示用画像を提供することができる。
 図21は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD-ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
 ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
 入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD-ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD-ROMドライブ2060は、CD-ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
 また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
 RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD-ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
 コンピュータ1900は、第1実施形態に係る画像処理装置10または第2実施形態に係る画像処理装置110として機能する。コンピュータ1900にインストールされ、コンピュータ1900を第1実施形態に係る画像処理装置10として機能させるプログラムは、生成モジュールと、右端処理モジュールと、左端処理モジュールと、出力モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、生成部20、右端処理部22、左端処理部24および出力部30としてそれぞれ機能させる。
 これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である生成部20、右端処理部22、左端処理部24および出力部30として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置10が構築される。
 また、コンピュータ1900にインストールされ、コンピュータ1900を第2実施形態に係る画像処理装置110として機能させるプログラムは、表示用画像生成モジュールと、外枠画像生成モジュールと、合成モジュールと、出力モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、表示用画像生成部112、外枠画像生成部114、合成部116および出力部118としてそれぞれ機能させる。
 これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である表示用画像生成部112、外枠画像生成部114、合成部116および出力部118として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像処理装置10が構築される。
 一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD-ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
 また、CPU2000は、ハードディスクドライブ2040、CD-ROMドライブ2060(CD-ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
 また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
 また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
 以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD-ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 画像処理装置、20 生成部、22 右端処理部、24 左端処理部、30 出力部、32 表示部、34 立体視用メガネ、40 外枠部、44 特性測定部、46 視線計測部、48 設定色記憶部、50 記録再生システム、62 記録装置、64 再生装置、100 記録媒体、110 画像処理装置、112 表示用画像生成部、114 外枠画像生成部、116 合成部、118 出力部、120 表示部、122 観察用メガネ、132 表示用画像表示部、134 外枠画像表示部、136 外枠部、140 左眼用表示領域、142 右眼用表示領域、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD-ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD-ROM

Claims (43)

  1.  2次元画像を立体的に表示可能にするための画像処理装置であって、
     前記2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、
     前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加する右端処理部と、
     前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加する左端処理部と、
     前記右端画像が付加された前記左側画像をユーザの左眼に対して出力し、前記左端画像が付加された前記右側画像をユーザの右眼に対して出力する出力部と、
     を備える画像処理装置。
  2.  前記生成部は、同一の前記2次元画像に基づいて左側画像および右側画像を生成する請求項1に記載の画像処理装置。
  3.  前記出力部は、2次元マトリクス状に配置された複数の画素を含み、ユーザの左眼および右眼に対して画像を表示する画素ラインが交互に配置された表示領域を有する表示部を有し、
     前記生成部は、前記表示領域における左眼に対する各画素ラインに対応する前記2次元画像の各画素から前記左側画像を生成すると共に、前記表示領域における右眼に対する各画素ラインに対応する前記2次元画像の各画素を右側にずらして前記右側画像を生成する
     請求項1に記載の画像処理装置。
  4.  前記生成部は、前記2次元画像を表示領域内において左右に瞳孔間距離以下の距離分ずらした前記左側画像および前記右側画像を生成する請求項1に記載の画像処理装置。
  5.  前記生成部は、左眼の視線が平行状態から左側に3度以下、右眼の視線が平行状態から右側に3度以下となる距離分ずらした前記左側画像および前記右側画像を生成する請求項4に記載の画像処理装置。
  6.  前記生成部は、前記2次元画像を表示領域内において左右に0より大きく90mm以下の距離分ずらした前記左側画像および前記右側画像を生成する請求項4に記載の画像処理装置。
  7.  前記右端処理部は、前記左側画像の右側に、前記右側画像における前記表示領域の右端から所定の範囲内に表示される部分を前記右端画像として付加し、
     前記左端処理部は、前記右側画像の左側に、前記左側画像における前記表示領域の左端から所定の範囲内に表示される部分を前記左端画像として付加する
     請求項1に記載の画像処理装置。
  8.  前記右端処理部は、前記左側画像の右側に、前記右側画像における前記表示領域の右端から所定の範囲内に表示される部分をぼかした画像を前記右端画像として付加し、
     前記左端処理部は、前記右側画像の左側に、前記左側画像における前記表示領域の左端から所定の範囲内に表示される部分をぼかした画像を前記左端画像として付加する
     請求項1に記載の画像処理装置。
  9.  前記右端処理部は、前記左側画像を右に拡大して前記左側画像および前記右端画像を含む画像を生成し、
     前記左端処理部は、前記右側画像を左に拡大して前記右側画像および前記左端画像を含む画像を生成する請求項1に記載の画像処理装置。
  10.  前記右端処理部は、前記左側画像を左右の端部に近いほど大きい拡大率で右へと拡大して前記左側画像および前記右端画像を含む画像を生成し、
     前記左端処理部は、前記右側画像を左右の端部に近いほど大きい拡大率で左へと拡大して前記右側画像および前記左端画像を含む画像を生成する
     請求項9に記載の画像処理装置。
  11.  前記右端処理部は、前記左側画像の右側に、前記左側画像における前記表示領域の右端から所定の範囲内に表示される部分を右方向に繰り返す画像を、前記右端画像として付加し、
     前記左端処理部は、前記右側画像の左側に、前記右側画像における前記表示領域の左端から所定の範囲内に表示される部分を左方向に繰り返す画像を、前記左端画像として付加する
     請求項1に記載の画像処理装置。
  12.  前記右端処理部は、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の特性に応じて、当該部分の画像に基づいて前記右端画像を生成するか、または予め設定された表示条件の前記右端画像を生成するかを選択し、
     前記左端処理部は、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の特性に応じて、当該部分の画像に基づいて前記左端画像を生成するか、または予め設定された表示条件の前記左端画像を生成するかを選択する
     請求項1に記載の画像処理装置。
  13.  前記右端処理部は、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の空間周波数が基準値以上の場合に、当該部分の画像に基づいて前記右端画像を生成し、当該部分の空間周波数が基準値未満の場合に、予め設定された表示条件の前記右端画像を生成し、
     前記左端処理部は、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の空間周波数が基準値以上の場合に、当該部分の画像に基づいて前記左端画像を生成し、当該部分の空間周波数が基準値未満の場合に、予め設定された表示条件の前記左端画像を生成する
     請求項12に記載の画像処理装置。
  14.  前記右端処理部は、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の平均色が基準範囲外の場合に、当該部分の画像に基づいて前記右端画像を生成し、当該部分の平均色が基準範囲内の場合に、予め設定された表示条件の前記右端画像を生成し、
     前記左端処理部は、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の平均色が基準範囲外の場合に、当該部分の画像に基づいて前記左端画像を生成し、当該部分の平均色が基準範囲内の場合に、予め設定された表示条件の前記左端画像を生成する
     請求項12に記載の画像処理装置。
  15.  当該画像処理装置は、動画に含まれる連続する複数の2次元画像を立体的に表示可能にするためのものであり、
     前記右端処理部は、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の時間当たりの変化率が基準値以上の場合に、当該部分の画像に基づいて前記右端画像を生成し、当該部分の時間当たりの変化率が基準値未満の場合に、予め設定された表示条件の前記右端画像を生成し、
     前記左端処理部は、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の時間当たりの変化率が基準値以上の場合に、当該部分の画像に基づいて前記左端画像を生成し、当該部分の時間当たりの変化率が基準値未満の場合に、予め設定された表示条件の前記左端画像を生成する
     請求項9に記載の画像処理装置。
  16.  ユーザの視線方向を計測する視線計測部を更に備え、
     前記右端処理部は、前記視線方向が前記表示領域の中心を含む基準範囲よりも右にずれている場合に、前記表示領域の右端から所定の範囲内に表示される部分の画像に基づいて前記右端画像を生成し、前記視線方向が前記基準範囲より右にずれていない場合に、予め設定された表示条件の前記右端画像を生成し、
     前記左端処理部は、前記視線方向が前記表示領域の中心を含む基準範囲よりも左にずれている場合に、前記表示領域の左端から所定の範囲内に表示される部分の画像に基づいて前記左端画像を生成し、前記視線方向が前記基準範囲より左にずれていない場合に、予め設定された表示条件の前記左端画像を生成する
     請求項1に記載の画像処理装置。
  17.  前記右端画像および前記左端画像に設定すべき色を記憶する設定色記憶部を更に備え、
     前記右端処理部および前記左端処理部は、前記右端画像および前記左端画像の色を、前記設定色記憶部に記憶された色に設定する
     請求項1に記載の画像処理装置。
  18.  前記右端処理部は、前記右端画像の色を、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の平均色とし、
     前記左端処理部は、前記左端画像の色を、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の平均色とする
     請求項1に記載の画像処理装置。
  19.  前記右端処理部は、前記右端画像の輝度を、前記右側画像における、前記表示領域の右端から所定の範囲内に表示される部分の平均輝度とし、
     前記左端処理部は、前記左端画像の輝度を、前記左側画像における、前記表示領域の左端から所定の範囲内に表示される部分の平均輝度とする
     請求項1に記載の画像処理装置。
  20.  前記右端処理部は、前記左側画像の右側に前記右端画像を付加することに代えて、前記右側画像の右側の所定の範囲を削除し、
     前記左端処理部は、前記右側画像の左側に前記左端画像を付加することに代えて、前記左側画像の左側の所定の範囲を削除する
     請求項1に記載の画像処理装置。
  21.  前記生成部は、前記2次元画像を所定の距離分左右に拡大して、拡大した前記2次元画像を表示領域内において所定の距離分左右にずらした左側画像および右側画像を生成し、
     前記右端処理部は、前記左側画像の右側に前記右端画像を付加することに代えて、前記右側画像の右側の所定の距離の範囲を削除し、
     前記左端処理部は、前記右側画像の左側に前記左端画像を付加することに代えて、前記左側画像の左側の所定の距離の範囲を削除する
     請求項1に記載の画像処理装置。
  22.  前記生成部は、前記表示領域が下記式(1)により表わされる横幅を有する場合に前記左側画像および前記右側画像を生成する
     請求項1に記載の画像処理装置。
     W≧(3×L)+(2×D×sin(θ/2)) …(1)
     式(1)において、Wは前記表示領域の左右方向の幅を表わし、Dはユーザの視点から表示面までの距離を表わし、Lはユーザの瞳孔間距離を表わし、θはユーザの有効視野の角度を表わす。
  23.  2次元画像を立体的に表示可能にするための画像処理装置として、コンピュータを機能させるためのプログラムであって、
     前記コンピュータを、
     前記2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、
     前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加する右端処理部と、
     前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加する左端処理部と、
     前記右端画像が付加された前記左側画像をユーザの左眼に対して出力し、前記左端画像が付加された前記右側画像をユーザの右眼に対して出力する出力部と、
     して機能させるプログラム。
  24.  2次元画像を立体的に表示可能にするための画像処理方法であって、
     前記2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成し、
     前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加し、
     前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加し、
     前記右端画像が付加された前記左側画像をユーザの左眼に対して出力し、前記左端画像が付加された前記右側画像をユーザの右眼に対して出力する
     画像処理方法。
  25.  2次元画像を立体的に表示可能にするための画像を記録する記録方法であって、
     前記2次元画像を表示領域内において左右にずらした左側画像の画像データおよび右側画像の画像データを生成し、
     前記左側画像の右側に、前記表示領域の右端から所定の範囲内に表示される右端画像を付加し、
     前記右側画像の左側に、前記表示領域の左端から所定の範囲内に表示される左端画像を付加し、
     右端画像が付加された前記左側画像の画像データを、記録媒体における、再生装置によって読み取られてユーザの左眼に対して出力される画像を保持する左側画像データ記録領域に記録し、
     左端画像が付加された前記右側画像の画像データを、記録媒体における、再生装置によって読み取られてユーザの右眼に対して出力される画像を保持する右側画像データ記録領域に記録する
     記録方法。
  26.  再生装置によって読み取られて立体的に表示される画像を記録した記録媒体であって、
     2次元画像を表示領域内において左右にずらすことにより生成された左側画像および右側画像のうちの、右側に前記表示領域の右端から所定の範囲内に表示される右端画像が付加された前記左側画像であって、前記再生装置によって読み取られてユーザの左眼に対して出力される前記左側画像の画像データを保持する左側画像データ記録領域と、
     2次元画像を表示領域内において左右にずらすことにより生成された左側画像および右側画像のうちの、左側に前記表示領域の左端から所定の範囲内に表示される左端画像が付加された前記右側画像であって、前記再生装置によって読み取られてユーザの右眼に対して出力される前記右側画像の画像データを保持する右側画像データ記憶領域と、
     を備える記録媒体。
  27.  2次元画像から表示用画像を生成する画像処理装置であって、
     前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像であり、外縁に設ける外枠の内側に表示する前記表示用画像を生成する表示用画像生成部
     を備える画像処理装置。
  28.  前記表示用画像の外縁の少なくとも一部に設けられる外枠部と、
     前記外枠の内側の表示領域に、前記表示用画像を表示する表示用画像表示部と、
     を更に備える請求項27に記載の画像処理装置。
  29.  前記表示用画像生成部は、前記2次元画像内の位置に応じて予め定められたシフト量分、前記2次元画像を左右にずらした前記表示用画像を生成する請求項28に記載の画像処理装置。
  30.  前記表示用画像生成部は、予め定められたシフト量分前記2次元画像を左右に位置をずらした右側画像および左側画像を含む前記表示用画像を生成する請求項28に記載の画像処理装置。
  31.  前記表示用画像生成部は、前記2次元画像を左右にずらした左側画像および右側画像を生成し、
     前記表示用画像表示部は、前記左側画像を観視者の左眼に、前記右側画像を観視者の右眼に対してそれぞれ表示する
     請求項28に記載の画像処理装置。
  32.  前記外枠部は、
     外枠として表示されるべき外枠画像を生成する外枠画像生成部と、
     前記外枠に対応する表示領域に、前記外枠画像を表示する外枠画像表示部と、
     を備える請求項28に記載の画像処理装置。
  33.  前記外枠画像生成部は、前記表示用画像のシフト量よりも小さなシフト量分前記外枠画像を左右にずらす請求項32に記載の画像処理装置。
  34.  前記外枠画像生成部は、シフト量が0の前記外枠画像を生成する請求項32に記載の画像処理装置。
  35.  前記外枠画像表示部は、当該画像処理装置が前記表示用画像を表示する場合に前記外枠画像を表示し、当該画像処理装置が前記2次元画像を立体的に表示しない場合に前記外枠画像を表示しない請求項32に記載の画像処理装置。
  36.  前記表示用画像表示部および前記外枠画像表示部は、ヘッドマウントディスプレイにおける右眼用表示領域および左眼用表示領域に前記表示用画像および前記外枠画像を表示し、
     前記外枠画像生成部は、前記ヘッドマウントディスプレイにおける前記右眼用表示領域および前記左眼用表示領域より視点に近く見えるシフト量分左右にずらした前記外枠画像を生成する
     請求項32に記載の画像処理装置。
  37.  前記外枠部は、前記2次元画像を左右にずらした右側画像および左側画像が重ならない表示領域の少なくとも一部を覆う請求項28に記載の画像処理装置。
  38.  前記外枠部は、当該画像処理装置が前記表示用画像を表示する場合に、前記右側画像および前記左側画像が重ならない表示領域の少なくとも一部を覆い、当該画像処理装置が前記2次元画像を立体的に表示しない場合に、当該表示領域を覆わない請求項37に記載の画像処理装置。
  39.  前記表示用画像表示部は、ヘッドマウントディスプレイにおける右眼用表示領域および左眼用表示領域に前記表示用画像を表示し、
     前記外枠部は、前記ヘッドマウントディスプレイにおける前記右眼用表示領域および前記左眼用表示領域より視点の近くに設けられる
     請求項28に記載の画像処理装置。
  40.  前記外枠部は、左辺部分および右辺部分のみを有する
     請求項28に記載の画像処理装置。
  41.  2次元画像から表示用画像を生成する画像処理装置であって、
     前記表示用画像の外縁に設ける外枠の少なくとも一部として表示されるべき外枠画像を生成する外枠画像生成部と、
     前記外枠の内側の表示領域内において、前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像を生成する表示用画像生成部と、
     を備える画像処理装置。
  42.  2次元画像から表示用画像を生成する画像処理装置として、コンピュータを機能させるためのプログラムであって、
     前記コンピュータを、
     前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像であり、外縁に設ける外枠の内側に表示する前記表示用画像を生成する表示用画像生成部と
     して機能させるプログラム。
  43.  2次元画像から表示用画像を生成する画像処理方法であって、
     前記2次元画像内に含まれる各表示対象物に依存しないシフト量分前記2次元画像を左右にシフトさせた前記表示用画像であり、外縁に設ける外枠の内側に表示する前記表示用画像を生成する
     を備える画像処理方法。
PCT/JP2010/000218 2009-01-21 2010-01-18 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 WO2010084724A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201080005065.5A CN102293001B (zh) 2009-01-21 2010-01-18 图像处理装置、图像处理方法及记录方法
US13/187,497 US8791989B2 (en) 2009-01-21 2011-07-20 Image processing apparatus, image processing method, recording method, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009011155A JP5396877B2 (ja) 2009-01-21 2009-01-21 画像処理装置、プログラム、画像処理方法、および記録方法
JP2009-011155 2009-01-21
JP2009070947A JP2010224190A (ja) 2009-03-23 2009-03-23 画像処理装置、プログラムおよび画像処理方法
JP2009-070947 2009-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/187,497 Continuation US8791989B2 (en) 2009-01-21 2011-07-20 Image processing apparatus, image processing method, recording method, and recording medium

Publications (1)

Publication Number Publication Date
WO2010084724A1 true WO2010084724A1 (ja) 2010-07-29

Family

ID=42355782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000218 WO2010084724A1 (ja) 2009-01-21 2010-01-18 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体

Country Status (4)

Country Link
US (1) US8791989B2 (ja)
CN (2) CN103607585A (ja)
TW (1) TWI508519B (ja)
WO (1) WO2010084724A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009533897A (ja) * 2006-04-07 2009-09-17 リアル・ディ 垂直周囲視差の補正
WO2011043022A1 (ja) * 2009-10-08 2011-04-14 株式会社ニコン 画像表示装置および画像表示方法
CN102438164A (zh) * 2010-09-29 2012-05-02 索尼公司 图像处理装置、图像处理方法以及计算机程序
WO2012060170A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 立体画像表示装置
JP2013013008A (ja) * 2011-06-30 2013-01-17 Fujitsu Semiconductor Ltd 画像処理装置および画像処理方法
CN103959135A (zh) * 2011-11-28 2014-07-30 谷歌公司 基于头部角度触发的动作
EP2498501A3 (en) * 2011-03-07 2014-10-08 Samsung Electronics Co., Ltd. 3D image display method and apparatus thereof

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US9349183B1 (en) * 2006-12-28 2016-05-24 David Byron Douglas Method and apparatus for three dimensional viewing of images
JP2011199853A (ja) * 2010-02-23 2011-10-06 Panasonic Corp 立体映像再生装置
KR20120066891A (ko) * 2010-12-15 2012-06-25 삼성전자주식회사 디스플레이 장치 및 그의 영상 처리 방법
JP5148016B2 (ja) * 2011-05-20 2013-02-20 パナソニック株式会社 立体映像提供装置及びその方法
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
TW201316761A (zh) * 2011-10-14 2013-04-16 Novatek Microelectronics Corp 影像畫面的黑邊偵測方法與影像處理裝置
US20130100120A1 (en) * 2011-10-25 2013-04-25 Chimei Innolux Corporation 3d image display devices
CN103152585A (zh) * 2011-12-06 2013-06-12 联咏科技股份有限公司 三维图像处理方法
US8994614B2 (en) * 2012-10-11 2015-03-31 Sony Computer Entertainment Europe Limited Head mountable display
EP2929508A1 (en) * 2012-12-07 2015-10-14 Canon Kabushiki Kaisha Image generating apparatus and image generating method
GB201310360D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
US20150116197A1 (en) * 2013-10-24 2015-04-30 Johnson Controls Technology Company Systems and methods for displaying three-dimensional images on a vehicle instrument console
EP3057089A4 (en) * 2014-01-20 2017-05-17 Sony Corporation Image display device and image display method, image output device and image output method, and image display system
US9995933B2 (en) * 2014-06-24 2018-06-12 Microsoft Technology Licensing, Llc Display devices with transmittance compensation mask
EP3032378B1 (en) * 2014-12-10 2018-02-07 Application Solutions (Electronics and Vision) Limited Image processing apparatus and image processing method
KR20160139461A (ko) * 2015-05-27 2016-12-07 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
CN105216715A (zh) * 2015-10-13 2016-01-06 湖南七迪视觉科技有限公司 一种汽车驾驶员视觉辅助增强系统
US10488920B2 (en) * 2017-06-02 2019-11-26 Htc Corporation Immersive headset system and control method thereof
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
CN109599032B (zh) * 2018-12-28 2021-10-26 厦门天马微电子有限公司 一种柔性显示面板及柔性显示装置
US11756259B2 (en) * 2019-04-17 2023-09-12 Rakuten Group, Inc. Display controlling device, display controlling method, program, and non-transitory computer-readable information recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462097A (en) * 1987-09-02 1989-03-08 Hitachi Ltd Two-eye type stereoscopic vision picture display system
JPH08205201A (ja) * 1995-01-31 1996-08-09 Sony Corp 疑似立体視方法
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
JP2004208255A (ja) * 2002-09-27 2004-07-22 Sharp Corp 立体画像表示装置、記録方法、及び伝送方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5883739A (en) * 1993-10-04 1999-03-16 Honda Giken Kogyo Kabushiki Kaisha Information display device for vehicle
JP2826710B2 (ja) * 1995-02-27 1998-11-18 株式会社エイ・ティ・アール人間情報通信研究所 2眼式立体画像表示方法
JPH10117362A (ja) 1996-08-23 1998-05-06 Shinko Koki Seisakusho:Kk 立体視映像表示装置
ATE278298T1 (de) * 1999-11-26 2004-10-15 Sanyo Electric Co Verfahren zur 2d/3d videoumwandlung
JP2002262310A (ja) 2001-02-26 2002-09-13 Nsp Corp 立体映像表示装置
JP3939127B2 (ja) 2001-10-25 2007-07-04 オリンパス株式会社 撮像装置
AU2003231510A1 (en) 2002-04-25 2003-11-10 Sharp Kabushiki Kaisha Image data creation device, image data reproduction device, and image data recording medium
JP2004102526A (ja) * 2002-09-06 2004-04-02 Sony Corp 立体画像表示装置、表示処理方法及び処理プログラム
US20060087556A1 (en) * 2004-10-21 2006-04-27 Kazunari Era Stereoscopic image display device
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
JP4013989B2 (ja) * 2006-02-20 2007-11-28 松下電工株式会社 映像信号処理装置、仮想現実感生成システム
EP2067360A1 (en) * 2006-09-25 2009-06-10 Nokia Corporation Supporting a 3d presentation
KR20110095128A (ko) * 2008-11-18 2011-08-24 파나소닉 주식회사 특수재생을 고려한 재생장치, 집적회로, 재생방법
US9288470B2 (en) * 2008-12-02 2016-03-15 Lg Electronics Inc. 3D image signal transmission method, 3D image display apparatus and signal processing method therein
JP5515301B2 (ja) * 2009-01-21 2014-06-11 株式会社ニコン 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
WO2010087794A1 (en) * 2009-01-29 2010-08-05 Thomson Licensing Single camera for stereoscopic 3-d image capture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462097A (en) * 1987-09-02 1989-03-08 Hitachi Ltd Two-eye type stereoscopic vision picture display system
JPH08205201A (ja) * 1995-01-31 1996-08-09 Sony Corp 疑似立体視方法
JPH09322199A (ja) * 1996-05-29 1997-12-12 Olympus Optical Co Ltd 立体映像ディスプレイ装置
JP2004208255A (ja) * 2002-09-27 2004-07-22 Sharp Corp 立体画像表示装置、記録方法、及び伝送方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009533897A (ja) * 2006-04-07 2009-09-17 リアル・ディ 垂直周囲視差の補正
WO2011043022A1 (ja) * 2009-10-08 2011-04-14 株式会社ニコン 画像表示装置および画像表示方法
CN102438164A (zh) * 2010-09-29 2012-05-02 索尼公司 图像处理装置、图像处理方法以及计算机程序
EP2437503A3 (en) * 2010-09-29 2014-02-26 Sony Corporation Image processing apparatus, image processing method, and computer program
CN102438164B (zh) * 2010-09-29 2015-10-28 索尼公司 图像处理装置、图像处理方法以及计算机程序
WO2012060170A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 立体画像表示装置
EP2498501A3 (en) * 2011-03-07 2014-10-08 Samsung Electronics Co., Ltd. 3D image display method and apparatus thereof
JP2013013008A (ja) * 2011-06-30 2013-01-17 Fujitsu Semiconductor Ltd 画像処理装置および画像処理方法
CN103959135A (zh) * 2011-11-28 2014-07-30 谷歌公司 基于头部角度触发的动作

Also Published As

Publication number Publication date
TW201029440A (en) 2010-08-01
CN103607585A (zh) 2014-02-26
CN102293001A (zh) 2011-12-21
US8791989B2 (en) 2014-07-29
CN102293001B (zh) 2014-05-14
TWI508519B (zh) 2015-11-11
US20110273543A1 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
WO2010084724A1 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
JP5515301B2 (ja) 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
JP5059922B2 (ja) 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
JP5396877B2 (ja) 画像処理装置、プログラム、画像処理方法、および記録方法
WO2003081921A1 (fr) Procede de traitement d'images tridimensionnelles et dispositif
JP2012010309A (ja) 立体視映像表示装置、および立体視映像表示装置の動作方法
US9167223B2 (en) Stereoscopic video processing device and method, and program
JP2011205195A (ja) 画像処理装置、プログラム、画像処理方法、椅子および観賞システム
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
JP2003348621A (ja) 二視点カメラの設定手段
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
WO2019131160A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP2010226391A (ja) 画像処理装置、プログラムおよび画像処理方法
JP2005175539A (ja) 立体映像表示装置及び映像表示方法
JPH09233499A (ja) 立体画像生成装置
JP2010259022A (ja) 表示装置、表示方法、および表示プログラム
JP2014175813A (ja) 立体映像表示方法および装置
Gurrieri Improvements in the visualization of stereoscopic 3D imagery
JP2010226392A (ja) 撮像装置、観賞用眼鏡および画像出力方法
JP2011082698A (ja) 画像生成装置、画像生成方法、および、プログラム
JP2010224190A (ja) 画像処理装置、プログラムおよび画像処理方法
JP2010245849A (ja) 画像提示システム、画像処理装置、画像提示方法およびプログラム
JP5501150B2 (ja) 表示装置及びその制御方法
JP2010258886A (ja) 撮像装置、プログラム、撮像方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080005065.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10733332

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10733332

Country of ref document: EP

Kind code of ref document: A1