WO2003081921A1 - Procede de traitement d'images tridimensionnelles et dispositif - Google Patents

Procede de traitement d'images tridimensionnelles et dispositif Download PDF

Info

Publication number
WO2003081921A1
WO2003081921A1 PCT/JP2003/003791 JP0303791W WO03081921A1 WO 2003081921 A1 WO2003081921 A1 WO 2003081921A1 JP 0303791 W JP0303791 W JP 0303791W WO 03081921 A1 WO03081921 A1 WO 03081921A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
image
stereoscopic
stereoscopic image
information
Prior art date
Application number
PCT/JP2003/003791
Other languages
English (en)
French (fr)
Inventor
Ken Mashitani
Goro Hamagishi
Satoshi Takemoto
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2002087496A external-priority patent/JP3702243B2/ja
Priority claimed from JP2002087495A external-priority patent/JP2003284093A/ja
Priority claimed from JP2002087497A external-priority patent/JP2003284095A/ja
Priority claimed from JP2003003763A external-priority patent/JP3857988B2/ja
Priority claimed from JP2003003761A external-priority patent/JP3749227B2/ja
Priority to EP03715473A priority Critical patent/EP1489857B1/en
Priority to CN038071592A priority patent/CN1643939B/zh
Priority to KR1020047015105A priority patent/KR100812905B1/ko
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Publication of WO2003081921A1 publication Critical patent/WO2003081921A1/ja
Priority to US10/949,528 priority patent/US8369607B2/en
Priority to US12/976,262 priority patent/US8131064B2/en
Priority to US12/986,471 priority patent/US8577127B2/en
Priority to US12/986,530 priority patent/US8577128B2/en
Priority to US12/986,551 priority patent/US8724886B2/en
Priority to US12/986,491 priority patent/US8879824B2/en
Priority to US12/986,453 priority patent/US8254668B2/en
Priority to US12/986,509 priority patent/US8417024B2/en
Priority to US13/088,752 priority patent/US8472702B2/en
Priority to US13/283,361 priority patent/US8559703B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Definitions

  • the present invention relates to a stereoscopic image processing technique, and particularly to a method and an apparatus for generating or displaying a stereoscopic image based on a parallax image.
  • stereoscopic display (hereinafter simply referred to as “stereoscopic display”) has been studied in various ways for a long time, and has been put to practical use in a somewhat limited market using theater applications and special display devices. In the future, research and development in this area will be accelerated with the aim of providing more realistic content, and it is expected that an age will come when individual users can enjoy 3D display even at home.
  • stereoscopic display is expected to spread in the future, and therefore, display forms that could not be imagined with current display devices have been proposed.
  • a technique has been disclosed in which a selected partial image of a two-dimensional image is displayed in a three-dimensional manner (see, for example,
  • stereoscopic vision is realized by parallax, even if parallax is expressed by the amount of pixel shift between left and right images, it is not the case that the same stereoscopic video can be appropriately stereoscopically viewed due to differences in the hardware of the display device. May be. If the parallax representing the distant place exceeds the interocular distance, stereoscopic vision cannot be theoretically achieved.
  • the resolution and screen size of display devices are diversifying today, such as PCs (personal computers), television receivers, and portable devices, the most suitable for stereoscopic display is to consider various hardware. Creating content is a challenge, or it is more accurate that no methodology is provided for it. And even if given the methodology, it would be difficult for the average programmer to understand and use it to create content and applications.
  • the present invention has been made in view of such a background, and an object of the present invention is to propose a new expression method of stereoscopic display. Another object is to generate or display an appropriate stereoscopic image for the user even when the display target image or the display device changes. Still another object is to adjust the stereoscopic effect by a simple operation when a stereoscopic display is performed. Yet another purpose is to provide content or applications that can provide appropriate stereoscopic display. —To reduce the burden on the programmer when creating a scene. Yet another object is to provide a technology for realizing appropriate stereoscopic display as a business model.
  • the inventor's knowledge that forms the basis of the present invention is based on the fact that the proper parallax is temporarily determined by factors such as the hardware of the display device and the distance between the user and the display device (hereinafter, these will be collectively referred to as "head air")
  • the expression of the appropriate parallax is generalized by the camera interval and the optical axis intersection position described later, and is once described in a general form that does not depend on hardware.
  • “Independent of hardware” means that reading of hardware information unique to the display device is basically unnecessary, and if this general description is made, the rest is based on the proper parallax. If a parallax image is generated or adjusted, a desired stereoscopic display is realized.
  • the first group is based on a technology for acquiring an appropriate parallax based on a response from a user. This technique can be used for “initial setting” of parallax by a user, and once a proper parallax is acquired in the device, the proper parallax is realized even when another image is displayed.
  • this technology goes beyond initial settings
  • the present invention relates to a three-dimensional image processing device, an instruction obtaining unit that obtains a user response to a three-dimensional image displayed based on a plurality of viewpoint images corresponding to different parallaxes, and an instruction obtaining unit that obtains a response based on the obtained response.
  • a parallax specifying unit that specifies proper parallax for the user.
  • the instruction obtaining unit is provided, for example, as GUI (graphical design interface), and displays the image while changing the parallax between viewpoint images.
  • GUI graphical design interface
  • a “stereoscopic image” is an image displayed with a three-dimensional effect, and the actual data is This is a “parallax image” in which a plurality of images have parallax.
  • a parallax image is generally a set of two-dimensional images. Each image constituting the parallax image is a “viewpoint image” having a corresponding viewpoint. That is, a parallax image is composed of a plurality of viewpoint images, and when it is displayed, it is displayed as a stereoscopic image. Display of a stereoscopic image is also simply referred to as “stereoscopic display”.
  • Parax is a parameter for creating a three-dimensional effect, and can be defined in various ways. For example, it can be expressed by a shift amount of a pixel representing the same point between viewpoint images.
  • the definition is followed unless otherwise specified.
  • the range of the appropriate parallax may be specified. In that case, both ends of the range are called “limit parallax.” “Specification of appropriate parallax” may be performed with a maximum value that is allowable as parallax of a nearby object described later.
  • the stereoscopic image processing device of the present invention may further include a parallax control unit that performs processing so that the specified proper parallax is realized even when another image is displayed.
  • the parallax control unit may determine a plurality of viewpoints for generating the three-dimensional image according to the appropriate parallax. More specifically, the distance between a plurality of viewpoints and the intersection position of the optical axis at which the object is viewed from those viewpoints may be determined.
  • An example of these processes is performed by a camera arrangement determination unit described later. If these processes are performed in real time, optimal three-dimensional display is always realized.
  • the parallax control unit may perform control such that an appropriate parallax is realized in a predetermined basic three-dimensional space to be displayed. An example of this processing is performed by a projection processing unit described later.
  • the parallax control unit may control the coordinates of the closest object and the coordinates of the most distant object in the three-dimensional space so that the proper parallax is realized.
  • An example of this processing is performed by a projection processing unit described later.
  • Objects can be static.
  • “Near” refers to the line of sight of the camera placed at multiple viewpoints, that is, the plane at the intersection of the optical axes (hereinafter also referred to as “intersection of optical axes”) (hereinafter also referred to as “intersection of optical axes”) )
  • “Distant” Indicates a state in which parallax is provided so that the image is stereoscopically viewed from the optical axis intersection plane. The closer the parallax of the near object is, the closer the object is sensed to the user. The larger the parallax of the far object is, the farther the object is perceived. That is, unless otherwise specified, the disparity is defined as a non-negative value without reversing the sign at the near and far positions, and both the near and far disparities at the optical axis crossing plane are set to zero.
  • the optical axis intersection plane matches the screen surface of the display device. This is because, for a pixel without parallax, the line of sight seen from the left and right eyes reaches the same position in the screen plane, that is, intersects there.
  • the parallax control unit may determine a horizontal shift amount of the plurality of two-dimensional images according to an appropriate parallax.
  • the input for stereoscopic display is not generated with high degrees of freedom starting from the three-dimensional data, but is a parallax image that has already been generated, and the parallax is fixed. In this case, it is not possible to return to the original three-dimensional space or the real space where the image was actually taken, change the camera position, and perform the process of redrawing or retaking the image. Therefore, the parallax is adjusted by shifting the viewpoint images constituting the parallax image or the pixels included in the parallax images horizontally.
  • the parallax control unit may adjust the depth according to the appropriate parallax.
  • An example of this processing is performed by a two-dimensional image generation unit of a third stereoscopic image processing device described later.
  • the stereoscopic image processing apparatus further includes a parallax holding unit that records an appropriate parallax, and a parallax control unit, at a predetermined timing, for example, when the apparatus is activated, or when the stereoscopic image processing function of the apparatus or a part thereof is activated.
  • the appropriate parallax may be read, and the value may be used as an initial value for processing.
  • “launch” may be in a hardware or software sense. According to this aspect, if the user determines an appropriate parallax any time, an automatic process for adjusting the stereoscopic effect is realized thereafter. This is also called “initial setting of proper parallax”.
  • Another embodiment of the present invention relates to a stereoscopic image processing method, comprising: Displaying an image on a user; and identifying an appropriate parallax for the user based on the user's response to the displayed stereoscopic image.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing method, which includes a step of acquiring proper disparity depending on a user, and a step of performing processing on an image before display so that the acquired proper disparity is realized.
  • acquisition may be a process of positively identifying or a process of reading from the parallax holding unit or the like.
  • each of these steps is implemented as a function of a library for stereoscopic display, and a function of this library can be called as a function from a plurality of programs, the programmer can take into account the hardware of the stereoscopic display device and create a program. There is no need to write it and it is effective.
  • the second group of the present invention is based on a technique for adjusting parallax based on a user's instruction.
  • This technology can be used for “manual adjustment” of parallax by a user, and the user can appropriately change the stereoscopic effect of an image being displayed.
  • this technique can be used not only for manual adjustment, but also for reading an appropriate parallax and automatically adjusting the parallax of the image when stereoscopically displaying a certain image.
  • the difference from the automatic adjustment of the first group is that the automatic adjustment of the second group acts on a two-dimensional parallax image or an image with depth information, and changes the parallax retroactively to three-dimensional data. In that case, use the technology of the first group.
  • the following relates to the second group.
  • One embodiment of the present invention relates to a stereoscopic image processing apparatus, and an instruction obtaining unit configured to obtain an instruction of a user for a stereoscopic image displayed from a plurality of viewpoint images, and a disparity between the plurality of viewpoint images according to the obtained instruction.
  • a parallax control unit for changing the amount is shown in FIG. 45 described later, and is a typical example of “manual adjustment”. It is convenient if the user's instructions are provided in a simple GUI such as a button operation.
  • Another embodiment of the present invention also relates to a stereoscopic image processing apparatus, wherein a parallax amount detection unit that detects a first parallax amount generated when a stereoscopic image is displayed from a plurality of viewpoint images, wherein the first parallax amount is a user.
  • a parallax control unit that changes the amount of parallax between the plurality of viewpoint images so as to fall within the range of the second amount of parallax that is the allowable amount of parallax. This is a typical example of “automatic adjustment”, and the above-mentioned suitable parallax can be used as the second parallax amount.
  • An example of this processing is shown in FIG. 46 described later.
  • the parallax amount detection unit detects the maximum value of the first parallax amount, and the parallax control unit changes the parallax amount between the plurality of viewpoint images so that the maximum value does not exceed the maximum value of the second parallax amount. Is also good.
  • the intention is to protect the maximum amount of parallax, that is, the limit parallax, in order to avoid excessive stereoscopic effect due to excessive parallax.
  • the maximum value here may be considered as the maximum value on the near side.
  • the parallax amount detection unit calculates corresponding point matching between the plurality of viewpoint images to detect the first amount of parallax, or detects the first amount of parallax previously recorded in any header of the plurality of viewpoint images. It may be detected.
  • An example of these processes is shown in FIG. 47 described below.
  • the parallax control unit may change the amount of parallax between the plurality of viewpoint images by shifting the synthesis position of the plurality of viewpoint images. This is common to FIGS. 45-47. A shift in the composite position is a horizontal or vertical shift in units of pixels or the entire image.
  • the parallax control unit may adjust the depth information to change the amount of parallax.
  • Another aspect of the present invention relates to a stereoscopic image processing method, comprising the steps of: acquiring a user instruction for a stereoscopic image displayed based on a plurality of viewpoint images; and, according to the instruction, disparity between the plurality of viewpoint images. Changing the amount.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing method, comprising the steps of: detecting a first parallax amount generated when displaying a stereoscopic image from a plurality of viewpoint images; Changing the amount of parallax between the plurality of viewpoint images so as to fall within the range of the second amount of difference that is the amount.
  • the third group of the present invention is based on a technique for correcting parallax based on a position in an image. This “automatic correction” works to reduce the user's discomfort or rejection of stereoscopic display, and can be used in combination with the first and second group technologies. In general, when the three-dimensional display, or a plurality of viewpoint images is observed shifted closer to the image edge, such as birth and Sui discomfort, are technical or physiological issues point force s pointed out. In the third group, this problem is reduced by processing such as reducing the parallax near the end of the image or adjusting the parallax so that the object moves from the near side to the far side. Below, 3rd Regarding the loop.
  • One embodiment of the present invention relates to a stereoscopic image processing apparatus, and stores a parallax control unit that corrects parallax between a plurality of viewpoint images for displaying a stereoscopic image, and a correction map that the parallax control unit refers to when performing the processing.
  • This correction map is described so that the parallax is corrected based on the position in the viewpoint image.
  • the correction map includes a parallax correction map, a distance sense correction map, and the like.
  • the parallax control unit reduces the parallax, for example, in the periphery of the plurality of viewpoint images, or changes the parallax so that the object is sensed farther from the user.
  • the parallax control unit may change parallax by selectively performing processing on any of the plurality of viewpoint images.
  • the parallax control unit When a plurality of viewpoint images are generated from a three-dimensional image, that is, when a viewpoint image can be generated by returning to a three-dimensional space, the parallax control unit generates a plurality of viewpoint images using camera parameters.
  • the parallax may be changed by controlling overnight. Camera parameters—In the evening, the distance between the left and right cameras, the angle at which the camera looks at the object, or the position of the optical axis intersection.
  • the parallax control unit when a plurality of viewpoint images are generated from a 3D image, the parallax control unit generates a plurality of Ne viewpoint images by distorting the 3D space itself in, for example, a world coordinate system. May be changed.
  • the parallax control unit may change the parallax by operating the depth information.
  • Another aspect of the present invention relates to a three-dimensional image processing method, comprising: obtaining a plurality of viewpoint images for displaying a three-dimensional image; and disparity between the obtained plurality of viewpoint images, Changing based on the following.
  • These steps may be implemented as functions of a library for stereoscopic display, and a plurality of programs may be configured to be able to call the functions of the library as functions.
  • a fourth group of the present invention relates to a technology that provides the first to third groups and their related functions as a software library, reduces the burden on programmers and users, and promotes the spread of stereoscopic image display applications.
  • the following is the fourth group.
  • One embodiment of the present invention relates to a stereoscopic image processing method, in which information related to stereoscopic image display is stored in a memory, and the stored information is shared between a plurality of different programs. When displaying, the state of the image to be output is determined with reference to the stored information. An example of the state of the image is how much parallax is given to the parallax image.
  • the “held information” may include any one of information of a format of an image input to the stereoscopic image display device, a display order of the viewpoint images, and a parallax amount between the viewpoint images. Further, in addition to sharing the stored information, processing unique to displaying a stereoscopic image may be shared by a plurality of programs.
  • An example of the “process specific to stereoscopic image display” is a process for determining the held information. Another example is processing related to a graphical user interface for determining an appropriate parallax, display processing of a parallax adjustment screen that supports realization of an appropriate parallax state, processing for detecting and tracking a user's head position, The processing includes displaying an image for adjusting the display device.
  • Another embodiment of the present invention relates to a three-dimensional image processing apparatus, a three-dimensional effect adjusting unit that provides a user with a graphical user interface for adjusting a three-dimensional effect of a three-dimensional display image, and a result of the user adjusting the three-dimensional effect. And a parallax control unit that generates a parallax image in a manner that protects the apparent limit parallax.
  • the apparatus further includes: an information detection unit that acquires information to be referred to in order to optimize the stereoscopic image display; and a conversion unit that converts a format of the parallax image generated by the parallax control unit according to the acquired information. May be included.
  • the parallax control unit may control the camera parameters based on the three-dimensional data to generate a parallax image while maintaining the limit parallax, or may generate a parallax image by controlling the depth of the image with the depth information. Alternatively, a parallax image may be generated after a horizontal shift amount of a plurality of two-dimensional images having parallax is determined.
  • the fifth group of the present invention relates to one application or business model using the above-described stereoscopic image processing technology or its related technology.
  • a fourth group of software libraries is available. The following is related to Group 5.
  • One embodiment of the present invention relates to a stereoscopic image processing method, and converts an appropriate parallax for stereoscopically displaying a parallax image into an expression format that does not depend on hardware of a display device. Is distributed between different display devices.
  • Another embodiment of the present invention also relates to a stereoscopic image processing method, comprising the steps of: loading a proper disparity of a user acquired by a first display device into a second display device; Adjusting the parallax between the parallax images, and outputting the adjusted parallax image from the second display device.
  • the first display device is a device normally used by the user
  • the second display device is a device provided at another place. Reading the information about the hardware of the first display device into the second display device; and reading the information about the read hardware of the first display device and the information about the hardware of the second display device.
  • the method may further include a step of correcting the parallax of the parallax image in which the parallax has been adjusted in the step of adjusting the parallax of the parallax image according to an appropriate parallax on the second display device.
  • the information on hardware may include at least one of the size of the display screen, the optimum observation distance of the display device, and the image separation performance of the display device.
  • Another embodiment of the present invention relates to a three-dimensional image processing apparatus, including a first display device, a second display device, and a server connected via a network, wherein the first display device is acquired by the device.
  • the server sends the appropriate disparity information of the user to the server, the server receives the appropriate disparity information, records the information in association with the user, and when the user requests the second display device to output the image data overnight.
  • the device reads the appropriate parallax information of the user from the server, adjusts the parallax, and outputs a parallax image.
  • the sixth group of the present invention is based on a technology for devising a new expression method using a stereoscopic image.
  • This stereoscopic image processing device is a stereoscopic image processing device that displays a stereoscopic image based on a plurality of viewpoint images corresponding to different parallaxes, and is recommended for displaying a stereoscopic image using the stereoscopic image display device.
  • a recommended disparity acquisition unit that acquires a disparity range to be obtained, and a disparity control unit that sets disparity so as to display the stereoscopic display image within the acquired recommended disparity range.
  • an object specification unit that receives specification of a predetermined object included in a stereoscopic image from a user, and a plurality of viewpoint images and optical axis intersection positions associated therewith are associated with the position of the specified object.
  • the object may further include: an optical axis crossing position setting unit that sets the crossing position of the optical axis so as to be displayed near the position of the display screen on which the stereoscopic image is displayed.
  • the optical axis correspondence information describing that the object is associated with the optical axis intersection position and that the object is expressed near the position on the display screen is described, And a designation information adding unit for associating with an object.
  • the optical axis intersection position setting unit acquires the optical axis correspondence information, associates the optical axis intersection position with the object described in the acquired optical axis correspondence information, and associates the optical axis intersection position with the object. May be represented near the position of the display screen on which the stereoscopic image is displayed.
  • the parallax control unit may further include an identification information acquisition unit that acquires the identification information to be obtained, and the parallax control unit may reflect the acquired identification information when expressing the intelligent object in a stereoscopic image.
  • the identification information may include information on evening when the object is expressed in the basic expression space, and the identification information acquiring unit reflects the acquired timing when expressing the object in a stereoscopic image. You may.
  • Another embodiment of the present invention relates to a stereoscopic image processing method.
  • This stereoscopic image processing method enables a predetermined object included in a stereoscopic image displayed based on a plurality of viewpoint images corresponding to different parallaxes to be selected, and when an object is selected, the position of the selected object is selected. Then, the plurality of viewpoint images and the optical axis intersection positions associated therewith are made to correspond to each other, and the optical axis intersection positions are made to substantially match the positions on the display screen where the stereoscopic image is displayed.
  • the display screen can be set at the boundary between the distant space and the near space, and it is possible to represent an object as if the object crosses the display screen and faces the observer.
  • the specified object may have a predetermined interface, and the optical axis intersection position setting unit may associate the optical axis intersection position on the interface. Further, a three-dimensional image may be generated from three-dimensional data as a starting point. When a 3D H image is generated starting from 3D data It is easy to add various effects to a stereoscopic image. For example, when an object is expressed so as to extend beyond an interface, that is, a display screen, an effect of deforming the display screen can be added.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing method.
  • This stereoscopic image processing method sets an interface that separates space as part of a stereoscopic image near the display screen where a stereoscopic image generated based on multiple viewpoint images corresponding to different parallaxes is displayed.
  • a three-dimensional image is represented by using the interface as a boundary between the near space and the far space.
  • the interface may be a boundary surface between substances or a thin plate. Examples of the thin plate include a glass plate, and further, paper.
  • Still another embodiment of the present invention relates to a stereoscopic image processing method.
  • This stereoscopic image processing method includes an object to be included in a stereoscopic image generated based on a plurality of viewpoint images corresponding to different parallaxes and to be expressed in a basic expression space including an object to be stereoscopically displayed. Changing the moving speed of the camera in the near or far direction.
  • Yet another embodiment of the present invention also relates to a stereoscopic image processing method.
  • a 'object to be expressed in a basic expression space including an object to be displayed in a stereoscopic manner is defined as a predetermined object. At least one of the foreground or the last of the basic expression is set to a position where no object is present, while being expressed so as to be within the parallax range.
  • Yet another embodiment of the present invention also relates to a stereoscopic image processing method.
  • a parallax of an object to be expressed in a basic expression space including an object to be stereoscopically displayed is calculated.
  • the parallax of the object is calculated as a size including the extended area in front of the object instead of the actual size of the object.
  • the object moves to the front of the basic representation space by moving the object, including the front extended area, and the object moves further forward, the object is expressed to move in the front extended area. May be.
  • Yet another embodiment of the present invention also relates to a stereoscopic image processing method.
  • this stereoscopic image processing method when a stereoscopic image is generated based on a plurality of viewpoint images corresponding to different parallaxes, an object to be expressed in a basic expression space including an object to be stereoscopically displayed is included.
  • the parallax of an object is calculated as the size including the extended area behind the object instead of the actual size of the object.
  • the object moves further back after it is positioned on the last plane of the basic representation space by moving, including the front extended area, the object is moved to the rear extended area. May be expressed.
  • a seventh group according to the present invention is based on a technique of adjusting a parallax to be set according to an image state.
  • One embodiment of the present invention relates to a stereoscopic image processing device.
  • the stereoscopic image processing apparatus uses a parallax in which the ratio between the width and the depth of an object represented in the stereoscopic image is smaller than the parallax in a range that can be correctly perceived by human eyes. It has a parallax control unit that controls so as not to increase.
  • Another embodiment of the present invention also relates to a stereoscopic image processing device.
  • the stereoscopic image processing apparatus is capable of correctly interpreting the ratio between the width and the depth of an object represented in the stereoscopic image to the human eye.
  • a parallax controller is provided to control the parallax so as not to be greater than the parallax of the surrounding area.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing apparatus.
  • This stereoscopic image processing apparatus includes an image determination unit that performs frequency analysis on a stereoscopic image to be displayed based on a plurality of viewpoint images corresponding to different parallaxes, and a parallax based on the amount of high-frequency components found by frequency analysis. And a parallax control unit that adjusts the amount. In addition, the parallax control unit may perform adjustment to increase the amount of parallax when the amount of the high-frequency component is large.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing apparatus.
  • This stereoscopic image processing apparatus includes an image determination unit that detects a motion of a stereoscopic image displayed based on a plurality of viewpoint images corresponding to different parallaxes, and adjusts a parallax amount according to an amount of motion of the stereoscopic image.
  • Parallax control unit may perform adjustment to reduce the amount of parallax when the amount of movement of the stereoscopic image is small.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing device.
  • This stereoscopic image processing device provides a stereoscopic image processing device.
  • Still another embodiment of the present invention also relates to a stereoscopic image processing device.
  • This stereoscopic image processing apparatus generates a maximum value of the depth included in the depth information, which is generated with the progress of the two-dimensional moving image when a three-dimensional image of the moving image is generated from the two-dimensional moving image to which the depth information is given.
  • control is performed so that the fluctuation of the minimum value falls within a predetermined threshold value. According to this device, it is possible to reduce the possibility that the observer of the stereoscopic image feels uncomfortable due to a rapid change in parallax.
  • Still another embodiment of the present invention relates to a stereoscopic image processing method.
  • this stereoscopic image processing method an appropriate parallax of a stereoscopic image displayed based on a plurality of viewpoint images corresponding to different parallaxes is set for each scene.
  • Still another embodiment of the present invention relates to a stereoscopic image processing method.
  • this stereoscopic image processing method an appropriate parallax of a stereoscopic image displayed based on a plurality of viewpoint images corresponding to different parallaxes is set at predetermined time intervals.
  • the stereoscopic image processing apparatus includes: a camera arrangement setting unit configured to set arrangement of a plurality of virtual cameras for generating a plurality of viewpoint images when original data serving as a starting point of a stereoscopic image is input; An object area determination unit that determines whether or not an area in which information of an object to be displayed does not exist in a viewpoint image generated corresponding thereto, and an area in which information of an object to be displayed does not exist occurs. And a camera parameter adjustment unit that adjusts at least one of the angle of view of the virtual camera, the camera interval, and the intersection position of the optical axis so as to eliminate the region where the object information does not exist.
  • FIG. 1 is a diagram showing a positional relationship between a user, a screen, and a reproduction object 14 that can perform ideal stereoscopic viewing.
  • FIG. 2 is a diagram showing an example of a photographing system for realizing the state of FIG.
  • FIG. 3 is a diagram showing another example of a photographing system for realizing the state of FIG.
  • FIG. 4 is a diagram showing another example of a photographing system for realizing the state of FIG.
  • FIG. 5 is a diagram illustrating a model coordinate system used in the first stereoscopic image processing device.
  • FIG. 6 is a diagram showing a world coordinate system used in the first stereoscopic image processing device.
  • FIG. 7 is a diagram showing a camera coordinate system used in the first stereoscopic image processing device.
  • FIG. 8 is a diagram showing a view volume used in the first stereoscopic image processing apparatus.
  • FIG. 9 is a diagram showing a coordinate system after the perspective transformation of the volume in FIG.
  • FIG. 10 is a diagram showing a screen coordinate system used in the first stereoscopic image processing device.
  • FIG. 11 is a configuration diagram of the first stereoscopic image processing device.
  • FIG. 12 is a configuration diagram of the second stereoscopic image processing device.
  • FIG. 13 is a configuration diagram of a third stereoscopic image processing device.
  • FIGS. 14A and 14B are diagrams respectively showing a left-eye image and a right-eye image displayed by the stereoscopic effect adjustment unit of the first stereoscopic image processing device.
  • FIG. 15 is a diagram illustrating a plurality of objects having different parallaxes displayed by the stereoscopic effect adjustment unit of the first stereoscopic image processing device.
  • FIG. 16 is a diagram illustrating an object in which parallax changes, which is displayed by the stereoscopic effect adjustment unit of the first stereoscopic image processing device.
  • Fig. 17 is a diagram showing the relationship between the camera angle of view, image size, and parallax when proper parallax is realized.
  • FIG. 18 is a diagram showing a positional relationship of a photographing system for realizing the state of FIG.
  • FIG. 19 is a diagram showing the positional relationship of the imaging system for realizing the state of FIG.
  • FIG. 20 is a diagram showing a camera arrangement when generating a multi-viewpoint image with proper parallax.
  • FIG. 21 shows a parallax correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.
  • FIG. 22 is a diagram illustrating a camera viewpoint when generating a parallax image according to the parallax correction map of FIG. 21.
  • FIG. 23 is a diagram illustrating another camera viewpoint when generating a parallax image according to the parallax correction map of FIG. 21.
  • FIG. 24 is a diagram illustrating a parallax correction map used by the distortion processing unit of the first stereoscopic image processing device.
  • FIG. 25 is a diagram illustrating a camera viewpoint when generating a parallax image according to the parallax correction map of FIG. 24.
  • FIG. 26 is a diagram illustrating a distance sense correction map used by the distortion processing unit of the first stereoscopic image processing device.
  • FIG. 27 is a diagram illustrating a viewpoint of a power camera when a parallax image is generated according to the distance sense correction map of FIG.
  • FIG. 28 is a diagram illustrating another sense of distance correction map used by the distortion processing unit of the first stereoscopic image processing apparatus.
  • FIG. 29 is a diagram illustrating a viewpoint of a power camera when generating a parallax image according to the distance sense correction map of FIG.
  • FIG. 30 (a), FIG. 30 (b), FIG. 30 (c), FIG. 30 (d), FIG. 30 (e), and FIG. 30 (f) are all first stereoscopic images.
  • FIG. 7 is a top view of a parallax distribution obtained as a result of processing performed on a three-dimensional space by a distortion processing unit of the processing device.
  • FIG. 31 is a diagram illustrating the principle of processing by the distortion processing unit of the first stereoscopic image processing apparatus.
  • FIG. 32 is a diagram specifically illustrating the process of FIG. 31.
  • FIG. 33 is a diagram specifically illustrating the process of FIG. 31.
  • FIG. 34 is a diagram specifically illustrating the process of FIG. 31.
  • FIG. 35 is a diagram illustrating another example of the processing performed by the distortion processing unit of the first stereoscopic image processing device.
  • FIG. 36 is a diagram specifically showing the process of FIG.
  • FIG. 37 is a diagram showing a depth map.
  • FIG. 38 is a diagram illustrating an example of processing by the distortion processing unit of the third stereoscopic image processing device.
  • FIG. 39 is a diagram illustrating a depth map generated by the processing by the distortion processing unit of the third stereoscopic image processing device.
  • FIG. 40 is a diagram illustrating another example of the processing performed by the distortion processing unit of the third stereoscopic image processing device.
  • FIG. 41 is a diagram illustrating an example of a process performed by the two-dimensional image generation unit of the second stereoscopic image processing device.
  • FIG. 42 is a diagram illustrating an example of a parallax image.
  • FIG. 43 is a diagram illustrating a parallax image in which a combination position is shifted by the two-dimensional image generation unit of the second stereoscopic image processing device.
  • FIG. 44 is a diagram illustrating a process of the image edge adjustment unit of the second stereoscopic image processing device.
  • FIG. 45 is a diagram illustrating a process of the second stereoscopic image processing device.
  • FIG. 46 is a diagram illustrating another process of the second stereoscopic image processing device.
  • FIG. 47 is a diagram illustrating another process of the second stereoscopic image processing device.
  • FIG. 48 is a diagram showing a planar image to which a depth map has been added.
  • FIG. 49 is a diagram showing a depth map.
  • FIG. 50 is a diagram showing how a two-dimensional image generation unit of the second stereoscopic image processing device generates a parallax image based on a depth map.
  • FIG. 51 is a diagram illustrating a depth map corrected by the two-dimensional image generation unit of the second stereoscopic image processing device.
  • FIG. 52 is a diagram illustrating a manner in which the stereoscopic image processing apparatus according to the embodiment is used as a library.
  • Figure 53 is a configuration diagram in which the 3D display library is incorporated into 3D data software.
  • Fig. 54 is a diagram showing how a stereoscopic display library is used in a network-based system.
  • FIG. 55 is a diagram showing a state where an image composed of three-dimensional data is displayed on the display screen.
  • FIG. 56 is a diagram showing another state in which an image composed of three-dimensional data is displayed on the display screen.
  • FIG. 57 is a diagram showing another state in which an image composed of three-dimensional data is displayed on the display screen.
  • FIG. 58 is a diagram showing a method of matching the interface of the object to be displayed with the display screen.
  • FIG. 59 is a diagram showing another state in which an image is taken by aligning the optical axis intersection positions of the two virtual cameras with one surface of the aquarium.
  • FIG. 60 is a configuration diagram of a fourth stereoscopic image processing device.
  • FIG. 61 is a diagram illustrating a convenient basic expression space T for an image displayed by the fourth stereoscopic image processing device.
  • FIG. 62 is a diagram in which a region where no object exists is represented by being included in the basic representation space T.
  • FIG. 63 is a diagram in which a region where no object exists is represented by being included in the basic representation space T.
  • FIG. 64 is a diagram illustrating a state where a moving object is formed so as to include not only a bird but also the space before and after the target object for calculating the parallax.
  • FIG. 65 is a diagram illustrating a state in which the moving object moves the bird 330 in a space that has been included in advance after the moving object has passed the front projection plane.
  • FIG. 66 is a diagram showing a state where an observer is observing a stereoscopic image on the display screen.
  • FIG. 67 is a diagram illustrating a camera arrangement determined by the camera arrangement determining unit.
  • FIG. 68 is a diagram illustrating a state where the observer is observing the parallax image obtained by the camera arrangement in FIG. 67.
  • FIG. 69 is a view showing an image in which an appropriate parallax is obtained by the camera arrangement of FIG. 67, and a state where the observer is observing the display screen at the observer position shown in FIG.
  • FIG. 70 is a diagram illustrating a state in which the camera arrangement shown in FIG. 67 captures the nearest point of a sphere located at a distance A from the display screen.
  • Figure 71 shows the optical axis tolerance distance between the two cameras and the parallax shown in Figure 70.
  • FIG. 6 is a diagram showing a relationship between camera intervals necessary for obtaining the camera distance.
  • FIG. 72 is a diagram illustrating a state in which the camera arrangement shown in FIG. 67 captures the farthest point of a sphere located at a distance TA from the display screen.
  • FIG. 73 is a diagram showing the relationship between the optical axis tolerance distance between two cameras and the camera interval E1 required to obtain the parallax shown in FIG.
  • FIG. 74 is a diagram illustrating a relationship between force and force required to set the parallax of a stereoscopic image within an appropriate parallax range.
  • FIG. 75 is a diagram illustrating the relationship between the force parameters required to set the parallax of the stereoscopic image within the appropriate parallax range.
  • FIG. 76 is a configuration diagram of a fifth stereoscopic image processing device.
  • FIG. 77 is a diagram illustrating a relationship between a temporary camera position, an angle of view, and first to third objects set by a creator who creates a three-dimensional image.
  • FIG. 78 is a diagram illustrating a state where two virtual cameras are arranged based on the temporary camera positions determined in FIG.
  • FIG. 79 is a diagram illustrating a state in which the camera arrangement is adjusted so that an area in which the smart object information does not exist does not occur.
  • FIG. 80 is a diagram showing a process of adjusting the angle of view.
  • FIG. 81 is a diagram showing a relationship between a stereoscopic photographing apparatus for photographing a stereoscopic photograph in an entertainment facility, a photo studio, or the like and a subject.
  • FIG. 82 is a diagram showing a configuration of the sixth stereoscopic image processing device.
  • FIG. 83 is a diagram showing a state in which a camera is operated by remote control and a captured image is observed on a three-dimensional image display device.
  • FIG. 84 is a diagram illustrating an example of photographing by a stereoscopic image photographing device including a sixth stereoscopic image processing device.
  • FIG. 85 is a diagram illustrating a state in which image resolution is measured by an illuminometer.
  • FIG. 86 is a diagram showing a moiré image used for measuring image resolvability.
  • FIG. 87 is a diagram illustrating an example of conversion of an appropriate parallax.
  • FIG. 88 is a diagram illustrating another conversion example of the appropriate parallax.
  • FIG. 89 shows a table used for simple determination of disparity and basic expression space.
  • FIG. 1 shows the positional relationship between the user 10, the screen 12, and the stereoscopically displayed playback object 14.
  • the interocular distance of user 10 is E
  • the distance between user 10 and screen 12 is D
  • the width of playback object 14 when displayed is W. Since the playback object 14 is displayed in a stereoscopic manner, the pixels sensed closer to the screen 12, i.e., the pixels located closer, and the pixels sensed farther than the screen 12, i.e., the pixels located farther away. Pixel.
  • Non-parallaxed pixels are visible on the screen 12 because they are exactly at the same position from both eyes on the screen 12.
  • Figure 2 shows the imaging system to produce the ideal display of Figure 1. .
  • the distance between the two cameras 22 and 24 is E
  • the distance from them to the optical axis crossing position when viewing the real object 20 is D
  • the screen 1 2 If an object 20 whose width is actually W is taken at the same angle of view as that of the same width as above, parallax images can be obtained from the two cameras. If this is displayed on the screen 12 of FIG. 1, the ideal state of FIG. 1 is realized.
  • FIGS. 3 and 4 show the positions of FIG. 2 multiplied by A (A ⁇ 1) and B (B> 1), respectively.
  • A A ⁇ 1
  • B B> 1
  • FIG. 5 to FIG. 10 show the outline of the processing up to the point where stereoscopic display is performed based on the three-dimensional data of the object 20 in the embodiment.
  • FIG. 5 shows a model coordinate system, that is, a coordinate space of each three-dimensional object 20. Gives the coordinates when modeling object 20 in this space. Usually, the origin is at the center of object 20.
  • Figure 6 shows the world coordinate system.
  • the world space is a large space where a scene is formed by placing objects 20, floors, and walls.
  • the process up to the modeling in Fig. 5 and the determination of the world coordinate system in Fig. 6 can be recognized as "construction of three-dimensional data”.
  • Figure 7 shows the camera coordinate system.
  • the camera 22 By setting the camera 22 at an arbitrary angle of view in an arbitrary direction from an arbitrary position in the world coordinate system, conversion to the camera coordinate system is performed.
  • the camera position, direction, and angle of view are all within the camera parameters.
  • the camera interval and the optical axis crossing position are also determined to determine the parameters for the two cameras.
  • the origin is moved to make the midpoint of the two cameras the origin.
  • Figures 8 and 9 show the perspective coordinate system.
  • the space to be displayed is clipped on the front projection plane 30 and the rear projection plane 32.
  • a plane having a near maximum parallax point is a front projection plane 30 and a plane having a far maximum parallax point is a rear projection plane 32.
  • this view volume is converted to a rectangular parallelepiped as shown in Fig. 9. 8 and 9 are also called projection processing.
  • FIG. 10 shows a screen coordinate system.
  • images from each of a plurality of cameras are converted into a coordinate system of a screen, and a plurality of two-dimensional images, that is, parallax images are generated.
  • FIG. 11, FIG. 12, and FIG. 13 show the configuration of a stereoscopic image processing apparatus 100 partially different from each other.
  • the three-dimensional image processing devices 100 are also referred to as first, second, and third three-dimensional image processing devices 100, respectively. These three-dimensional image processing devices 100 can be integrated into the device, but are divided into three here to avoid complication of the figure.
  • the first stereoscopic image processing device 100 is effective when the object and space to be drawn can be obtained from the stage of three-dimensional data, and therefore, the main input is three-dimensional data.
  • the second stereoscopic image processing apparatus 100 is effective for adjusting the parallax of a plurality of two-dimensional images to which parallax has already been given, that is, an existing parallax image, and thus inputs a two-dimensional parallax image.
  • the third stereoscopic image processing apparatus 100 operates the depth information of the image with depth information to realize proper parallax. Therefore, the input is mainly an image with depth information.
  • an “image format determination unit” is provided as a preprocessing unit for the three-dimensional image processing, a parallax image, and an image with depth information. After the determination, the optimal one of the first to third three-dimensional image processing apparatuses 100 is determined. It may be configured to be activated.
  • the first stereoscopic image processing apparatus 100 is used to set a stereoscopic effect for stereoscopic display.
  • the first three-dimensional image processing apparatus 100 further has a sub-function “parallax correction” for artificially reducing parallax in a peripheral portion of an image.
  • a sub-function “parallax correction” for artificially reducing parallax in a peripheral portion of an image.
  • the displacement of a plurality of viewpoint images becomes more likely to be recognized as a “double image” as approaching the edge of the image. This is mainly due to mechanical errors such as warpage of the screen of the parallax barrier display device. Therefore, at the periphery of the image, 1) reduce both the near parallax and the far parallax, 2) reduce the near parallax and leave the far parallax unchanged, 3) regardless of the near parallax and the far parallax, Various methods such as shifting to the far parallax throughout are implemented. Note that the “parallax correction” function also exists in the third stereoscopic image processing apparatus 100, but the processing is different due to the difference in input data.
  • the first three-dimensional image processing device 100 is specified by a three-dimensional effect adjusting unit 112 and a three-dimensional effect adjusting unit 112 that adjust the three-dimensional effect based on a response from the user to the image displayed in three dimensions.
  • a parallax information storage unit 120 that stores the appropriate parallax, and a parallax control unit that reads a proper parallax from the parallax information storage unit 120 and generates a parallax image having a proper parallax from the original image.
  • an information acquisition unit 118 having a function of acquiring hardware information of the display device and acquiring a stereoscopic display method, and a parallax control unit based on the information acquired by the information acquisition unit 118. It includes a format conversion unit 116 that changes the format of the parallax image generated in 114.
  • the original image is simply called a three-dimensional image, but strictly speaking, it is the object and space data described in the world coordinate system.
  • Examples of the information acquired by the information acquisition unit 118 include the number of viewpoints for stereoscopic display, the method of a stereoscopic display device such as space division or time division, and whether or not shirt evening glasses are used.
  • the ophthalmic method there is a method of arranging the viewpoint images, whether or not there is a line of viewpoint images in which the parallax is inverted in the parallax images, a result of head tracking, and the like. It should be noted that only the result of the head tracking is exceptionally input directly to the camera arrangement determining unit 132 via a path (not shown) and processed there.
  • the above configuration can be realized in hardware by any computer CPU, memory, and other LSIs, and in software by GUI programs, parallax control functions, and other programs with other functions.
  • the functional blocks that are realized by their cooperation are drawn. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof, and the same applies to the subsequent configuration. is there.
  • the three-dimensional effect adjustment unit 1 12 includes an instruction acquisition unit 1 22 and a parallax identification unit i 24.
  • the instruction obtaining unit 122 obtains an appropriate parallax range when the user specifies the range of the parallax for the stereoscopically displayed image.
  • the parallax specifying unit 124 specifies a proper parallax when the user uses the display device based on the range. Appropriate parallax is expressed in an expression format that does not depend on the hardware of the display device. Achieving proper parallax enables stereoscopic vision that matches the user's physiology.
  • the parallax control unit 1 14 includes a camera temporary arrangement unit 130 that temporarily sets camera parameters, a camera arrangement determination unit 1 32 that corrects camera parameters temporarily set according to appropriate parallax, and a camera.
  • the origin moving unit 1 34 that performs the origin moving process to set the midpoint of the multiple cameras as the origin
  • the projection processing unit 1 3 8 that performs the above-mentioned projection process
  • a two-dimensional image generator 142 that generates a parallax image by performing conversion processing to a screen coordinate system.
  • a distortion processing unit 1336 that performs spatial distortion conversion (hereinafter, also simply referred to as “distortion conversion”) to reduce parallax in the peripheral portion of the image as necessary includes a camera temporary arrangement unit 130 and a camera arrangement determination unit 13 It is provided between two.
  • the distortion processing unit 136 reads a correction map described later from the correction map holding unit 140 and uses it.
  • the second stereoscopic image processing apparatus 100 in FIG. 12 receives a plurality of parallax images as input. This is simply called the input image.
  • the second stereoscopic image processing device 100 reads the proper disparity acquired by the first stereoscopic image processing device 100 earlier, adjusts the disparity of the input image to be within the proper disparity range, and outputs I do. In that sense, the second stereoscopic image processing apparatus 100 has a function of “automatic adjustment” of parallax.
  • a GUI function is provided, and a “manual adjustment” function for changing the parallax according to the user's instruction is also provided.
  • the parallax of the already generated parallax image cannot usually be changed, according to the second stereoscopic image processing apparatus 100, it is sufficient to shift the synthesis position of the viewpoint images forming the parallax image.
  • the stereoscopic effect can be changed at a level that can withstand practical use.
  • the second stereoscopic image processing device 100 exhibits a good stereoscopic effect adjusting function even in a situation where input data cannot be traced back to three-dimensional data.
  • differences from the first stereoscopic image processing apparatus 100 will be mainly described.
  • the three-dimensional effect adjustment unit 1 1 2 is used for manual adjustment.
  • the instruction obtaining unit 122 realizes, for example, numerical input of “+ n” or “_n” by a screen, and the value is specified by the parallax specifying unit 124 as a parallax change amount. It seems that the relationship between the numerical value and the three-dimensional effect indicated is going to be good.
  • “+ n” is an instruction to increase the stereoscopic effect
  • “1-n” is an instruction to weaken the stereoscopic effect.
  • “+ n” may be an instruction to move the object in the overall near direction
  • “1-n” may be an instruction to move the object in the overall far direction.
  • the value of n may not be specified, and only the "+” and “one” buttons may be displayed, and the parallax may be changed each time the button is clicked.
  • the second stereoscopic image processing apparatus 100 includes a parallax amount detection unit 150 and a parallax control unit 152.
  • the disparity amount detection unit 150 examines the header area of those disparity images, and outputs the disparity amount described in the form of the number of pixels, in particular, the nearest maximum disparity pixel number and the far position. ⁇ If there is a large parallax pixel number, obtain it. If the amount of parallax is not described, the matching unit 158 specifies the amount of parallax by detecting a corresponding point between the parallax images using a known method such as block matching.
  • Matching part 1 5 8 May be processed only in an important area such as the center of an image, or may be detected by narrowing down to the most important maximum number of nearby parallax pixels.
  • the detected amount of parallax is sent to the parallax control unit 152 in the form of the number of pixels.
  • the range of the appropriate parallax may be determined by the manufacturer of the stereoscopic image display device, the creator of the content to be displayed on the stereoscopic image display device, or according to general guidelines. It may be determined by other methods. For example, reflect guidelines and standards established by industry and academic organizations related to stereoscopic images.
  • the position shift unit 160 of the parallax control unit 152 shifts the synthesis position of the viewpoint images forming the neparallax image in the horizontal direction so that the amount of parallax between the viewpoint images becomes an appropriate parallax.
  • the shift may be performed on any of the viewpoint images.
  • the position shift unit 160 also has another operation mode, and when the user gives an instruction to increase or decrease the parallax via the stereoscopic effect adjusting unit 112, the image combining position is simply changed according to the instruction. . That is, the position shift unit 160 has two functions, an automatic adjustment function for proper parallax and a manual adjustment function by the user.
  • the parallax writing unit 164 stores the parallax amount in one of the header areas of a plurality of viewpoint images constituting the parallax image for the above-described parallax amount detection unit 150 or for another purpose. Write with prime numbers.
  • the image edge adjustment unit 168 fills in the missing pixels at the image edge due to the shift by the position shift unit 160.
  • the third stereoscopic image processing apparatus 100 in FIG. 13 receives an image with depth information as an input.
  • the third stereoscopic image processing apparatus 100 adjusts the depth so as to realize proper parallax. It also has the “parallax correction” function described above.
  • the distortion processing unit 174 of the parallax control unit 170 changes the distortion according to the correction map stored in the correction map holding unit 176 as described later. Exchange is performed.
  • the depth information and the image after the distortion conversion are input to a two-dimensional image generation unit 178, where a parallax image is generated. This two-dimensional image generation unit 178 is different from the two-dimensional image generation unit 142 of the first three-dimensional image processing apparatus 100, and the proper parallax is considered here.
  • the two-dimensional image generator 178 has a function similar to the position shifter 160 of the second three-dimensional image processing apparatus 100, although not shown. It shifts the pixels in the image in the horizontal direction according to the depth information to create a stereoscopic effect. At this time, an appropriate parallax is realized by the processing described later.
  • the processing operation and principle of each unit of each stereoscopic image processing apparatus 100 in the above configuration are as follows.
  • FIGS. 14 (a) and 14 (b) show the left-eye image 200 0 displayed in the specific process of the appropriate parallax by the stereoscopic effect adjustment unit 112 of the first stereoscopic image processing apparatus 100.
  • the right eye image 202 is shown. In each image, five black circles are displayed, and the larger the distance, the closer the disparity is.
  • FIG. 15 schematically shows the sense of distance perceived by the user 10 when these five black circles are displayed.
  • the user 10 responds that the range of these five senses of distance is “appropriate”, and the instruction acquiring unit 122 acquires this response.
  • five black circles with different parallaxes are displayed simultaneously or sequentially, and the user 10 inputs whether or not the parallax is acceptable.
  • the display itself is performed with a single black circle, but the disparity is continuously changed, and a response is made when the user 10 reaches the allowable limit in both the remote and the near directions.
  • the response may be based on a well-known technique, such as a normal key operation, a mouse operation, or a voice input.
  • the determination of the parallax may be performed by a simpler method.
  • the setting range of the basic expression space may be determined by a simple method.
  • Fig. 89 is a table used for simple determination of disparity and basic expression space.
  • the setting range of the basic expression space is divided into four ranks, A to D, from the setting of increasing the near space side to the setting of only the far space side, and the parallax is 1 to 5 respectively. It is divided into ranks.
  • ranks for example, you like the strongest three-dimensional effect, If you prefer labeling, rank 5A. Then, it is not always necessary to determine the rank while checking the three-dimensional display, and only the button for determining the rank may be displayed. Beside them, there is a button for confirming the stereoscopic effect, and an image for confirming the stereoscopic effect may be displayed by pressing the button.
  • the instruction acquisition unit 122 can acquire the appropriate disparity as a range, and the limit disparity on the near side and the far side is determined.
  • the near maximum disparity is the disparity corresponding to the proximity allowed for the point seen closest to the user
  • the far maximum disparity is the disparity corresponding to the distance allowed for the point seen farthest from the user.
  • the limit disparity may be referred to as the limit disparity.
  • FIG. 17 illustrates the principle of actually adjusting the parallax of two viewpoints when a stereoscopically displayed image is extracted from a three-dimensional image.
  • the limit parallax determined by the user is converted into the estimated angle of view of the temporarily placed camera.
  • the limit parallax between near and far can be represented by the number of pixels M and N, and the angle of view 0 of the camera corresponds to the number L of horizontal pixels on the display screen.
  • the nearest possible viewing angle ⁇ and the farthest possible viewing angle ⁇ , which are the viewing angles, are represented by ⁇ , M, N, and L.
  • a basic expression space T (the depth of which is also described as T) is determined.
  • T the depth of which is also described as T
  • S the distance from the front projection plane 30, which is the front of the basic representation space T, to the camera arrangement plane, ie, the viewpoint plane 208.
  • T and S can be specified by the user.
  • A be the distance between the optical axis intersection plane 2 10 and the front projection plane 30.
  • E is the distance between viewpoints.
  • point G which is a pixel without parallax, is at the position where the optical axes K 2 from both cameras intersect on the optical axis intersecting plane 210, and the optical axis intersecting plane 210 is the screen position.
  • the ray K 1 that produces the near maximum parallax P intersects on the front projection plane 30, and the ray K 3 that produces the far maximum parallax Q intersects on the rear projection plane 32.
  • the optical axis intersection distance D and the inter-camera distance E are automatically determined, and the camera parameters are determined. If the camera arrangement determination unit 132 determines the camera arrangement according to these parameters, the processing of the projection processing unit 138 and the two-dimensional image generation unit 142 is performed independently for the images from each camera, A parallax image with parallax can be generated and output. As described above, E and A do not contain hardware information, and a hardware-independent expression format is realized.
  • Figure 20 shows a four-lens camera arrangement with four cameras 22,24,26,28.
  • a and E should be determined so that proper parallax is obtained between adjacent cameras, such as between the first camera 22 and the second camera 24. In other words, even if A and E determined between the second camera 24 and the third camera 26 closer to the center are diverted to other cameras, almost the same effect can be obtained.
  • T is a restriction on the arrangement of objects, but may be determined by a program as the size of a basic three-dimensional space. In this case, objects can always be placed only in this basic representation space T throughout the entire program, or for effective display, the parallax is given to the object so that it sometimes jumps out of this space intentionally. Is also good.
  • T may be determined for the coordinates of the nearest object and the most distant object in the three-dimensional space. If this is performed in real time, the basic expression space T Objects can be placed in As an exception to always putting an object in the basic representation space T, it is possible to create a short-time exception by operating under the relaxed condition that "the average of the positions for a certain time should be in the basic representation space T". .
  • the objects that define the basic expression space T may be limited to static objects. In this case, an exceptional operation in which a dynamic object protrudes from the basic expression space T can be provided.
  • conversion may be performed to reduce the space in which objects are already arranged to the size of the width T of the basic expression space, or may be combined with the above-described operation.
  • a method for intentionally displaying objects so that they protrude from the basic expression space will be described later.
  • the stereoscopic image adjusting unit 112 of the first stereoscopic image processing apparatus 100 displays a double image as an image to be displayed to the user, the marginal parallax is determined to be small, and other images are displayed. , The appearance frequency of double images can be reduced. It is known that images and contrast between the object and the background are easy to produce double images, and such images can be used at the stage of specifying the limit parallax, that is, at the time of initial setting. .
  • FIG. 21 to FIG. 36 show the processing by the distortion processing unit 136 of the first stereoscopic image processing apparatus 100 and its principle.
  • FIG. 21 conceptually shows an example of the correction map stored in the correction map holding unit 140 of the first stereoscopic image processing apparatus 100.
  • This map corrects the parallax directly, and the whole corresponds to the parallax image as it is. become.
  • FIG. 22 shows the change in the parallax resulting from the operation of the camera parameters by the camera arrangement determining unit 132 when the distortion processing unit 1336 determines the camera arrangement according to the correction map.
  • “normal parallax” is assigned, while when viewing the direction far away from the front, “small disparity” is assigned.
  • the camera arrangement determining unit 132 approaches the camera interval as the distance to the periphery increases.
  • FIG. 23 shows another example in which the camera arrangement determining unit 132 changes the parallax by changing the camera arrangement according to the instruction of the distortion processing unit 136.
  • the parallax changes from “normal parallax” to “medium parallax” to “small parallax” toward the periphery of the image while moving only the left camera of the two cameras. This method has lower computational cost than Fig.22.
  • FIG. 24 shows another example of the correction map. This map also changes the parallax. The center of the image is not touched with the normal parallax, and the parallax is gradually reduced in other parallax correction areas.
  • FIG. 25 shows a camera position changed by the camera arrangement determining unit 132 according to this map. The direction of the camera deviates greatly from the front, and the position of the left camera is shifted toward the right camera first, giving “small parallax”.
  • FIG. 26 conceptually shows another example of the correction map.
  • This map corrects the sense of distance from the viewpoint to the object.
  • the camera arrangement determining unit 13'2 adjusts the optical axis intersection distance of the two turtles. If the optical axis crossing distance is reduced toward the periphery of the image, the object will appear relatively deeper in the distance direction, and this is particularly useful in reducing the near parallax.
  • the camera arrangement determining unit 132 may change the direction of the optical axis of the camera, and may change the direction of one of the cameras.
  • FIG. 27 shows the change of the optical axis intersection position or the optical axis intersection plane 210 when a two-dimensional image is generated based on the map of FIG. The nearer the image, the closer the optical axis intersecting plane 210 approaches the camera.
  • FIG. 28 shows another correction map for the sense of distance
  • FIG. 29 shows the map shown in FIG. 28. This shows how 0 is changed.
  • the object is placed at the normal position without correction in the central area of the image, and the position of the object is corrected in the peripheral area of the image. So
  • FIGS. 30A to 30F show another distortion conversion by the distortion processing unit 136.
  • the 3D space itself is directly distorted in the camera coordinate system.
  • 30A to 30F a rectangular area is a top view of the original space, and a hatched area is a top view of the converted space.
  • point U in the original space in Fig. 30 (a) moves to point V after conversion. This means that this point has been moved away.
  • Fig. 30 (a) the space is crushed in the direction of the arrow in the depth direction as it goes to the periphery, and the distance close to a certain sense of distance, as shown by point W in the same figure, both close and far away I have a feeling.
  • the sense of distance is uniform at the periphery of the image, and there is no specially placed object. This solves the problem of double images, and provides expressions that are easily adapted to the physiology of the user.
  • FIGS. 30 (b), 30 (c), 30 (d), and 30 (e) all show modifications of the transformation that brings the sense of distance closer to a constant value around the image. Shows an example of transforming all points in the distance direction.
  • FIG. 31 shows the principle for realizing the conversion of FIG. 30 (a).
  • the rectangular parallelepiped space 228 includes a space in which the projection processing of the first camera 22 and the second camera 24 is performed.
  • the view volume of the first camera 22 is determined by the angle of view of the camera and the front projection plane 230 and the rear projection plane 232, and that of the second camera 24 is determined by the angle of view of the camera and the front projection plane 234 and the rear projection plane Determined by 236.
  • the distortion processing unit 136 performs distortion conversion on the rectangular parallelepiped space 228.
  • the origin is the center of the rectangular parallelepiped space 228. In the case of a multi-view system, the conversion principle is the same, only the number of cameras increases.
  • FIG. 32 shows an example of the distortion conversion, which employs a reduction conversion in the Z direction. In practice, it processes individual objects in the space.
  • the conversion formula is as follows.
  • E is the intersection of the straight line and the plane. If the coordinates are (X0, Y0, ⁇ 2), ⁇ 2 can be obtained as follows.
  • X X0
  • Y YO (straight line).
  • ⁇ 2 ⁇ - ⁇ 0 x ⁇ / ⁇
  • Figure 35 shows another example of distortion transformation. More precisely, the camera shoots radially In consideration of this, reduction processing in the X-axis and Y-axis directions is also combined. Here, the conversion is performed with the center of the two cameras as the representative of the camera position.
  • the conversion formula is as follows.
  • Figure 36 verifies this transformation. Again, consider the range of X 0 and ⁇ 0. When the point ( ⁇ 0, ⁇ 0, ⁇ 0) is moved to the point ( ⁇ 1, ⁇ 1, ⁇ 1) by the reduction process, the reduction ratios Sx, Sy, Sz are
  • the processing changes at the boundary of the tangent between the planes, and in some cases, a sense of discomfort may occur.
  • the connection may be made by a curved surface, or the space may be constituted only by the curved surface. The calculation simply turns into finding the intersection E of the curved surface and the straight line.
  • the reduction ratio is the same on the same straight line CD, but may be weighted.
  • a weighting function G (L) for the distance L from the camera may be applied to Sx, Sy, and Sz.
  • FIGS. 37 to 40 show the distortion processing unit 174 of the third stereoscopic image processing apparatus 100. The following describes the processing and the principle.
  • FIG. 37 shows a depth map of an image with depth information input to the third stereoscopic image processing apparatus 100, where the depth range has a larger value of K 1 to K 2.
  • the near depth is expressed as positive and the far depth is expressed as negative.
  • FIG. 38 shows the relationship between the original depth range 240 and the converted depth range 242.
  • the depth approaches a certain value as it goes to the periphery of the image.
  • the distortion processing unit 174 converts the depth map according to the correction. The same applies to the case where parallax is provided in the vertical direction. Since this conversion is only reduction in the ⁇ direction, it can be expressed by the following equation.
  • FIG. 40 illustrates another principle of distortion transformation for a depth map. Since the space is more strictly observed radially from the user 10, the reduction processing in the X-axis and Y-axis directions is also combined. Here, the interocular center is set as the observation position. The specific processing is the same as in the case of Fig. 36. Note that the original depth map has only the Z value, but when this calculation is performed, the X value and the Y value are also retained. The Z value is converted into a pixel shift amount in the X direction or the Y direction, but the X value and the green value may be held as offset values for them.
  • the depth map converted by the distortion processing unit 174 and the original image are input to the two-dimensional image generation unit 178, where they are shifted in the horizontal direction so as to have an appropriate parallax.
  • the synthesized processing is performed. The details will be described later.
  • FIGS. 41 to 51 show the two-dimensional image generation unit of the third stereoscopic image processing apparatus 100 which can be grasped as the position shift unit 160 of the second stereoscopic image processing apparatus 100 and its extension. The processing of 178 is shown.
  • FIG. 41 shows the principle of shifting the combined position of two parallax images by the position shift unit 160.
  • the positions of the right-eye image R and the left-eye image L match in the initial state.
  • the parallax at the near point increases and the parallax at the far point decreases.
  • the parallax at the near point decreases and the parallax at the far point increases.
  • the above is the essence of parallax adjustment by shifting the parallax image. is there.
  • the image may be shifted one way or both may be shifted in opposite directions. From this principle, it can be seen that the stereoscopic display method can be applied to all methods using parallax, regardless of the glasses method or the method without glasses. Similar processing is possible for multi-view video and vertical parallax.
  • ' Figure 42 shows the shift process at the pixel level.
  • the first quadrangle 250 has near parallax, and when the amount of the parallax is represented by a positive number, it is “6 pixels”.
  • the second rectangle 2552 has a distance parallax, and when the amount of the parallax is represented by a negative number, it becomes “16 pixels”.
  • this amount of parallax is assumed to be F2, F1.
  • the position shift unit 160 shifts the synthesis start position of both images by (J 2 ⁇ F 2) pixels with respect to each other.
  • Figure 43 shows the state after the end of the shift.
  • the synthesis start positions are mutually _ 2 pixels, that is, shifted in the direction in which the whole shifts in the far direction.
  • the double image in the near direction is more uncomfortable than in the far direction, and the subject is arranged in the near direction. In most cases, it is desirable to keep parallax in the near direction within the limit.
  • the following is an example of processing.
  • the near point is outside the limit disparity and the far point is within the limit disparity, the near point is shifted to the limit disparity point. However, if the parallax of the distant point reaches the interocular distance, the processing is stopped. 2. If the near point is outside the limit disparity and the far point is outside the limit disparity, shift the near point to the limit disparity point. However, if the parallax of the distant point reaches the interocular distance, the processing is stopped.
  • FIG. 44 shows the loss of the image edge due to the shift of the combining position.
  • the shift amount of the left-eye image 200 and the right-eye image 202 is 1 pixel, and the right edge of the left-eye image 200 and the left edge of the right-eye image 202 each have a missing portion of 1 pixel width. 260 occurs.
  • the image edge adjusting unit 1668 duplicates the pixel row at the image edge as shown in FIG. 44 to compensate for the number of horizontal pixels.
  • the missing portion 260 may be displayed in a specific color such as black or white, or may be hidden. Further, the image may be cut out or added so as to have the same size as the initial image. Also, the size of the initial image may be made larger than the actual display size in advance, and care may be taken so that the missing portion # 260 does not affect the display.
  • FIG. 45 shows the flow of manual adjustment of parallax by the second stereoscopic image processing apparatus 100.
  • first, left and right images are manually created as parallax images (S10), and are distributed via a network or other route (S12).
  • This is received by the second stereoscopic image processing device 100 (S14), and in the example of this figure, the image is first synthesized and displayed in a normal state without any shift (S16). That is, here, a case is considered where proper parallax has not yet been acquired or the position shift unit 160 has not been operated.
  • the position shift unit 160 receives the instruction in the “manual adjustment mode” to perform image synthesis.
  • the position is adjusted and displayed (S18).
  • S10 and S12 are the procedures of the image creator 27, and S14 and thereafter are the second stereoscopic image processing device 1.
  • 0 0 is the procedure 2 7 2.
  • FIG. 46 shows the flow of automatic adjustment by the second stereoscopic image processing apparatus 100.
  • a procedure 2 7 0 image click Rie Isseki, generation of the left and right image (S 3 0), the image distribution (S 3 2) is the same as FIG 5.
  • the procedure 272 of the second stereoscopic image processing apparatus 100 the same applies to the image reception (S34).
  • the parallax pre-attached between the parallax images, particularly the maximum parallax is detected by the matching unit 1558 of the parallax amount detection unit 150 (S36), while the parallax information holding unit 120
  • An appropriate parallax, in particular, a marginal parallax is acquired (S38).
  • the position shift unit 160 shifts the synthesized position of the image so as to satisfy the limit parallax by the above-described processing (S40), and the parallax writing unit 1664, the image edge adjusting unit 1668, The image is stereoscopically displayed through the processing by the format conversion section 116 (S42).
  • FIG. 47 shows a flow of still another automatic adjustment by the second stereoscopic image processing apparatus 100.
  • the maximum parallax is detected at this point (S52) and the parallax image is recorded in the header of one of the viewpoint images. (S54). This detection may be performed by corresponding point matching. However, when Kuriya generates a parallax image manually, it is necessary to record this because it is naturally known in the editing process. Thereafter, the image is distributed (S56).
  • the same processing can be performed in a multi-view system, and the same processing may be performed on the amount of parallax between adjacent viewpoint images.
  • these multiple viewpoint images The maximum parallax among the parallaxes may be regarded as “maximum parallax” between all viewpoint images, and the shift amount of the combined position may be determined.
  • the header information only needs to be present in at least one of the multi-view images, if the multi-view image is combined into one image, the header of the image may be used.
  • images that have already been combined are distributed.In such a case, the images are separated by an inverse transformation process, and the combined position shift amount is calculated and recombined, or the result is the same.
  • Pixel rearrangement processing may be performed as follows.
  • FIGS. 48 to 51 show a process of shifting the synthesis position for an image with depth information. This is performed by the two-dimensional image generation unit 18 of the third stereoscopic image processing device 100.
  • FIGS. 48 and 49 show a plane image 204 and a depth map, each of which forms an image with depth information. Here, the near depth is expressed as positive and the far depth is expressed as negative.
  • the first rectangle 250, the second rectangle 252, and the third rectangle 254 exist as objects.
  • the first rectangle 250 has a depth of ⁇ 4 ''
  • the second rectangle 252 has a depth of ⁇ 2 ''
  • the first rectangle 250 is at the nearest point
  • the second rectangle 255 is at the intermediate point
  • the third rectangle 254 is at the furthest point.
  • the two-dimensional image generation unit 178 performs a process of shifting each pixel by the value of the depth map based on the original planar image 204, and generates the other viewpoint image. If the reference is a left-eye image, the original plane image 204 becomes the left-eye image as it is. The first square 250 is shifted by 4 pixels to the left, the second square 252 is shifted by 2 pixels to the left, and the third square 254 is shifted by 4 pixels to the right, and the right eye image 202 is created as shown in FIG.
  • the image edge adjustment unit 168 fills the missing part 260 of the pixel information due to the movement of the object with the neighboring pixel whose parallax is “0” and is determined to be the background.
  • the two-dimensional image generation unit 178 calculates a depth that satisfies the appropriate parallax. If the depth range is K1 to K2 and the depth value of each pixel is 3 ⁇ 4Gxy, the depth map has the form of Hxy changed to Gxy in Fig. 37. Also, it is assumed that the appropriate parallax of the display device held by the user is found to be J1 to J2. In this case, in the depth map, the depth value G of each pixel is transformed as follows, and a new depth value Fxy is obtained.
  • a weighting function F (Gxy) for Gxy may be further applied, and various other non-linear conversions may be considered. Further, it is also possible to shift the object in the opposite direction from the original plane image 204 and generate a new left and right image. In the case of a multi-view system, the same processing may be performed a plurality of times to generate a multi-view image.
  • the stereoscopic image processing apparatus 100 has been described as an apparatus, this may be a combination of hardware and software, or may be configured only with software. In this case, it is convenient if an arbitrary part of the three-dimensional image processing device 100 is made into a library and can be called from various programs. Programmers can skip programming where knowledge of stereoscopic display is required. For the user, the operation related to the three-dimensional display, that is, the GUI, becomes common regardless of the software or the content, and the set information can be shared with other software, so that the trouble of resetting is omitted.
  • Various programs can determine the state of the image by referring to the information.
  • An example of the shared information is the information obtained by the information obtaining unit 118 of the stereoscopic image processing apparatus 100 described above. This information may be stored in a recording unit (not shown), the correction map storage unit 140, or the like.
  • FIGS. 52 to 54 show an example in which the above-described stereoscopic image processing apparatus 100 is used as a library.
  • FIG. 52 shows an application of the stereoscopic display library 300.
  • the stereoscopic display library 300 is referred to by calling a function from a plurality of programs A 302, program B 304, program C 306, and the like.
  • the parameter file 318 In addition to the above information, the user's proper parallax and the like are stored.
  • the 3D display library 300 is used by a plurality of devices A 312, device B 3 14, and device C 3 16 via an API (application program interface) 310.
  • Examples of the program A302 include games, so-called 3D applications called Web 3D, 3D desktop screens, 3D maps, visuals of parallax images as 2D images, and pure images such as images with depth information. Can be considered. Of course, some games use coordinates differently, but the 3D display library 300 can handle that.
  • examples of the device A312 include any stereoscopic display device using parallax, such as a binocular or multi-view parallax barrier system, a shutter glasses system, and a polarized glasses system.
  • FIG. 53 shows an example in which the three-dimensional display library 300 is incorporated in the three-dimensional data software 402.
  • the three-dimensional decoding software 402 includes a program main body 404, a stereoscopic display library 300 for realizing appropriate parallax, and a photographing instruction processing unit 406.
  • the program body 404 communicates with the user via the user interface 410.
  • the shooting instruction processing unit 406 virtually shoots a predetermined scene during operation of the program body 404 in accordance with a user's instruction.
  • the captured image is recorded in the image recording device 4 12.
  • the image is output to the stereoscopic display device 408.
  • the three-dimensional data software 402 is game software.
  • the user can execute the game while experiencing an appropriate three-dimensional effect by using the three-dimensional display library 300 during the game.
  • the user if the user wants to keep a record, for example, when a complete victory is achieved in a fighting battle game, the user issues an instruction to the photographing instruction processing unit 406 via the user interface 410 and records the scene I do.
  • a stereoscopic display library 300 is used to generate a parallax image so as to have an appropriate parallax when reproduced by the stereoscopic display device 408 later, and this is recorded in an electronic album or the like of the image recording device 412. Is recorded.
  • a parallax image By performing recording with a two-dimensional image called a parallax image, the three-dimensional data itself of the program main body 404 does not leak out, and copyright protection can be considered.
  • FIG. 54 shows a network-based system using the three-dimensional data software 402 of FIG. Here is an example of incorporating it into the system 430.
  • the game machine 432 is connected to a server 436 and a user terminal 434 via a network (not shown).
  • the game machine 432 is for a so-called arcade game, and includes a communication section 442, three-dimensional data software 402 and a three-dimensional display device 440 for displaying the game in a single word.
  • the three-dimensional data software 402 is shown in FIG. Parallax images displayed from the three-dimensional data software 402 to the stereoscopic display device 450 are optimally set in advance for the stereoscopic display device 450.
  • the parallax adjustment by the three-dimensional data software 402 is used when transmitting an image to a user via the communication unit 442 as described later.
  • the display device used here only needs to have a function of generating a stereoscopic image by adjusting parallax, and does not necessarily need to be a device capable of stereoscopic display.
  • the user terminal 4 3 4 includes a communication unit 4 54, a viewer program 4 52 for viewing a 3D image, and a 3D display device 4 50 of any size and type for displaying the 3D image verbally. .
  • a stereoscopic image processing device 100 is mounted.
  • the server 436 includes a communication unit 460, an image storage unit 462 for recording an image virtually taken by a user in connection with a game, user proper parallax information, a user's mail address, and other personal information. It has a user information storage unit 464 that records such information in association with the user.
  • the server 436 functions as, for example, an official site of the game, and records a scene that the user likes or a moving image or a still image of the game during the game. 3D display is possible for both moving and still images.
  • An example of image capturing in the above configuration is performed in the following manner.
  • the user performs stereoscopic display in advance using the stereoscopic display device 450 of the user terminal 4334, obtains appropriate parallax based on the function of the stereoscopic image processing device 100, and transmits this to the communication unit 454.
  • the user information is stored in the user information storage unit 464. This proper parallax is a general description irrespective of the hardware of the stereoscopic display device 450 held by the user.
  • the user plays the game with the game machine 4 32 at an arbitrary timing.
  • the stereoscopic display device 4440 performs stereoscopic display based on the initially set parallax or the parallax manually adjusted by the user.
  • the stereoscopic display library 300 included in the three-dimensional data software 402 of the game machine 432 is sent to the server via the two communication units 442 and 460.
  • the correct parallax of the user is obtained from the user information storage unit 464 of the user 4346, and a parallax image is generated in accordance with the proper parallax.
  • the image is again transmitted through the two communication units 442 and 4600.
  • a parallax image related to the virtually shot image is stored in the holding unit 462.
  • stereoscopic display can be performed with a desired stereoscopic effect.
  • the parallax can be manually adjusted by the stereoscopic image processing device 100 included in the pure program 452.
  • the programming related to the three-dimensional effect which should be originally set for each display device hardware and each user, is collected in the three-dimensional image processing device 100 and the three-dimensional display library 300.
  • game software programmers do not have to worry about complicated requirements for stereoscopic display at all. This applies not only to game software, but also to any software that uses stereoscopic display, and eliminates restrictions on the development of content applications that use stereoscopic display. Therefore, the spread of these can be drastically promoted.
  • the appropriate parallax of the user is registered in the server 436.
  • the user may bring an IC card or the like recording the information and use the game machine 432. You may record your score and favorite images for this game in this effort.
  • the present invention has been described based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and that such modifications are also within the scope of the present invention. is there. The following is an example.
  • the first three-dimensional image processing apparatus 100 Processing is possible with precision. However, the three-dimensional data may be dropped into an image with depth information, and a parallax image may be generated using the third stereoscopic image processing apparatus 100. In some cases, this may be less computational. Similarly, when inputting a plurality of viewpoint images, it is possible to create a depth map using high-precision corresponding point matching. The parallax image may be generated using the image processing device 100.
  • the camera temporary arrangement unit 130 is configured as the three-dimensional image processing apparatus 100. However, this may be a pre-process of the three-dimensional image processing apparatus 100. Good. This is because up to the temporary placement of the camera can be processed regardless of proper parallax. Similarly, an arbitrary processing unit constituting the first, second, and third stereoscopic image processing apparatuses 100 can be output to the outside of the stereoscopic image processing apparatus 100. The high degree of freedom of the 100 configuration is understood by those skilled in the art.
  • a unit for enlarging the character data may be provided.
  • the horizontal resolution of the image seen by the user is 1/2.
  • the legibility of characters can be reduced, so it is effective to stretch characters twice in the horizontal direction. If there is also vertical disparity, it may be useful to stretch the characters vertically as well.
  • an “operating display section” for putting characters or marks such as “3D” on the displayed image may be provided.
  • a switching unit for stereoscopic display / normal display may be provided so that the user can know whether or not the image can adjust the parallax.
  • This unit contains a GUI, and it is convenient if the display is switched from stereoscopic display to normal two-dimensional display when the user clicks a predetermined button, and vice versa.
  • the information acquisition unit 118 does not necessarily acquire information by user input, but may include information that can be automatically acquired by a function such as a play.
  • a function such as a play.
  • the method of deriving E and A is used.
  • a method of fixing these and deriving other parameters may be used, and the specification of variables is free.
  • a plane image is displayed as "an object passes through a certain interface".
  • an object passes through a certain interface.
  • the display screen and its surrounding frame are visually perceived, so a display method that uses this as a window can be considered, and an interface between spaces and a plate-like object is used on the surface. You need to specify the location. In this case, the optical axis crossing position D is specified in the positional relationship shown in FIG.
  • FIG. 55 shows a state in which an image composed of three-dimensional images is displayed on the display screen 400.
  • one glass surface 401 of the water tank 410 coincides with the display screen 400, and it is expressed that the fish 310 is swimming in the water tank 410. If processing is performed so that the farther space is closer to the display screen and the closer space is closer to the front than the display screen 400, the fish 310 will normally swim in the farther space as shown in Figure 56. And occasionally, as shown in Figure 57, "Fish 301 hits display screen 400. It breaks up and appears in the nearby space.
  • the expression "splashes fly from the periphery of the display screen 400, and the interface is reproduced when the fish 301 passes through”.
  • Another example of expression is, for example, "Because there is no water in the near space before the display screen, the fish 3101 becomes stuffy after swimming in the nearby space for a while, and again the interface, that is, the display screen 400 Through it, it returns to the distant space. "
  • the interface may be a single surface, but a plate-like object such as glass or a thin object such as paper may be arranged.
  • the interface does not need to completely match the display screen, but may be near it. It is clear that the above-mentioned expression effects cannot adequately convey the situation to the observer with a two-dimensional image. In particular, if the original data serving as the starting point of the three-dimensional image is a three-dimensional image, editing for expressing the above-described effects becomes easy.
  • Such an expression that matches the interface of the object to be displayed to the display screen can be generated by the method shown in FIG. That is, a virtual aquarium 4 10 is arranged in a three-dimensional space, and two images having parallax are generated from the two virtual cameras 4 30 and 4 0 arranged on the left side. At that time, the optical axis intersection positions of the two virtual cameras 4300 and 4440 are made to coincide with one surface of the water tank. Further, such an image can be taken as shown in FIG. Two virtual cameras 4330 and 4400 are arranged on the actual water tank 4100 ⁇ to photograph the water tank 4100. At that time, the intersection of the optical axes of the two cameras should coincide with the water surface.
  • FIG. 60 shows a configuration of a fourth stereoscopic image processing apparatus 100 for realizing the above processing.
  • This stereoscopic image processing apparatus 100 has a configuration in which an object designating section 180 is further provided in the stereoscopic effect adjusting section 112 of the first stereoscopic image processing apparatus 100 shown in FIG. is there.
  • the object specifying unit 180 performs a process of positioning or matching the interface of the object specified by the user near the display screen.
  • the user is assumed to be a creator of a stereoscopic image, and the above-described processing is performed at the time of producing or editing a stereoscopic image. Note that the user may be an observer.
  • the object designation unit 180 receives a designation of an object corresponding to the optical axis crossing plane of the two virtual cameras 430 and 440 from a user using a predetermined input device such as a mouse, and controls the parallax of the designated object. Notify Part 1 1 4
  • the parallax control unit 114 and more specifically, the camera arrangement determining unit 132, turns the plane of the object specified by the user into the optical axis intersection plane of the two virtual cameras 430 and 440. Adjust as follows. The operation other than this processing may be the same as the operation of the stereoscopic image processing apparatus 100 shown in FIG.
  • Information indicating that the object is to be displayed near the display screen is added to the object determined in this manner.
  • the intersection distance D of the optical axis is determined, and the inter-camera distance E is determined by the processing described above.
  • Another expression method is proposed. If there are multiple objects to be displayed on the display screen, it is not always necessary to keep all objects within the proper parallax. At times, for effective display, some objects may be displayed under certain conditions, for example, only for a certain period of time, while excluding some objects from the conditions for proper parallax. As described above, the basic expression is determined for a stationary object as described above.
  • the object to be expressed in the basic expression space including the object to be displayed three-dimensionally is used.
  • Information (hereinafter simply referred to as “identification information”) may be provided.
  • the object to be expressed in the basic expression space is also referred to as “calculation object of the basic expression space”. Then, the basic expression space may be determined at any time based on the identification information.
  • the identification information is configured to be able to be changed as needed, it is possible to flexibly set conditions for excluding from the appropriate parallax. For example, if the identification information specifies the time to be excluded from the proper parallax condition, it is possible to automatically return to the proper parallax range after the specified time. '
  • the camera arrangement determining unit 132 corrects the temporarily set camera parameters according to the appropriate parallax.
  • the function may be further extended as follows. That is, the camera arrangement determination unit 132 reads the identification information associated with each object, and arranges the camera parameters so as to reflect the identification information.
  • FIG. 61 shows the image displayed by the fourth stereoscopic image processing apparatus 100 in the depth direction, particularly the basic expression space T, for convenience.
  • a front projection plane 310 is set on the left side of the figure, and a rear projection plane 312 is set on the right side.
  • the basic expression space T is between the front projection plane 310 and the rear projection plane 312.
  • a house 350 is represented as a stationary object on the front projection plane 310 side, and a tree 370 is represented on the rear projection plane 312 side.
  • a bird 330 which is a dynamic object, is moving forward in the space above the two stationary objects.
  • the bird 330 can express its movement as long as it moves within the range of the basic expression space T, but if it reaches the front projection plane 310 or the rear projection plane 310, the bird 33 0 is an object located on the front projection plane 312 as shown in the left side of FIG. 6 1, and the bird 3 3 0 is fixed at the maximum parallax, Cannot move further forward or backward in real space. If the object can be expressed as if it were moving at all, it will be possible to maintain the presence of the object.
  • FIG. 62 a region where no object exists is included in the basic expression space T.
  • a space where nothing exists is provided as a part of the basic representation space T in front of the front stationary object house 350, and the bird 330, which is a dynamic object, is created. It is designed to be able to move ahead of the house 350.
  • a space in which nothing exists further behind the still object tree 370 placed behind is provided as a part of the basic expression space T.
  • the bird 330 which is a dynamic object, moves from behind and exceeds the position in front of the house 350, the bird 330 is located within the range of the basic expression space T. Therefore, even if the user moves further forward, the parallax is expressed by proper parallax, and the observer who is the user does not feel uncomfortable with the movement.
  • a moving object 390 is formed as a target for calculating the parallax by including the bird 330 in its own space as well as the surrounding space.
  • the foreground of the moving object 390 reaches the front projection plane 310, only the bird 330 is moved.
  • the bird 330 reaches the front projection plane 310 immediately, and the movement thereafter cannot be expressed. You can slow down your time.
  • the bird 330 may be moved in a space that is included in advance.
  • the maximum parallax is determined by the moving object 390, and since the bird 330 approaches the maximum parallax little by little, it is possible to move forward in the real space.
  • the moving speed may be set to any of the originally expected moving speed, a high speed, and a low speed. By giving flexibility to the moving speed, various expressions are possible. For example, by moving the movement speed slower as it approaches the end of the movement object 390, it is possible to express a forward movement while preventing the parallax amount from becoming excessively large in the front-back direction.
  • N LE (T-A) / (2 (T + S) (A + S) t an (0/2))
  • N ' LE (T-A,) / (2 (T + S') (A, + S,) t an ( ⁇ / 2) )
  • N ,, LE ,, (T-A ") / (2 (T + S,) (A" + S,) t a n ( ⁇ / 2))
  • the movement speed on the actual coordinates with respect to the movement of the object toward the observer can prevent a sudden change in the amount of parallax.
  • the configuration of the stereoscopic image display device 100 that realizes the expression methods shown in FIGS. 61 to 65 has been described above.
  • This stereoscopic image display device 100 can be realized by the stereoscopic image display device 100 shown in FIG.
  • the camera arrangement determination unit 1332 determines from the original data overnight the information regarding the range to be calculated in the basic expression space and the visual observation of the object. It also has a function to read the information on the change of the difference amount and reflect it on the camera parameters. This information may be included in the original data itself, or may be stored in the parallax information storage unit 120, for example.
  • a proper parallax process determines that the parallax is too large for a correct parallax state in which a sphere is seen correctly
  • processing is performed so that the parallax of the stereoscopic image is reduced.
  • the sphere looks like a crushed shape in the depth direction, but in general the feeling of discomfort for such a display is small. Since a person is usually used to seeing a two-dimensional image, if the disparity is between 0 and the correct disparity, the person often does not feel uncomfortable.
  • the parallax of the stereoscopic image is too small in the proper parallax processing for the parallax state in which the sphere can be seen correctly, the parallax is processed to increase.
  • the sphere appears to have a shape that swells in the depth direction, and to such a display, a person may feel a sense of discomfort greatly.
  • FIG. 11 When a three-dimensional image is generated from three-dimensional data, adjustment of parallax can be performed relatively easily by changing the arrangement of cameras. A procedure for correcting parallax will be described based on FIGS. 66 to 71.
  • FIG. 10 the correction of the parallax can be performed by the above-described first to fourth stereoscopic image processing devices 100.
  • the first three-dimensional image processing apparatus 100 shown in FIG. 11 generates a three-dimensional image by three-dimensional image processing.
  • the above-described correction processing can also be realized by fourth and sixth stereoscopic image display devices 100 described later.
  • FIG. 66 shows a state where an observer is observing a stereoscopic image on a display screen 400 of a certain stereoscopic image display device 100.
  • the screen size of the display screen 400 is L
  • the distance between the display screen 400 and the observer is d
  • the interocular distance is e.
  • the near limit disparity M and the far limit disparity N are obtained in advance by the stereoscopic effect adjustment unit 112, and the proper disparity is between the near limit disparity M and the far limit disparity N.
  • the proximity limit parallax M is displayed for easy understanding, and the maximum pop-out amount m is determined from this value.
  • the protrusion amount m is the distance from the display screen 400 to the proximity point.
  • the unit of L, M, and N is "pixel". Unlike other parameters such as d, m, and e, it is necessary to adjust using a predetermined conversion formula. Are expressed in the same unit system to facilitate
  • the camera arrangement is determined by the camera arrangement determination unit 13 2 of the parallax control unit 114 based on the nearest point and the farthest point of the sphere 21.
  • the optical axis crossing distance of the two cameras 22 and 24 is D
  • the camera spacing is Ec.
  • the coordinate system is scaled so that the expected width of the camera at the optical axis intersection distance matches the screen size L.
  • the camera interval Ec is equal to the interocular distance e and the optical axis intersection distance D is smaller than the observation distance d. Then, as shown in FIG.
  • the sphere 21 becomes Looks right.
  • the sphere 21 is observed on the original stereoscopic image display device 100 based on the image generated by such an imaging system, as shown in FIG. 69, the sphere 21 extending in the depth direction over the entire appropriate parallax range is observed. .
  • FIG. 70 shows a state in which the camera arrangement shown in FIG. 67 captures the nearest point of a sphere located at a distance A from the display screen 400.
  • the maximum disparity M corresponding to the distance A is determined by two straight lines connecting each of the two cameras 22 and 24 with the point at the distance A.
  • FIG. 71 shows the camera interval E1 required to obtain the parallax M shown in FIG. 70 when the optical axis tolerance distance between the two cameras 22 and 24 and the camera is d. This can be said to be a conversion that makes all the parameters of the shooting system other than the camera interval coincide with the parameters of the observation system.
  • E 1 E c (d-A) / (D-A)
  • E1 When E1 is greater than the interocular distance e, it is determined that correction is required to reduce the parallax. Since E1 may be the interocular distance e, Ec may be corrected as in the following equation.
  • E2 is larger than the interocular distance e, it is determined that correction is necessary.
  • the parallax may become too large for both the near and far positions. Disappears.
  • the camera is set by returning the selected E c to the original coordinate system in three-dimensional space.
  • the correction was performed only at the camera interval without changing the optical axis intersection distance, but the object position may be changed by changing the optical axis intersection distance, or the camera interval and the optical axis intersection may be changed. Both separations may be changed.
  • correction is also required when using a depth map. If the depth map value indicates the amount of shift of the point by the number of pixels, and if the initial value, generally the value described in the original image, is in a state that realizes optimal stereoscopic vision, appropriate parallax processing is performed. The above process is not performed when the range of the depth map value needs to be increased, and the above process is performed only when the range of the depth map value needs to be reduced, that is, when it is necessary to reduce the parallax. Just do it.
  • the maximum permissible value may be held in a header region of the image or the like, and the appropriate parallax processing may be performed so as to be within the maximum permissible value.
  • hardware information is required for the appropriate distance, but higher-performance processing is performed compared to the processing that does not depend on the hardware information described above. Can appear.
  • the above processing can be used not only when parallax is set automatically but also when parallax is set manually.
  • the limit of parallax at which an observer feels uncomfortable differs depending on the image.
  • crosstalk becomes noticeable when the parallax is increased.
  • crosstalk is noticeable in images with a large luminance difference on both sides of the page when the parallax is increased.
  • crosstalk is noticeable in an image with less movement.
  • checking the extension of a file name often indicates whether the file type is a moving image or a still image. Therefore, when it is determined that the image is a moving image, the state of the motion may be detected by a known motion detection method such as a motion vector, and the appropriate amount of parallax may be corrected according to the state. In other words, correction is performed so that the disparity is smaller than the original disparity for images with little motion. On the other hand, no correction is applied to moving images. Or, if you want to emphasize movement, you can add a correction so that the parallax is larger than the original parallax. Note that the correction of the appropriate parallax is an example, and any correction can be performed within a predetermined parallax range. In addition, it is possible to correct the depth map and to correct the amount of shift of the synthesis position of the parallax image.
  • these analysis results may be recorded in the header area of the file, and the three-dimensional image processing apparatus may read the header and use the header when displaying the next and subsequent three-dimensional images.
  • the amount and motion distribution of the high-frequency component may be ranked by actual stereoscopic vision by the creator or user of the image, or may be ranked by stereoscopic vision by a plurality of evaluators, and the average value may be determined. Any method of ranking may be used.Also, proper parallax does not need to be strictly observed, and calculation of camera parameters does not need to be performed at all times, and may be performed at regular intervals or every scene change. Good. In particular, This is effective when the processing is performed by a device having a low processing capacity.
  • the parallax control unit 114 sets the internal image It is only necessary to instruct the camera arrangement determining unit 132 to recalculate the camera parameters at regular intervals.
  • the internal timer may use the reference frequency of the CPU that performs the arithmetic processing of the three-dimensional image processing apparatus 100, or a dedicated timer may be separately provided.
  • FIG. 76 illustrates a configuration of a fifth stereoscopic image processing apparatus 100 that realizes calculation of an appropriate parallax according to the state of an image.
  • an image determination unit 190 is newly provided in the first three-dimensional image processing apparatus 100 shown in FIG. 11. Since other configurations and operations are the same, the different points will be mainly described.
  • the image determination unit 190 analyzes the frequency components of the image to determine the amount of the high-frequency components, and notifies the parallax control unit 114 of a parallax suitable for the image. If the night is a moving image, the scene determination unit notifies the parallax control unit 114 of the calculation timing of the camera parameter overnight by detecting a scene change or detecting motion in the image. 4 is provided.
  • Scene change detection may be performed by using a known method.
  • the frequency component detection unit 19 Processing load increases. If an arithmetic processing device that matches the processing load is used, there is a concern that the cost of the stereoscopic image processing device 100 will increase. As described above, proper parallax does not need to be strictly maintained at all times, so the frequency component of the image is analyzed when the image changes greatly, such as a scene change, based on the detection result of the scene determination unit 190. With this configuration, the processing load of the image determination 190 can be reduced.
  • Figure 77 shows the temporary camera position S (Xs, Ys) set by the creator who creates the three-dimensional data. , Z s), the angle of view ⁇ , and the first to third objects 700, 720, 70.
  • the temporary camera position S (Xs, Ys, Zs) is the center of these virtual cameras when generating parallax images based on the virtual cameras (hereinafter, the center position of the camera group). S also).
  • the first object 700 is the background.
  • the creator determines that the second and third objects 720 and 704 fall within the angle of view 0, and that the object is within the angle of view ⁇ ⁇ ⁇ ⁇ by the first object 700 that is the background image.
  • Angle of view 0 and camera group center position S are set so that the information exists.
  • the optical axis crossing position A (Xa, Ya, Za), which is a reference for near and far, is obtained so that a desired parallax is obtained as shown in FIG.
  • the parameters of the two virtual cameras 7 2 2 and 7 2 4 are determined over time, specifically, the positions of the power cameras and their optical axes.
  • the camera positions of these two virtual cameras 7 2 2 and 7 2 4 may, for example, depend on the size of the first object which is the background image.
  • first and second object zero areas 7440 and 742 in which object information does not exist are generated.
  • FIG. 80 is a flowchart showing the angle-of-view adjustment processing. This angle-of-view adjustment processing can be realized by the first stereoscopic image display device 100 shown in FIG.
  • the temporary camera placement unit 130 determines the camera group center position S (S110). Subsequently, the camera arrangement determining unit 132 determines the camera angle of view 0 based on the camera group center position S (S112), determines the camera interval E (S114), and sets the light of the virtual camera. The axis intersection position A is determined (S116). Further, the camera arrangement determining unit 132 performs a coordinate conversion process on the original data based on the camera interval E and the optical axis intersection position A (S118), and determines whether or not object information exists in all pixels on the display screen. Is determined (S120).
  • a method of expressing a stereoscopic image starting from a real image will be described.
  • the difference between the case where the starting point is three-dimensional data and the case where the starting point is a real image is that there is no concept of the depth T of the basic expression space when the starting point is a real image. This can be rephrased as a depth range T in which an appropriate parallax display is possible. As shown in Fig. 17 and Fig.
  • the parameters required for setting the camera for generating a stereoscopic image are the camera interval E, the optical axis intersection distance A, the angle of view 0, and the front which is the front of the basic representation space
  • the remaining parameters can be calculated by specifying three of the six parameters E, ⁇ , ⁇ ⁇ S, D, and T.
  • any parameter can be specified freely, but in the above-described embodiment, ⁇ ⁇ S and T were specified, and E, A, and D were calculated.
  • T can also be said to be a parameter representing the limitation of the expression range, and is preferably determined in advance. In the case of a three-dimensional de-night, it is almost the same to change any of the parameters. However, it is different in the case of live action. Depending on the structure of the camera, the price varies greatly and the operability also changes. Therefore, it is desirable to change the parameters specified according to the application.
  • FIG. 81 shows the relationship between a stereoscopic photographing device 510 for photographing a stereoscopic photograph at an entertainment facility or a photo studio and a subject 552.
  • the three-dimensional photographing device 5100 includes a camera 550 and a three-dimensional image processing device 100.
  • the shooting environment is fixed. That is, the position of the camera 550 and the position of the subject 552 are determined in advance, and 0, S, and T are determined as parameters.
  • the example shown in FIG. 18 is replaced with an actual camera 550, and two lenses 5 2 2 and 5 2 4 are provided in one camera 550. With only 550, two parallax images serving as base points of a stereoscopic image can be captured.
  • FIG. 82 shows a configuration of a sixth stereoscopic image processing apparatus 100 that performs this processing.
  • This stereoscopic image processing apparatus 100 is obtained by replacing the parallax detection section 150 with a camera control section 151 in the stereoscopic image processing apparatus 100 shown in FIG.
  • the camera control unit 151 has a lens interval adjustment unit 1553 and an optical axis adjustment unit 150.
  • the lens interval adjusting unit 153 adjusts the camera interval E, more specifically, the lens interval E by adjusting the positions of the two lenses 5 2 2 and 5 2 4.
  • the optical axis adjustment unit 15 5 adjusts D by changing the directions of the optical axes of the two lenses 5 2 2 and 5 2 4.
  • the appropriate parallax information of the stereoscopic image display device held at home or the like is input through a portable recording medium such as a memory or a force, or a communication means such as the Internet.
  • the information acquisition unit 118 receives the input of the proper parallax. Notification to the camera control unit.
  • the camera control unit 151 calculates E, A, and D, and adjusts the lenses 522, 524 to allow the camera 550 to shoot with an appropriate parallax. This is realized by the fact that the library uses the same process for the stereoscopic display device for displaying the subject and the stereoscopic photographing device 5110.
  • D and A should also be determined, and the subject should be positioned at D, and shooting should be performed. , And select the one with smaller E. Also, T may be larger than the range occupied by the subject. If there is a background, T should be determined including the background.
  • the proper parallax information does not necessarily need to be obtained by using a stereoscopic image display device owned by the user who is the subject.
  • a desired stereoscopic effect may be selected by a typical stereoscopic image display device at the shooting site. This selection can be made by the stereoscopic effect adjusting unit 112. Alternatively, simply select from items such as “on screen / distant / close” and “three-dimensional: large / medium / small” and store them in the disparity information storage unit 120 corresponding to them.
  • a predetermined camera parameter may be used.
  • the change of the optical axis crossing position may be changed by a mechanical structure, but may be realized by changing a range used as an image using a high-resolution CCD (Charge Coupled Device). In this process, the function of the position shift unit 160 may be used.
  • CCD Charge Coupled Device
  • Fig. 83 shows that a camera 550 that can be moved to a place where humans cannot enter is installed, and that the camera 550 is operated by remote control using the controller 519, and the captured image is captured. This shows a state of observation with the stereoscopic image display device 511.
  • a stereoscopic image display device 100 having the configuration shown in FIG. 82 is incorporated in the stereoscopic image display device 511.
  • the camera 550 has a mechanism that can automatically adjust the lens interval ⁇ . Also, this camera 550 has an optical zoom or electronic zoom function, which determines 0. However, the amount of parallax changes due to this zoom operation. In general, the farther a picture is taken, the smaller the angle formed by the optical axis between the viewpoints at the time of display becomes. Therefore, at the lens interval ⁇ ⁇ ⁇ , the parallax becomes small and the stereoscopic effect becomes poor. Therefore, lens spacing —It is necessary to change the camera settings such as the camera amount appropriately. Here, the camera settings are automatically controlled in such a case, and the complicated camera settings are greatly reduced. The camera settings may be adjusted using the controller 519.
  • the camera 550 When the operator first operates the optical zoom or the electronic zoom using the controller 5 19, 0 is determined. Next, the camera 550 is moved, and the subject to be photographed is displayed at the center on the stereoscopic display device 511. The camera 550 focuses on the subject using the auto-force function, and at the same time acquires the distance. In the initial state, this distance is D. That is, the camera 550 is automatically set so that the subject can be seen near the display screen. T can manually change the range, and the operator specifies in advance the distribution in the depth direction of the object whose context is to be grasped. Thus, ⁇ , D, and D are determined. As a result, E, A, and S are determined from the above three relational expressions, and the camera 550 is automatically adjusted appropriately. In this case, since S is determined later, it is uncertain what range T will eventually be. Therefore, it is better to set T to some extent.
  • the subject may be displayed once in the center, a predetermined button may be pressed to fix the focus and D, and then the direction of the camera 550 may be changed. If the focus and D can be changed manually, the depth position of the object can be freely changed.
  • FIG. 84 shows an example of photographing by the stereoscopic image photographing device 5 10.
  • the body image capturing device 5110 has a configuration shown in FIG.
  • the camera 550 is preliminarily input with the proper parallax of the stereoscopic image display device held by the photographer through a recording medium such as a portable memory or a communication means such as the Internet.
  • a recording medium such as a portable memory or a communication means such as the Internet.
  • the camera 550 has a simple structure and is available at a relatively low price.
  • the camera interval E, the optical axis crossing distance D, and the angle of view 0 are fixed, and A, S, and T are determined from the above three relational expressions.
  • the appropriate range of the distance to the subject can be calculated, so the distance to the subject is measured in real time, and it is determined whether the calculated distance is appropriate. To notify the photographer.
  • the distance to the subject may be obtained by a known technique such as an autofocus distance measuring function. ' As described above, any combination of camera parameters as variables or constants is free, and there are various forms according to the application.
  • the camera 550 may be attached to various devices such as a microscope, a medical endoscope, and a portable terminal.
  • the stereoscopic display device includes a stereoscopic image processing device for realizing stereoscopic vision.
  • the proper parallax obtained by the stereoscopic effect adjustment unit 111 of the first to sixth stereoscopic image processing apparatuses 100 is a parameter determined by the user while stereoscopically viewing the specific stereoscopic image processing apparatus 100.
  • the proper parallax is maintained thereafter.
  • Two factors are added to the operation of adjusting the stereoscopic effect, namely, the “image separation performance” specific to the stereoscopic display device and the “physiological limit” specific to the observer.
  • “Image separation performance” is an objective factor that indicates the performance of separating multiple viewpoint images.For stereoscopic displays with low performance, crosstalk is perceived even with little parallax, and multiple observations are performed.
  • the range of the appropriate parallax when the person makes the adjustment becomes narrow on average. Conversely, if image separation performance is high, crosstalk is hardly perceived even with large parallax, and the range of appropriate parallax tends to be wide on average.
  • the “physiological limit” is a subjective factor. For example, even if the image separation performance is very high and the images are completely separated, the parallax range where the viewer does not feel discomfort differs. This appears as a variation in proper parallax in the same stereoscopic image processing device 100.
  • the image separation performance is also called the degree of separation, and can be determined by measuring the illuminance of the reference image 572 while moving the illuminometer 570 horizontally at the optimum observation distance as shown in FIG. At that time, in the case of the binocular system, for example, all white is displayed in the left eye image, and all black is displayed in the right eye image. If the images are completely separated, the illuminance at the position where the right eye image can be seen will be 0. In contrast, by measuring the degree of white leakage in the left-eye image, Separation performance is obtained. In this figure, the graph on the right end is an example of the measurement result. Also, since this measurement is almost equivalent to measuring the density of moire, image separation can also be performed by capturing a moire image at a distance where moire is observed as shown in Fig. 86 and analyzing the density. Performance can be measured.
  • the image separation performance can be measured by measuring leaked light in the same manner. Also, in practice, the calculation may be made by taking the measured value when both the left and right images are all black as a background.
  • the image separation performance can also be determined by the average value of the ranking evaluation by a large number of observers.As described above, the image separation performance of the stereoscopic display device can be given an objective criterion such as an objective numerical value. For example, if the rank of the stereoscopic display device 450 of FIG. 54 owned by the user and the appropriate parallax of the user to the stereoscopic display device 450 are known, it is possible to match the rank of another stereoscopic display device 450.
  • the proper parallax can be converted.
  • the stereoscopic display device has parameters that are eigenvalues such as the screen size, pixel pitch, and optimal viewing distance, and the information of these parameters is also used to convert the proper parallax. Will be described in order for each parameter using FIGS. 87 and 88.
  • the proper parallax is held by N / L and M / L.
  • M is the near limit disparity
  • N is the far limit disparity
  • L is the screen size.
  • the optimal viewing distance d increases by a factor of b
  • the absolute value of the parallax is preferably increased by a factor of b. That is, the angle of parallax that the eye sees is kept constant. Therefore, by converting N / L to bN / L and converting M / L to bM / L, an appropriate parallax can be realized even when the optimum viewing distance is different. In this figure, it is shown as an example of the closest position.
  • N / L is converted into b c N / (a L)
  • M / L is converted into b c M / (a L).
  • This conversion can be applied to both the horizontal and vertical disparities.
  • the above conversion of the appropriate parallax can be realized by the configurations shown in FIGS. 52, 53, and 54.
  • the front and back of the basic expression space may be determined using the Z buffer.
  • the Z-buffer is a hidden surface processing method that can obtain a depth map of a group of objects viewed from a camera. The minimum and maximum values for removing the Z value may be used as the frontmost and rearmost positions. As processing, processing to obtain the Z value from the position of the virtual camera is added. Since this process does not require a final resolution, processing with a reduced number of pixels reduces the processing time. With this method, the hidden parallax is ignored, and the proper parallax range can be used effectively. It is easy to handle even if there are multiple objects.
  • the parallax control unit 1114 may be configured to: when generating a stereoscopic image from three-dimensional data, changing a parameter related to a camera arrangement set to generate a parallax image; May be controlled so as to fall within a predetermined threshold value with respect to the fluctuation of the parameter. Further, when generating a stereoscopic image of a moving image from a two-dimensional moving image to which the depth information is given, the parallax control unit 114 generates the depth information included in the depth information generated with the progress of the two-dimensional moving image. Of the maximum or minimum of The variation may be controlled so as to fall within a preset threshold. The threshold values used for these controls may be stored in the parallax information storage unit 120.
  • the size of the basic expression space will rapidly increase due to rapid movement of objects, framing, and frame-out. In other words, the camera placement parameters may fluctuate significantly. If this change is larger than a predetermined threshold value, the change may be allowed up to the threshold value.
  • a threshold may be set for this variation.
  • the burden on the programmer can be reduced when creating content or applications that can provide appropriate stereoscopic display.
  • the present invention is applicable to a stereoscopic image processing method, a stereoscopic image processing method device, and the like.

Description

03 03791
立体画像処理方法および装置 技術分野
この発明は立体画像処理技術、 特に、 視差画像をもとに立体画像を生成または 表示する方法および装置に関する明。 背景技術 田
近年、 ネットワークインフラの未整備が問題視されてきたが、 ブロードバンド への移行期を迎え、 むしろ、 広い帯域を有効活用するコンテンツの種類や数の少 なさが目立ち始めている。 映像はいつの時代でも、 最も重要な表現手段であった が、 いままでの取り組みの多くは表示品質やデータ圧縮率の改善に関するもので あり、 それらに比べると、 表現の可能性自体を広げる技術的な取り組みは、 後手 にまわっている感がある。
そうした中で、 立体映像表示 (以下、 単に立体表示という) は、 以前からいろ いろ研究され、 劇場用途や特殊な表示装置を利用する、 ある程度限られた市場で 実用化されてきた。 今後は、 より臨場感の溢れるコンテンヅの提供を目指してこ の方面の研究開発が加速し、 個人ユーザが家庭でも立体表示を楽しむ時代が来る ものと思われる。
また、 立体表示は今後普及が期待されるものであるが、 それ故に、 現在の表示 装置では想像し得なかった表示形態も提案されている。 例えば、 二次元画像の選 択された部分画像を立体にして表示する技術が開示されている (例えば、 特開平
1 1 - 3 9 5 0 7号公報参照) 。
そうした流れの中にあって、 立体表示には以前よりいくつかの課題が指摘され ている。 例えば、 立体感を創生する原因となる視差の適正化が難しい。 もともと 、 本当に≡次元のオブジェクトを映し出しているのではなく、 その映像を左右両 目に対して画素単位でずらして投じているのであり、 その人工的な立体感に自然 な感じをもたせるのは容易ではない。
また、 視差の付けすぎも問題になることがあり、 立体映像の観察者 (以下、 単 にユーザともいう) によっては、 軽い不快感を訴える場合がある。 もちろんこれ には、 立体表示だけではなく、 表示されているシーンと自己の周囲の状況ないし 感覚が一致しないなど、 種々の要因がある。 しかし、 経験則からいえば、 そうし た問題は視差が大きすぎる、 換言すれば、 立体感が強すぎる場合に観察されやす い。
以上は人間の生理上のはなしであるが、 それとは別に、 立体映像のコンテンヅ やアプリケーションの普及を阻む技術要因がある。 立体視は視差によって実現す るが、 仮に視差を左右画像の画素のずれ量で表現しても、 表示装置のハ一ドゥエ ァの差違により、 同じ立体映像が適切に立体視できる場合とそうでない場合があ る。 遠方を表現する視差が眼間距離を超えてしまうと、 理論的に立体視ができな い。 今日のように、 表示装置の解像度やスクリーンサイズが P C (パーソナルコ ンピュ一夕) 、 テレビジョン受像機、 携帯機器など多様化する中、 いろいろなハ 一ドウエアを考えて立体表示のために最適なコンテンツを作るのは難題であり、 あるいは、 そのための方法論が与えられていないというほうがより正確である。 また仮に、 その方法論が与えられたとしても、 それを一般のプログラマが理解 し、 コンテンツおよびアプリケーションの作成に利用することを期待するのは難 しいであろう。
上記文献に開示の ¾術にあっては、 上述の課題を解決する一手法として提案さ れているが、 今後立体表示を ½及させる為には、 さらなる手法を提案し新たな技 術を蓄積するとともに、 それら技術を連携させ製品に適用させる必要がある。 発明の開示
本発明はこうした背景に鑑みてなされたものであり、 その目的は、 立体表示の 新たな表現手法を提案することにある。 別の目的は、 ¾示対象画像や表示装置が 変わってもユーザに適切な立体画像を生成または表示することにある。 更に別の 目的は、 立体表示がなされているときに、 簡単な操作でその立体感を調整するこ とにある。 更に別の目的は、 適切な立体表示が可能なコンテンヅまたはアプリケ —シヨンづく りに際し、 プログラマの負担を軽減することにある。 更に別の目的 は、 適切な立体表示を実現する技術をビジネスのモデルとして提供することにあ る。
本発明の基礎をなす発明者の知見は、 適正視差をいつたん表示装置のハードウ エアやユーザと表示装置の距離などの要素 (以下、 これらを統括的に 「ハ一ドウ エア」 と表現する) から切り離すことにある。 すなわち、 適正視差の表現を後述 のカメラ間隔と光軸交差位置で一般化することにより、 いったんハードウエアに 依存しない汎用的な形で記述する。 「ハードウェアに依存しない」 とは、 表示装 置に固有のハ一ドウエア情報の読み出しが原則的に不要という意味であり、 この 汎用的な記述がなされれば、 あとはその適正視差に基づいて視差画像を生成また は調整すれば、 所望の立体表示が実現する。
適正視差の取得、 および画像の立体表示の際にその適正視差を実現する制御を ライブラリで提供することにより、 一般のプログラマはこのライブラリを呼び出 せば複雑な立体視の原理やプログラミングを意識せず適正な立体表示が実現する 本発明のいろいろな態様のうち、 第 1グループは、 ュ一ザの応答をもとに適正 視差を取得する技術を基本とする。 この技術は、 ユーザによる視差の 「初期設定 」 に利用でき、 いちど適正視差が装置内に取得されれば、 以降、 別の画像の表示 の際にもその適正視差が実現される。 ただし、 この技術は初期設定にとどまらず
、 ユーザが適宜表示中の画像の視差を調整する 「手動豳整」 にも利用される。 以 下、 第 1グループに関する。 '
本発明は、 立体画像処理装置に関し、 異なる視差に対応する複数の視点画像を もとに表示された立体画像に対するユーザの応答を取得する指示取得部と、 取得 された応答をもとに、 そのユーザに関する適正視差を特定する視差特定部とを含 む。
指示取得部は、 例えば G U I (グラフィカルュ一ザイン夕フェイス、 以下同様 ) として提供され、 まず視点画像間の視差を変えながら表示する。 ユーザは自分 が好む立体感になったとき、 ボタン操作などによってその旨を入力する。
「立体画像」 とは立体感をもって表示された画像であり、 そのデータの実体は 、 複数の画像に視差をもたせた 「視差画像」 である。 視差画像は一般に複数の二 次元画像の集合である。 視差画像を構成する各画像は、 それそれが対応する視点 を有する 「視点画像」 である。 つまり、 複数の視点画像によって視差画像が構成 され、 それを表示すると立体画像として表示される。 立体画像の表示を単に 「立 体表示」 ともいう。
「視差」 とは、 立体感を生むためのパラメ一夕であり、 いろいろな定義が可能 だが、 一例として視点画像間の同じ点を表す画素のシフト量で表現できる。 以下 、 本明細書では、 特に断らない限り、 その定義にしたがう。
適正視差は範囲指定してもよい。 その場合、 その範囲の両端を 「限界視差」 と よぶことにする。 「適正視差の特定」 は、 後述の近置オブジェクトの視差として 許容できる最大値で行ってもよい。
本発明の立体画像処理装置は更に、 特定された適正視差が別の画像の表示の際 にも実現されるよう処理を施す視差制御部を含んでもよい。 別の画像が三次元デ —夕を起点として生成される立体画像であるとき、 視差制御部は前記の適正視差 にしたがってその立体画像を生成する複数の視点を決定してもよい。 より具体的 には、 複数の視点間の距離とそれらの視点からオブジェクトを見込む光軸の交差 位置を決定してもよい。 これらの処理の一例は、 後述のカメラ配置決定部によつ てなされる。 これらの処理をリアルタイムにすれば、 常に最適な立体表示が実現 する。
視差制御部は、 表示の対象となる所定の基本三次元空間について適正視差が実 現するよう制御してもよい。 この処理の一例は、 後述の投影 理部によってなさ れる。
視差制御部は、 三次元空間において最も近置されるオブジェクトの座標と最も 遠置されるォブジェクトの座標について前記適正視差が実現するよう制御しても よい。 この処理の一例は、 後述の投影処理部によってなされる。 オブジェクトは 静的でもよい。
「近置」 は複数の視点にそれそれ置かれた メラの視線、 すなわち光軸の交差 位置 (以下、 「光軸交差位置」 ともいう) にある面 (以下、 「光軸交差面」 とも いう) より前に立体視されるような視差が付けられている状態を指す。 「遠置」 は逆に光軸交差面よりうしろに立体視されるような視差が付けられている状態を 指す。 近置オブジェクトの視差が大きくなるほどユーザに近づいて感知され、 遠 置オブジェクトの視差が大きくなるほどュ一ザから遠ざかって見える。 すなわち 、 特に断らないかぎり、 視差は近置、 遠置で正負が反転せず、 ともに非負の値と して定義し、 光軸交差面において近置視差、 遠置視差ともにゼロとする。
表示されるオブジェクトや空間のうち、 視差のない部分について、 光軸交差面 は表示装置のスクリーン面に一致する。 なぜなら、 視差が付けられていない画素 は、 左右両眼から見込む視線がちょうどスクリーン面内の同じ位置に到達し、 す なわち、 そこで交差するためである。
前記の別の画像がすでに視差が与えられている複数の二次元画像である場合、 視差制御部は適正視差にしたがってそれら複数の二次元画像の水平方向のシフ ト 量を定めてもよい。 この態様では、 立体表示のための入力が三次元データを起点 として高い自由度をもって生成されるのではなく、 すでに生成されている視差画 像であり、 視差は固定されている。 この場合、 もとの三次元空間、 あるいは実際 に撮影された実空間に戻ってカメラ位置を変更して再描画、 あるいは再撮影する 処理ができない。 そのため、 視差画像を構成する視点画像、 またはそれらに含ま れる画素を水平へシフ トして視差を調整する。
前記の別の画像はデプス情報が与えられている平面画像 (以下これを 「デブス 情報付画像」 ともいう) の場合、 視差制御部は適正視差にしたがってそのデプス を調整してもよい。 この処理の一例は、 後述の第 3の立体画像処理装置の二次元 画像生成部によってなされる。
この立体画像処理装置は、 適正視差を記録する視差保持部を更に含み、 視差制 御部 、 所定のタイミング、 例えばこの装置の起動時や、 この装置が有する立体 画像処理機能またはその一部が起動されたときなどにおいて適正視差を読み込み 、 その値を初期値として処理を施してもよい。 すなわち、 「起動」 はハ一ドゥエ ァ的な意味でもソフトウェア的な意味でもよい。 この態様によれば、 ユーザがい ちど適正視差を決めれば、 以降、 立体感調整のための自動処理が実現する。 これ は 「適正視差の初期設定」 とでもよぶ機能である。
本発明の別の態様は、 立体画像処理方法に関し、 異なる視差による複数の立体 画像をュ一ザに表示するステップと、 表示された立体画像に対するユーザの応答 をもとにそのユーザに関する適正視差を特定するステップとを含む。
本発明の更に別の態様も立体画像処理方法に関し、 ユーザに依存する適正視差 を取得するステップと、 取得した適正視差が実現されるよう、 表示前に画像に処 理を加えるステップとを含む。 ここで 「取得」 は積極的に特定する処理であって もよいし、 前記の視差保持部等から読み込む処理であってもよい。
これら各ステヅプを立体表示用ライブラリの機能として実装し、 複数のプログ ラムからこのライブラリの機能を関数として呼出し可能に構成すれば、 プログラ マがいちいち立体表示装置のハ一ドウエアを考慮してプログラムを記述する必要 がなくなり、 効果的である。
本発明の第 2グループは、 ユーザの指示をもとに視差を調整する技術を基本と する。 この技術は、 ュ一ザによる視差の 「手動調整」 に利用でき、 ユーザは適宜 表示中の画像の立体感を変更できる。 ただし、 この技術は手動調整にとどまらず 、 ある画像を立体表示する際、 前述の適正視差を読み込み、 その画像の視差を自 動調整する際にも利用できる。 第 1グループの自動調整との違いは、 第 2グルー プの自動調整が二次元の視差画像またはデプス情報付画 i象に対して作用する点で あり、 三次元データまで遡って視差を変更する場合は第 1グループの技術を利用 する。 以下、 第 2グループに関する。
本発明のある態様は立体画像処理装置に関し、 複数の視点画像から表示された 立体画像に対するユーザの指示を取得する指示取得部と、 取得された指示にした がい、 前記複数の視点画像間の視差量を変化させる視差制御部とを含む。 この処 理の一例は後述の図 4 5に示され、 「手動調整」 の典型例である。 ユーザの指示 は、 例えばボタン操作など、 簡単な G U Iで提供すれば利便性が高い。
本発明の別の態様も立体画像処理装置に関し、 複数の視点画像から立体画像を 表示するときに生じる第 1の視差量を検出する視差量検出部と、 第 1の視差量が 、 ュ一ザの許容視差量である第 2の視差量の範囲に入るよう前記複数の視点画像 間の視差量を変化させる視差制御部とを含む。 これは 「自動調整」 の典型例であ り、 第 2の視差量として前述の適主視差が利用できる。 この処理の一例は、 後述 の図 4 6に示される。 視差量検出部は第 1の視差量の最大値を検出し、 視差制御部は、 その最大値が 第 2の視差量の最大値を超えないよう複数の視点画像間の視差量を変化させても よい。 視差の付きすぎによる過度な立体感を避けるため、 視差量の最大値、 すな わち限界視差を守る意図である。 ここでいう最大値は、 近置側の最大値と考えて もよい。
視差量検出部は、 複数の視点画像間で対応点マッチングを計算して第 1の視差 量を検出したり、 または複数の視点画像のいずれかのヘッダに予め記録された第 1の視差量を検出してもよい。 これらの処理の一例は後述の図 4 7に示される。 視差制御部は、 複数の視点画像の合成位置をシフトすることにより複数の視点 画像間の視差量を変化させてもよい。 これは図 4 5〜4 7に共通である。 合成位 置のシフトは、 画素または画像全体を単位とする水平または垂直方向のシフトで ある。 入力がデブス情報付画像の場合、 視差制御部は、 デプス情報を調整して視 差量を変化させてもよい。
本発明の別の態様は立体画像処理方法に関し、 複数の視点画像をもとに表示さ れた立体画像に対するユーザの指示を取得するステップと、 その指示にしたがい 、 前記複数の視点画像間の視差量を変化させるステップとを含む。
本発明の更に別の態様も立体画像処理方法に関し、 複数の視点画像から立体画 像を表示するときに生じる第 1の視差量を検出するステップと、 第 1の視差量が 、 ユーザの許容視差量である第 2のネ 差量の範囲に入るよう複数の視点画像間の 視差量を変化させるステップとを含む。
これら各ステップを立体表示用ライブラリの機能として実装し、 複数のプログ ラムからこのライブラリの機能を関数として呼出し可能に構成してもよい。 本発明の第 3グループは、 画像内位置に基づいて視差を補正する技術を基本と する。 この 「自動補正」 は立体表示に対するユーザの違和感または拒絶感を軽減 するよう作用し、 第 1、 第 2グループの技術と併用できる。 一般に、 立体表示の 際、 画像端部に近いほど複数の視点画像がずれて観察されたり、 違和感を産みや すいなど、 技術上または生理上の問題点力 s指摘される。 第 3グループでは、 画像 端に近い部分で視差を減らし、 またはオブジェクトが近置側から遠置側へ移動す るよう視差を調整するなどの処理により、 この問題の軽減を図る。 以下、 第 3グ ループに関する。
本発明のある態様は立体画像処理装置に関し、 立体画像を表示するための複数 の視点画像間の視差を補正する視差制御部と、 視差制御部がその処理の際に参照 すべき補正マップを保持するマップ保持部とを含み、 この補正マップは、 視差が 視点画像内の位置に基づいて補正されるよう記述されている。 補正マップには、 視差補正マップ、 距離感補正マヅプなどがある。
視差制御部は、 例えば複数の視点画像の周辺部において視差を小さくするか、 またはオブジェクトがユーザからより遠くに感知されるよう視差を変化させる。 視差制御部は、 複数の視点画像のいずれかに選択的に処理を施すことによって視 差を変化させてもよい。
複数の視点画像は三次元デ一夕から生成されるもの、 すなわち、 三次元空間ま で戻って視点画像を生成できる場合には、 視差制御部は複数の視点画像の生成に あたって、 カメラパラメ一夕を制御して視差を変化させてもよい。 カメラパラメ —夕として、 左右カメラの間隔、 カメラからオブジェクトを見込む角度、 または 光軸交差位置などがある。
同様に、 複数の視点画像が三次元デ一夕から生成される場合、 視差制御部は複 数のネ見点画像の生成にあたって、 三次元空間自体を例えばワールド座標系におい て歪ませることにより視差を変化させてもよい。 一方、 複数の視点画像がデプス 情報付画像から生成される場合、 視差制御部はそのデプス情報を操作することに よって視差を変化させてもよい。
本発明の別の態様は立体画像処理方法に関し、 立体画像を表示するための複数 の視点画像を取得するステップと、 取得された前記複数の視点画像間の視差をそ れら視点画像内の位置に基づいて変化させるステップとを含む。 これらのステヅ プを立体表示用ライブラリの機能として実装し、 複数のプログラムからこのライ ブラリの機能を関数として呼出し可能に構成して よい。
本発明の第 4グループは、 第 1〜第 3グループおよびその関連機能をソフトウ エアライブラリとして提供し、 プログラマおよびユーザの負担を軽減し、 立体画 像表示アプリケーションの普及を促進する技術に関する。 以下、 第 4グループに 関する。 本発明のある態様は立体画像処理方法に関し、 立体画像表示に関連する情報を メモリ上に保持し、 その保持された情報を複数の異なるプログラム間で共有し、 それらのプログラムのいずれかが立体画像を表示する際、 保持された情報を参照 して出力すべき画像の状態を決定する。 画像の状態の例は、 視差画像にどの程度 の視差が与えられているか、 その程度である。
「保持された情報」 は、 立体画像表示装置に入力される画像のフォーマット、 視点画像の表示順序、 視点画像間の視差量のいずれかの情報を含んでもよい。 ま た、 保持された情報の共有に加え、 立体画像表示固有の処理を複数のプログラム で共有してもよい。 「立体画像表示固有の処理」 の一例は、 保持された情報を決 定するための処理である。 別の例は、 適正視差を決定するためのグラフィカルュ ーザィン夕フェイスに関する処理、 適正視差状態の実現を支援する視差調整用画 面の表示処理、 ユーザの頭位置を検出して追跡する処理、 立体表示装置を調整す るための画像を表示する処理などである。
本発明の別の態様は、 立体画像処理装置に関し、 立体表示画像の立体感を調整 するためのグラフィカルュ一ザィン夕フェイスをユーザに提供する立体感調整部 と、 ユーザによる立体感の調整の結果判明する限界視差を守る形で視差画像を生 成する視差制御部とを含む。
この装置は更に、'立体画像表示を適正化するために参照すべき情報を取得する 情報検出部と、 取得さ た情報にしたがって前記視差制御部で生成された視差画 像のフォーマツトを変換する変換部とを含んでもよい。
視差制御部は、 三次元データに基づき、 カメラパラメ一夕を制御して、 限界視 差を守りつつ視差画像を生成してもよいし、 デブス情報付画像のデブスを制御し て視差画像を生成してもよいし、 視差のある複数の二次元画像の水平方向のシフ ト量を定めた後、 視差画像 生成してもよい。
本発明の第 5グループは、 以上の立体画像処理技術またはその関連技術を用い たひとつのアプリケーション、 またはビジネスモデルに関する。 第 4グループの ソフトウエアライブラリが利用可能である。 以下、 第 5グループに関する。 本発明のある態様は立体画像処理方法に関し、 視差画像を立体表示するための 適正視差をいつたん表示装置のハードウェアに依存しない表現形式へ変換し、 こ の表現形式による適正視差を異なる表示装置間で流通する。
本発明の別の態様も立体画像処理方法に関し、 第 1の表示装置にて取得された ユーザの適正視差を第 2の表示装置に読み込むステツプと、 第 2の表示装置にて 前記適正視差にしたがって視差画像間の視差を調整するステツプと、 第 2の表示 装置から調整後の視差画像を出力するステップとを含む。 例えば、 第 1の表示装 置がユーザの通常利用する装置、 第 2の表示装置が別の個所に設けられた装置で ある。 また、 第 1の表示装置のハードウェアに関する情報を第 2の表示装置に読 み込むステップと、 読み込んだ第 1の表示装置のハードウヱァに関する情報およ び第 2の表示装置のハードウエアに関する情報をもとに、 視差画像の視差を調整 するステップで視差が調整された視差画像を、 第 2の表示装置にて適正視差にし たがって視差を補正するステヅプと、 を更に含んでもよい。
また、 ハードウェアに関する情報は、 表示画面の大きさ、 表示装置の最適観察 距離、 表示装置の画像分離性能のすくなくともいずれかを含んでもよい。
本発明の別の態様は、 立体画像処理装置に関し、 ネットワークを介して接続さ れた第 1の表示装置、 第 2の表示装置およびサーバを含み、 第 1の表示装置は、 当該装置にて取得されたユーザの適正視差情報をサーバに送信し、 サーバは適正 視差情報を受信してこれをユーザと関連づけて記録し、 ユーザが第 2の表示装置 にて画像デ一夕の出力を要求したとき、 当該装置はサーバからそのユーザの適正 視差情報を読み出して視差を調整したのち視差画像を出力する。
本発明の第 6グループは、 立体画像を用いた新たな表現手法を 案する技術を 基本とする。
本発明のある態様は、 立体画像処理装置に関する。 この立体画像処理装置は、 異なる視差に対応する複数の視点画像をもとに立体画像を表示する立体画像処理 装置であって、 当該立体画像表示装置を利用して立体画像を表示する際に推奨さ れる視差範囲を取得する推奨視差取得部と、 取得した推奨 れる視差範囲内で前 記立体表示画像を表示するよう視差を設定する視差制御部と、 を有する。
また、 立体画像に含まれる所定のオブジェクトの指定をユーザより受け付ける オブジェクト指定部と、 指定されたオブジェクトの位置に、 複数の視点画像それ それに関連づけられている光軸交差位置を対応させるとともに、 指定されたォブ ジェクトが、 立体画像が表示される表示画面の位置付近に表現するように光軸の 交差位置を設定する光軸交差位置設定部と、 を更に有してもよい。
また、 指定されたオブジェクトに対して、 そのオブジェクトが光軸交差位置と 対応づけられ、 かつ、 前記のオブジェクトが表示画面の位置付近に表現される旨 が記述された光軸対応情報を、 前記のオブジェクトと関連づける指定情報付加部 と、 を更に有してもよい。
また、 光軸交差位置設定部は、 光軸対応情報を取得し、 取得した光軸対応情報 に記述されているォブジェクトに対して光軸交差位置を対応させるとともに、 光 軸交差位置が対応づけられたオブジェクトを、 前記立体画像が表示される表示画 面の位置付近に表現してもよい。
また、 立体画像を生成する際に用いられる画像データに関連づけられており、 立体画像に含まれるオブジェクトに、 立体表示すべきオブジェクトが含まれる基 本表現空間内に表現すべきか否かの情報が含まれる識別情報を取得する識別情報 取得部を、 更に有してもよく、 視差制御部は、 取得した識別情報を、 才ブジェク トを立体画像に表現する際に反映させてもよい。
また、 識別情報は、 前記オブジェクトを基本表現空間内に表現する際の夕イミ ングに関する情報を含んでもよく、 識別情報取得部は、 取得したタイミングを、 オブジェクトを立体画像に表現する際に反映させてもよい。
本発明の別の態様は、 立体画像処理方法に関する。 この立体画像処理方法は、 異なる視差に対応する複数の視点画像をもとに表示される立体画像に含まれる所 定のオブジェクトを選択可能とし、 オブジェクトが選択された場合、 選択された ォブジヱクトの位置に、 前記の複数の視点画像それそれに関連づけられている光 軸交差位置を対応させるとともに、 その光軸交差位置を立体画像が表示される表 示画面の位置に略一致させる。 この立体画像処理方法によると、 表示画面が遠置 空間と近置空間の境界に設定でき、 オブジェクトが表示画面を越えて観察者に向 かってくるような表現が可能となる。
また、 指定されたオブジェクトは所定の界面を有し、 光軸交差位置設定部は、 界面上に光軸交差位置を対応づけてもよい。 また、 立体画像が、 三次元データを 起点として生 されてもよい。 三次元データを起点に立体 H像が生成される場合 、 立体画像に様々な効果を加味することが容易である。 例えば、 あるオブジェク トが界面、 つまり表示画面を越える様に表現する際に、 その表示画面を変形させ る様な効果を加味できる。
本発明の更に別の態様も立体画像処理方法に関する。 この立体画像処理方法は ' 、 異なる視差に対応する複数の視点画像をもとに生成される立体画像が表示され る表示画面付近に、 立体画像の一部として、 空間と空間を隔てる界面を設定する とともに、 その界面を近置空間および遠置空間の境界として立体画像を表現する 。 また、 界面は、 物質と物質の境界面であってもよし、 薄板であってもよい。 薄 板としてガラス板や、 更に紙などがある。
本発明の更に別の態様は、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに生成される立体画像に含まれ 、 かつ立体表示すべきオブジェクトが含まれる基本表現空間内に表現すべきォブ ジェク卜の移動速度を、 近置または遠置方向について変更するステップを含む。 本発明の更に別の態様も、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに立体画像を生成する際に、 立 体表示すべきォブジェクトが含まれる基 表現空間内に表現すべき'オブジェクト を所定の視差範囲内に収まるように表現しつつ、 前記基本表現空聞の最前面ある いは最後面の少なくとも一方の面をォブジェクトが存在しない位置に設定する。 本発明の更に別の態様も、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに立体画像を生成するに際して 、 立体表示すべきオブジェクトが含まれる基本表現空間内に表現すべきオブジェ クトの視差を算出する 、 オブジェクトの実際のサイズに替えて、 オブジェクト の前方の拡張領域を含むサイズとしてオブジェクトの視差を算出する。 また、 前 方の拡張領域を含む形で、 オブジェクトが移動することによって基本表現空間の 最前面に位置した後、 オブジェクトが更に前方に移動する場合、 オブジェクトを 前方の拡張領域を移動するように表現してもよい。
本発明の更に別の態様も、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに立体画像を生成するに際して 、 立体表示すべきオブジェクトが含まれる基本表現空間内に表現すべきオブジェ クトの視差を算出する際、 オブジェクトの実際のサイズに替えて、 オブジェクト の後方の拡張領域を含むサイズとしてオブジェクトの視差を算出する。 また、 前 方の拡張領域を含む形でオブジェクトが、 移動することによって基本表現空間の 最後面に位置した後、 オブジェクトが更に後方に移動する場合、 オブジェクトを 、 後方の拡張領域を移動するように表現してもよい。
本発明の本発明の第 7グループは、 画像の状態に応じて、 設定すべき視差を調 整する技術を基本とする。
本発明のある態様は、 立体画像処理装置に関する。 この立体画像処理装置は、 三次元データにより立体画像を生成する際に、 立体画像内に表現されるオブジェ クトの幅と奥行きの比が人間の眼に正しく知覚される範囲の視差よりも、 視差が 大きくならないように制御する視差制御部を有する。
本発明の別の態様も、 立体画像処理装置に関する。 この立体画像処理装置は、 デプス情報が与えられた二次元画像より立体画像を生成する際に、 前記立体画像 内に表現されるォブジェクトの幅と奥行きの比が人間の眼に正しく知覚される範 囲の視差よりも、 視差が大きくならないように制御する視 制御部を有する。 本発明の更に別の態様も、 立体画像処理装置に関する。 この立体画像処理装置 は、 異なる視差に対応する複数の視点画像をもとに表示されるべき立体画像を周 波数分析する画像判定部と、 周波分析により判明する高周波成分の量に応じて、 視差量を調整する視差制御部と、 を有する。 また、 視差制御部は、 高周波成分の 量が多い場合は、 視差量を大きくする調整を行ってもよい。
本発明の更に別の態様も、 立体画像処理装置に関する。 この立体画像処理装置 は、 異なる視差に対応する複数め視点画像をもとに表示される立体画像の動きを 検出する画像判定部と、 立体画像の動きの量に応じて、 視差量を調整する視差制 御部と、 有する。 また、 視差制御部は、 前記立体画像の動きの量が少ない場合、 視差量を小さくする調整を行ってもよい。
本発明の更に別の態様も立体画像処理装置に関する。 この立体画像処理装置は
、 データにより立体画像を生成する際に、 視差 ia像を生成するために設定される カメラ配置に関するパラメ一夕が変更される場合、 カメラパラメ一夕を前記パラ メ一夕の変動に対して予め設けられている閾値に収まるよう制御する。 この装置 によると、 視差が急激に変化して、 立体画像の観察者が違和感を感じることを、 低減できる。
本発明の更に別の態様も立体画像処理装置に関する。 この立体画像処理装置は 、 デプス情報が与えられた二次元動画像より動画像の立体画像を生成する際に、 二次元動画像の進行に伴い発生する、 デプス情報に含まれるデブスの最大値もし くは最小値の変動が、 予め設けられている閾値に収まるように制御する。 この装 置によると、 視差が急激に変化して、 立体画像の観察者が違和感を感じることを 、 低減できる。
本発明の更に別の態様は、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに表示される立体画像の適正視. 差を、 シーンを単位として設定する。
本発明の更に別の態様は、 立体画像処理方法に関する。 この立体画像処理方法 は、 異なる視差に対応する複数の視点画像をもとに表示される立体画像の適正視 差を、 所定の時間間隔で設定する。
本発明の別の態様は、 立体画像処理装置に関1 る。 この立体画像処理装置は、 立体画像の起点となるオリジナルデータが入力された際に、 複数の視点画像を生 成するための複数の仮想カメラの配置を設定するカメラ配置設定部と、 仮想カメ ラそれそれに対応して生成される視点画像に、 表示すべきオブジェクトの情報が 存在しない領域が発生しているか否かを判定するオブジェクト領域判定部と、 表 示すべきオブジェクトの情報が存在しない領域が発生している場合、 オブジェク トの情報が存在しない領域が無くなるように、 仮想カメラの画角、 カメラ間隔、 および光軸の交差位置の少なくともいずれかを調整するカメラパラメータ調整部 と、 を有する。
なお、 以上の構成要素の任意の組合せ、 本発明の表現を方法、 装置、 システム 、 記録媒体、 コンピュータプログラムなどの間で変換したものもまた、 本発明の 態様として有効である。 図面の簡単な説明
上述した目的、 およびその他の目的、 特徴および利点は、 以下に述べる好適な実 施の形態、 およびそれに付随する以下の図面によって更に明らかになる。
図 1は、 理想的な立体視ができているユーザ、 スクリーン、 再生オブジェクト 1 4の位置関係を示す図である。
図 2は、 図 1の状態を実現する撮影系の例を示す図である。
図 3は、 図 1の状態を実現する撮影系の別の例を示す図である。
図 4は、 図 1の状態を実現する撮影系の別の例を示す図である。
図 5は、 第 1の立体画像処理装置に利用するモデル座標系を示す図である。 図 6は、 第 1の立体画像処理装置に利用するワールド座標系を示す図である。 図 7は、 第 1の立体画像処理装置に利用するカメラ座標系を示す図である。 図 8は、 第 1の立体画像処理装置に利用するビューボリュームを示す図である o
図 9は、 図 8のボリュ一ムの透視変換後の座標系を示す図である。
図 1 0は、 第 1の立体画像処理装置に利用するスクリーン座標系を示す図であ る。
図 1 1は、 第 1の立体画像処理装置の構成図である。
図 1 2は、 第 2の立体画像処理装置の構成図である。
図 1 3は、 第 3の立体画像処理装置の構成図である。
図 1 4 ( a ) 、 図 1 4 ( b ) は、 それぞれ、 第 1の立体画像処理装置の立体感 調整部によって表示される左眼画像と右眼画像を示す図である。
図 1 5は、 第 1の立体画像処理装置の立体感調整部によって表示される、 異な る視差をもつ複数のオブジェクトを示す図である。
図 1 6は、 第 1の立体画像処理装置の立体感調整部によって表示される、 視差 が変化するォブジェクトを示す図である。
図 1 7は、 適正視差が実現される際のカメラ画角、 画像サイズ、 視差の関係を 示 図である。
図 1 8は、 図 1 7の状態を実現する撮影系の位置関係を示す図である。
図 1 9は、 図 1 7の状態を実現する撮影系の位置関係を示す図である。
図 2 0は、 多視点画像を適正視差で生成する際のカメラ配置を示す図である。 図 2 1は、 第 1の立体画像処理装置の歪処理部が利用する視差補正マップを示 す図である。
図 2 2は、 図 2 1の視差補正マップにしたがって視差画像を生成する際のカメ ラ視点を示す図である。
図 2 3は、 図 2 1の視差補正マップにしたがって視差画像を生成する際の別の カメラ視点を示す図である。
図 2 4は、 第 1の立体画像処理装置の歪処理部が利用する視差補正マップを示 す図である。
図 2 5は、 図 2 4の視差補正マップにしたがって視差画像を生成する際のカメ ラ視点を示す図である。
図 2 6は、 第 1の立体画像処理装置の歪処理部が利用する距離感補正マップを 示す図である。
図 2 7は、 図 2 6の距離感補正マヅプにしたがって視差画像を生成する際の力 メラ視点を示す図である。
図 2 8は、 第 1の立体画像処理装置の歪処理部が利用する別の距離感補正マツ プを示す図である。
図 2 9ほ、 図 2 8の距離感補正マップにしたがって視差画像を生成する際の力 メラ視点を示す図である。
図 3 0 ( a ) 、 図 3 0 ( b ) 、 図 3 0 ( c ) , 図 3 0 ( d ) 、 図 3 0 ( e ) , 図 3 0 ( f ) は、 いずれも第 1の立体画像処理装置の歪処理部が三次元空間に処 理を施した結果得られる視差分布の上面図である。
図 3 1は、 第 1の立体画像処理装置の歪処理部による処理の原理を示す図であ る o
図 3 2は、 図 3 1の処理を具体的に示す図である。
図 3 3は、 図 3 1の処理を具体的に示す図である。
図 3 4は、 図 3 1の処理を具体的に示す図である。
図 3 5は、 第 1の立体画像処理装置の歪処理部による処理の別の例を示す図で ある。
図 3 6は、 図 3 5の処理を具体的に示す図である。
図 3 7は、 デプスマップを示す図である。 図 3 8は、 第 3の立体画像処理装置の歪処理部による処理の例を示す図である 図 3 9は、 第 3の立体画像処理装置の歪処理部による処理によって生成された デプスマップを示す図である。
図 4 0は、 第 3の立体画像処理装置の歪処理部による処理の別の例を示す図で ある。
図 4 1は、 第 2の立体画像処理装置の二次元画像生成部による処理の例を示す 図である。
図 4 2は、 視差画像の例を示す図である。
図 4 3は、 第 2の立体画像処理装置の二次元画像生成部によって合成位置がシ フトされた視差画像を示す図である。
図 4 4は、 第 2の立体画像処理装置の画像端調整部の処理を示す図である。 図 4 5は、 第 2の立体画像処理装置の処理を示す図である。
図 4 6は、 第 2の立体画像処理装置の別の処理を示す図である。
図 4 7は、 第 2の立体画像処理装置の別の処理を示す図である。
図 4 8は、 デプスマップが付加された平面画像を示す図である。
図 4 9は、 デプスマップを示す図である。
図 5 0は、 第 2の立体画像処理装置の二次元画像生成部でデプスマップをもと に視差画像を生成する様子を示す図である。
図 5 1は、 第 2の立体画像処理装置の二次元画像生成部で補正されたデプスマ ップを示す図である。
図 5 2は、 実施の形態に係る立体画像処理装置をライブラリ化して利用する様 子を示す図である。
図 5 3は、 立体表示ライブラリを三次元データソフトに組み込んだ構成図であ る。
図 5 4は、 立体表示ライブラリをネットワーク利用型のシステムで利用する様 子を示す図である。
r 1
図 5 5は、 三次元データにより構^された画像が表示画面に表示されている状 態を示す図である。 図 5 6は、 三次元データにより構成された画像が表示画面に表示されている別 の状態を示す図である。
図 5 7は、 三次元データにより構成された画像が表示画面に表示されている別 の状態を示す図である。
図 5 8は、 表示すべきオブジェク卜が有する界面を表示画面に一致させる手法 を示す図である。
図 5 9は、 二つの仮想カメラの光軸交差位置を水槽の一つの面と一致させて画 像を撮影する別の様子を示す図である。
図 6 0は、 第 4の立体画像処理装置の構成図である。
図 6 1は、 第 4の立体画像処理装置により表示される画像に関して便宜的基本 表現空間 Tについて表す図である。
図 6 2は、 オブジェクトが何も存在しない領域を、 基本表現空間 Tに含ませて 表現する図である。
図 6 3は、 オブジェクトが何も存在しない領域を、 基本表現空間 Tに含ませて 表現する図である。
図 6 4は、 視差を計算する対象として、 鳥だけでなくその前後の空間を含める 形で移動オブジェクトを形成している様子を示す図である。
図 6 5は、 移動オブジェクトが前方投影面を越えた後、 あらかじめ含めておい た空間を鳥 3 3 0移動させる様子を示す図である。
図 6 6は、 表示画面において、 観察者が立体画像を観察している様子を示す図 である。
図 6 7は、 カメラ配置決定部によって定められるカメラ配置を示す図である。 図 6 8は、 図 6 7のカメラ配置で得られた視差画像を観察者が観察している様 子を示す図である。
図 6 9は、 図 6 7のカメラ配置で適正視差が得られた画像を、 図 6 6で示した 観察者の位置で観察者が表示画面を観察している様子を示す図である。
図 7 0は、 図 6 7に示したカメラ配置で、 表示画面からの距離が Aに位置する 球の最近置点を撮影する様子を示す図である。
図 7 1は、 二つのカメラとカメラの光軸公差距離および、 図 7 0で示した視差 を得るために必要なカメラ間隔の関係を示す図である。
図 7 2は、 図 6 7に示したカメラ配置で、 表示画面からの距離が T— Aに位置 する球の最遠置点を撮影する様子を示す図である。
図 7 3は、 二つのカメラとカメラの光軸公差距離および、 図 7 2で示した視差 を得るために必要なカメラ間隔 E 1の関係を示す図である。
図 7 4は、 適正視差範囲内に立体画像の視差を設定するために必要とされる力 メラパラメ一夕の関係を示す図である。
図 7 5は、 適正視差範囲内に立体画像の視差を設定するために必要とされる力 メラパラメ一夕の関係を示す図である。
図 7 6は、 第 5の立体画像処理装置の構成図である。
図 7 7は、 三次元デ一夕を作成する制作者により設定される仮カメラ位置、 画 角、 および第 1から第 3のオブジェクトの関係を示す図である。
図 7 8は、 図 7 7で定められた仮カメラ位置をもとに、 二つの仮想カメラが配 置された状態を示す図である。
図 7 9は、 才ブジェクト情報が存在しない領域が発生しないようカメラ配置が 調整された状態を示す図である。
図 8 0は、 画角調整の処理を示す図である。
図 8 1は、 娯楽施設や写真館などで立体写真を撮影する立体写真撮影装置と被 写体との関係を示す図である。
図 8 2は、 第 6の立体画像処理装置の構成を示す図である。
図 8 3は、 遠隔操作によりカメラを操作し、 撮影された映像を立体画像表示装 置で観察している様子を示す図である。
図 8 4は、 第 6の立体画像処理装置を備える立体画像撮影装置による撮影の一 例を示す図である。
図 8 5は、 照度計により画像分解性の測定する様子を示す図である。
図 8 6は、 画像分解性の測定に利用するモアレ画像を示す図である。
図 8 7は、 適正視差の変換例を示す図である。
図 8 8は、 適正視差の別の変換例を示す図である。
図 8 9は、 視差および基本表現空間の簡易決定の際に利用するテーブルを示す 図である。 発明を実施するための最良の形態
図 1はユーザ 1 0、 スクリーン 1 2、 立体表示される再生オブジェクト 1 4の 位置関係を示す。 ユーザ 1 0の眼間距離が E、 ユーザ 1 0とスクリーン 1 2の距 離が D、 表示されたときの再生オブジェクト 1 4の幅が Wである。 再生オブジェ クト 1 4は立体表示されているため、 スクリーン 1 2よりも近くに感知される画 素、 すなわち近置される画素と、 スクリーン 1 2よりも遠くに感知される画素、 すなわち遠置される画素を有する。 視差が付けられていない画素はスクリーン 1 2上でちょうど両目から同じ位置に見えるため、 スクリーン 1 2上に感知される 図 2は、 図 1の理想的な表示を生成するための撮影系を示す。 二台のカメラ 2 2、 2 4の間隔を Eとし、 それらから現実のォプジヱクト 2 0を見たときの光軸 交差位置までの距離 (これを光軸交差距離という) を Dとし、 スクリーン 1 2と 同じ幅を見込む画角で、 幅が現実に Wであるオブジェクト 2 0を撮影すれば、 二 つのカメラから視差画像が得られる。 これを図 1のスクリーン 1 2へ表示すれば 、 図 1の理想状態が実現する。
図 3、 図 4は、 それそれ図 2の位置関係を A倍 (A < 1 ) 、 B倍 (B > 1 ) し た状態を示す。 これらの位置関係で得られた視差画像で^)、 図 1の理想状態が実 現する。 すなわち、 理想的な立体表示の基本は、 W : D : Eを一定にすることか らはじまる。 この関係が視差の付け方の基礎にもなる。
図 5から図 1 0は、 実施の形態においてオブジェクト 2 0の三次元データをも とに立体表示がなされるまでの処理の大筋を示す。
図 5はモデル座標系、 すなわち、 個々の三次元オブジェクト 2 0がもっている 座標空間である。 この空間で、 オブジェクト 2 0をモデリングしたときの座標を 与える。 通常はォブジェクト 2 0の中心に原点をもってくる。
図 6はワールド座標系を示す。 ワールド空間は、 オブジェクト 2 0や床、 壁を 配置してシーンが形成される広い空間である。 図 5のモデリングと図 6のワール ド座標系の確定までを 「三次元デ一夕の構築」 と認識できる。 図 7はカメラ座標系を示す。 ワールド座標系の任意の位置から任意の方向に任 意の画角でカメラ 2 2を据えることにより、 カメラ座標系への変換が行われる。 カメラの位置、 方向、 画角がカメラパラメ一夕である。 立体表示の場合は、 二つ のカメラについてパラメ一夕を定めるため、 カメラ間隔と光軸交差位置も決める 。 また、 二つのカメラの中点を原点にするために、 原点移動も行われる。
図 8、 図 9は透視座標系を示す。 まず図 8のように、 表示すべき空間を前方投 影面 3 0と後方投影面 3 2でクリッビングする。 後述するように、 実施の形態の ひとつの特徴は、 近置最大視差点のある面を前方投影面 3 0とし、 遠置最大視差 点のある面を後方投影面 3 2にすることにある。 クリッピングの後、 このビュ一 ボリュームを図 9のように直方体へ変換する。 図 8と図 9の処理を投影処理とも よふ o
図 1 0はスクリーン座標系を示す。 立体表示の場合、 複数のカメラそれぞれか らの画像をそれそれスクリーンのもっている座標系へ変換し、 複数の二次元画像 、 すなわち視差画像を生成する。
図 1 1、 図 1 2、 図 1 3は、 それそれ一部が異なる立体画像処理装置 1 0 0の 構成を示す。 以下、 便宜上、 それらの立体画像処理装置 1 0 0をそれぞれ第 1、 第 2、 第 3の立体画像処理装置 1 0 0ともよぶ。 これらの立体画像処理装置 1 0 0は、 装置内に一体に組み込むことも可能であるが、 ここでは図の複雑を避けて 3つに分けている。 第 1の立体画像処理装置 1 0 0は描画すべきォブジヱクトと 空間が三次元データの段階から入手できる場合に効果的であり、 したがって、 主 な入力を三次元データとする。 第 2の立体画像処理装置 1 0 0はすでに視差が与 えられている複数の二次元画像、 すなわち既存の視差画像の視差調整に効果的で あり、 したがって、 二次元の視差画像を入力する。 第 3の立体画像処理装置 1 0 0はデブス情報付画像のデブス情報を操作して適正視差を実現するものであり、 したがって、 主に入力をデプス情報付画像とする。 これら 3通りの入力を総称し て 「オリジナルデ一夕」 と表記している。
第 1〜第 3の立体画像処理装置 1 0 0を一体化して実装する場合、 それらの前 処理部として 「画像形式判定部」 を設け、 三次元デ一夕、 視差画像、 デプス情報 付画像を判定した後、 第 1〜第 3の立体画像処理装置 1 0 0のうち最適なものを 起動する構成としてもよい。
第 1の立体画像処理装置 1 0 0は、 立体表示に対する立体感を設定するうえで
、 「初期設定」 および 「自動調整」 の機能をもつ。 ユーザは立体表示された画像 に対し、 自分の適正視差を範囲指定すると、 これがシステムで取得され、 以降、 別の立体画像の表示の際、 予めこの適正視差が実現するよう変換処理が施されて 表示される。 したがって、 第 1の立体画像処理装置 1 0 0により、 ユーザは原則 として一回だけ設定手続を経れば、 以降、 自分に合った立体表示を楽しむことが できる。
第 1の立体画像処理装置 1 0 0は更に、 画像の周辺部の視差を人工的に緩和す る 「視差補正」 という副機能をもつ。 既述のごとく、 画像端部に近づくにしたが つて複数の視点画像のずれが 「二重像」 として認識されやすくなる。 これはパラ ラックスバリァゃ表示装置のスクリーンの反りなど機構誤差が主因である。 そこ で、 画像の周辺部で、 1 ) 近置視差と遠置視差をともに減らす、 2 ) 近置視差を 減らし遠置視差はそのままにする、 3 ) 近置視差、 遠置視差を問わず、 全体に遠 置視差のほうへシフトする、 など、 いろいろな方法を実施する。 なお、 この 「視 差補正」機能は第 3の立体画像処理装置 1 0 0にも存在するが、 入力デ一夕の違 いにより、 処理は異なる。
第 1の立体画像処理装置 1 0 0は、 立体表示した画像に対するユーザからの応 答をもとに立体感を調整する立体感調整部 1 1 2と、 立体感調整部 1 1 2で特定 された適正視差を保存する視差情報保持部 1 2 0と、 視差情報保持部 1 2 0 ら 適正視差を読みだし、 オリジナルデ一夕から適正視差を有する視差画像を生^す る視差制御部 1 1 4と、 表示装置のハードウェア情報を取得し、 また立体表示の 方式を取得する機能を有する情報取得部 1 1 8と、 情報取得部 1 1 8で取得した 情報をもとに、 視差制御部 1 1 4で生成された視差画像の形式を変更するフォー マット変換部 1 1 6を含む。 オリジナルデ一夕を単に三次元デ一夕とよぶが、 厳 密にはワールド座標系で記述されたオブジェクトおよび空間のデータがこれに当 たる。
情報取得部 1 1 8で取得する情報の例として、 立体表示の視点数、 空間分割ま たは時間分割等の立体表示装置の方式、 シャツ夕めがねの利用があるか否か、 多 眼式の場合における視点画像の並び方、 視差画像の中に視差が反転する視点画像 の並びがあるか否か、 ヘッドトラッキングの結果などがある。 なお、 ヘッドトラ ッキングの結果だけは例外的に図示しない経路を経て直接カメラ配置決定部 1 3 2へ入力され、 そこで処理される。
以上の構成は、 ハードウェア的には、 任意のコンピュータの C P U、 メモリ、 その他の L S Iで実現でき、 ソフトウェア的には G U I機能、 視差制御機能その 他の機能をもつプログラムなどによって実現されるが、 ここではそれらの連携に よって実現される機能ブロックを描いている。 したがって、 これらの機能ブロッ クがハ一ドウエアのみ、 ソフトウェアのみ、 またはそれらの組合せによっていろ いろな形で実現できることは、 当業者には理解されるところであり、 以降の構成 についてもその事情は同様である。
立体感調整部 1 1 2は指示取得部 1 2 2と視差特定部 i 2 4を有する。 指示取 得部 1 2 2は、 立体表示された画像に対してユーザが適正視差の範囲を指定した とき、 これを取得する。 視差特定部 1 2 4は、'その範囲をもとに、 ユーザがこの 表示装置を用いたときの適正視差を特定する。 適正視差は、 表示装置のハードウ エアに依存しない表現形式で表される。 適正視差を実現することにより、 ユーザ の生理に適合した立体視が可能になる。
視差制御部 1 1 4は、 まずカメラパラメータを仮設定するカメラ仮配置部 1 3 0と、 適正視差にしたがって仮設定されたカメラパラメ一夕を修正するカメラ配 置決定部 1 3 2と、 カメラパラメ一夕が決まったとき、 複数のカメラの中点を原 点とすべく原点移動処理を行う原点移動部 1 3 4と、 前述の投影処理を行う投影 処理部 1 3 8と、 投影処理後、 スクリーン座標系への変換処理を行って視差画像 を生成する二次元画像生成部 1 4 2とを含む。 また、 必要に応じて画像周辺部の 視差を緩和するために空間歪み変換 (以下単に歪変換ともいう) を行う歪処理部 1 3 6がカメラ仮配置部 1 3 0とカメラ配 決定部 1 3 2の間に設けられている 。 歪処理部 1 3 6は補正マップ保持部 1 4 0から後述の補正マップを読み出して 利用する。
なお、 立体表示のために表示装置を調整する必要があれば、 そのための図示し ない G U Iを追加してもよい。 この G U Iで、 表示されている視差画像全体を上 下左右へ微小シフトして最適表示位置を確定するなどの処理をなしてもよい。 図 1 2の第 2の立体画像処理装置 1 0 0は、 複数の視差画像を入力とする。 こ れを単に入力画像ともよぶ。 第 2の立体画像処理装置 1 0 0は、 さきに第 1の立 体画像処理装置 1 0 0で取得された適正視差を読み込み、 入力画像の視差を調整 して適正視差の範囲へ収め、 出力する。 その意味で、 第 2の立体画像処理装置 1 0 0は視差の 「自動調整」機能を有する。 ただし、 それだけでなく、 実際に立体 表示が行われている際にユーザが立体感を変更したいとき、 G U I機能を提供し 、 ユーザの指示にしたがって視差を変更する 「手動調整」 機能もあわせもつ。 すでに生成済みの視差画像の視差は通常変更できるものではないが、 第 2の立 体画像処理装置 1 0 0によれば、 視差画像を構成する視点画像の合成位置をシフ トすることで十分に実用に耐えるレベルで立体感が変更できる。 第 2の立体画像 処理装置 1 0 0は、 入力データが三次元データまで遡れない状況においても良好 な立体感調整機能を発揮する。 以下、 第 1の立体画像処理装置 1 0 0との相違点 を中心に述べる。
立体感調整部 1 1 2は手動調整に利用される。 指示取得部 1 2 2は例えばスク リーンで 「+ n」 「_ n」 どの数値入力を実現し、 その値が視差の変更量とし て視差特定部 1 2 4で特定される。 数値と指示される立体感の関係にはいくとお りか考えられる。 例えば、 「+ n」 は立体感を強める指示、 「一 n」 は弱める指 示で、 nが大きくなるほど立体感に対する変更量が大きいとしてもよい。 また、 「+ n」 は全体に近置方向へォブジヱクトを移動する指示、 「一 n」 は全体に遠 置方向へオブジェクトを移動する指示としてもよい。 別の方法として、 nの値は 指定せず、 単に 「 +」 と 「一」 のボタンのみ表示し、 これをクリックするたびに 視差が変更される構成としてもよい。
第 2の立体画像処理装置 1 0 0は、 視差量検出部 1 5 0と視差制御部 1 5 2を する。 入力画像が複数の視差画像の場合、 視差量検出部 1 5 0はそれらの視差 画像のヘッダ領域を検査し、 画素数の形で記述された視差量、 特に近置最大視差 画素数と遠置 Λ大視差画素数があればこれを取得する。 視差量が記述されていな ければ、 マヅチング部 1 5 8がブロヅクマヅチングなど既知の手法を利用して視 差画像間で対応点を検出することにより視差量を特定する。 マッチング部 1 5 8 は画像の中央部など重要領域だけに処理を施してもよいし、 最も重要な近置最大 視差画素数に絞って検出してもよい。 検出された視差量は画素数の形で視差制御 部 1 5 2へ送られる。
一般に携帯電話の表示画面で立体画像が表示されるような場合、 立体感に関す る個人差は小さく、 時としてユーザは適正視差の入力を煩わしく感じることも想 定できる。 また、 不特定多数のユーザに使用される立体表示装置でも、 適正視差 の入力は逆に不便であると感じられる可能性がある。 このような場合には、 適正 視差の範囲を、 立体画像表示装置の製造者や、 立体画像表示装置に表示すべきコ ンテンヅの作成者が決定してもよし、 あるいは一般的な指針に従うなど、 他の手 法で決定してもよい。 例えば、 立体画像に関連する業界団体や学術団体が策定す る指針や規格などを反映させる。 その例として、 「1 5インチの表示画面では、 最大視差を 2 0 mm程度にする」 という指針があれば、 その指針に従う、 または 、 その指針をベースに補正を行うなどの処 3が挙げられる。 この場合、 立体感調 整部 1 1 2は不要となる。
視差制御部 1 5 2の位置シフト部 1 6 0は、 視点画像間の視差量が適正視差に なるようネ見差画像を構成する視点画像の合成位置を水平方向へシフトする。 シフ トは、 視点画像のいずれかについて行え よい。 位置シフト部 1 6 0は別の動作 モードも有し、 ユーザが立体感調整部 1 1 2を介して視差の増加または減少を指 示したとき、 単純にこの指示にしたがって画像合成位置を変更する。 すなわち、 位置シフト部 1 6 0は適正視差への自動調整機能と、 ユーザによる手動調整機能 の二つを有する。
視差書込部 1 6 4は、 前述の視差量検出部 1 5 0のため、 または別の用途のた めに、 視差画像を構成する複数の視点画像のいずれかのヘッダ領域に視差量を画 素数で書き込む。 画像端調整部 1 6 8は、 位置シフト部 1 6 0によるシフトによ つて画像端に生じた画素の欠落を埋める。
図 1 3の第 3の立体画像処理装置 1 0 0は、 デプス情報付画像を入力とする。 第 3の立体画像処理装置 1 0 0は、 適正視差が実現するようデプスを調整する。 また、 前述の 「視差補正」機能をもつ。 視差制御部 1 7 0の歪処理部 1 7 4は、 補正マップ保持部 1 7 6に保存された補正マップにしたがい、 後述の要領で歪変 換を実施する。 歪変換後のデプス情報と画像は二次元画像生成部 1 7 8へ入力さ れ、 ここで視差画像が生成される。 この二次元画像生成部 1 7 8は、 第 1の立体 画像処理装置 1 0 0の二次元画像生成部 1 4 2とは異なり、 ここで適正視差が考 慮される。 デプス情報付画像も画像としては二次元であるため、 二次元画像生成 部 1 7 8は、 図示しないが内部に第 2の立体画像処理装置 1 0 0の位置シフト部 1 6 0に似た機能をもち、 デプス情報にしたがって画像内の画素を水平方向にず らし、 立体感を生成する。 このとき、 後述の処理により、 適正視差が実現される 以上の構成における各立体画像処理装置 1 0 0の各部の処理動作とその原理は 以下のとおりである。
図 1 4 ( a ) 、 図 1 4 ( b ) は、 第 1の立体画像処理装置 1 0 0の立体感調整 部 1 1 2による適正視差の特定のプロセスにおいてそれぞれ表示され 左眼画像 2 0 0、 右眼画像 2 0 2を示す。 それそれの画像には 5個の黒丸が表示されてお り、 上にいくほど近置かつ大きな視差、 下へいくほど遠置かつ大きな視差が付け られている。
図 1 5はこれら 5個の黒丸を表示したとき、 ユーザ 1 0に感知される距離感を 模式的に示す。 ユーザ 1 0はこれら 5個の距離感の範囲を 「適正」 と応答してお り、 この応答を指示取得部 1 2 2が取得する。 同図では、 視差が異なる 5個の黒 丸が同時に、 または順に表示され、 許容できる視差であるか否かをユーザ 1 0が 入力していく。 一方、 図 1 6では表示自体は 1個の黒丸で行うが、 その視差を連 続的に変更し、 ユーザ 1 0が遠置と近置それぞれの方向において許容する限界に きたとき、 応答する。 応答は通常のキー操作、 マウス操作、 音声による入力等、 それ自体は既知の技術を利用すればよい。
また、 視差の決定はより簡易的な方法で行われてもよい。 同様に、 基本表現空 間の設定範囲の決定も簡易的な方法で行われてもよい。 図 8 9は、 視差および基 本表現空間の簡易決定の際に利用するテーブルである。 基本表現空間の設定範囲 が、 近置空間側を多くする設定から、 遠置空間側のみの設定まで A〜Dの 4段階 のランクに分かれており、 更に、 それそれ視差が 1〜5まで 5段階のランクに分 かれている。 ここでは、 例えば、 最も強い立体感を好み、 最も飛び出だした立体 表示を好む場合はランクを 5 Aとする。 そして、 必ずしも立体表示を確認しなが らランクを決定する必要はなく、 ランクを決めるボタンだけが表示されていても よい。 それらの傍らに立体感確認用のボタンがあり、 それを押下することで立体 感を確認する画像が表示されてもよい。
図 1 5、 図 1 6のいずれの場合でも、 指示取得部 1 22は適正視差を範囲とし て取得でき、 その近置側および遠置側の限界視差が決まる。 近置最大視差は、 自 分に最も近い位置に見える点に許す近さに対応する視差、 遠置最大視差は、 自分 から最も遠い位置に見える点に許す遠さに対応する視差である。 ただし、 一般に はユーザの生理上の問題から近置最大視差をケアすべきことが多く、 以下、 近置 最大視差のみを限界視差とよぶ場合もある。
図 17は、 立体表示される画像が三次元デ一夕から取り出される場合において 、 実際に 2視点の視差を調整する原理を示す。 まず、 ユーザが決めた限界視差を 仮配置されたカメラの見込み角に変換する。 同図のごとく、 近置と遠置の限界視 差は画素数で M、 Nとあらわすことができ、 カメラの画角 0が表示画面の水平画 素数 Lに相当するの 、 限界視差画素数の見込み角である、 近置最大見込み角 ø と遠置最大見込み角^が θ、 M、 N、 Lであらわされる。
t an (0/2) =Mt an (Θ/2) /L
t an ( /2) =Nt an (Θ/2) /L
次にこの情報を三次元空間内での 2視点画像の取り出しに適用する。 図 1 8の ように、 まず基本表現空間 T (その奥行きも Tと表記) を決める。 ここでは、 基 本表現空間 Tはオブジェクトの配置に対する制限から決めるとする。 基本表現空 間 Tの前面である前方投影面 30からカメラ配置面、 すなわち視点面 208まで の距離を Sとする。 Tや Sはユーザが指定できる。 視点は二つあり、 これらの光 軸交差面 2 10の視点面 208からの距離を Dとする。 光軸交差面 2 10と前方 投影面 30までの距離を Aとする。
次に、 基本表現空間 T内での近置および遠置の限界視差をそれぞれ P、 Qとす ると、
E : S = P : A
E : S+T=Q : T— A が成立する。 Eは視点間距離である。 いま、 視差の付けられていない画素である 点 Gは両カメラからの光軸 K 2が光軸交差面 2 10上で交差する位置にあり、 光 軸交差面 21 0がスクリーン面の位置となる。 近置最大視差 Pを生む光線 K 1は 前方投影面 30上で交差し、 遠置最大視差 Qを生む光線 K 3は後方投影面 32上 で交差する。
Pと Qは、 図 1 9のように ø、 を用いて、
P = 2 (S +A) t an (0/2)
Q= 2 (S +A) t an (Φ/2)
で表され、 結果として、
E = 2 (S +A) t an (θ/2) · (SM+SN + TN) / (LT) A= S TM/ (SM+SN + TN)
が得られる。 いま、 Sと Tは既知であるから、 こうして Α及び Εが自動的に決ま り、 したがって光軸交差距離 Dとカメラ間距離 Eが自動的に決まり、 カメラパラ メ一夕が確定する。 カメラ配置決定部 132はこれらのパラメータにしたがって カメラの配置を決定すれば、 以降投影処理部 138、 二次元画像生成部 142の 処理を各カメラからの画像に対して独立してなすことにより、 適正視差をもつた 視差画像が生成および出力できる。 以上のごとく、 Eと Aはハ一ドウヱァの情報 を含んでおらず、 ハードウエアに依存しない表現形式が実現される。
以降、 別の画像を立体表示する際にもこの Aまたは Dと Eを守るようカメラを 配置すれば、 自動的に適正視差が実現できる。 適正視差の特定から理想的な立体 表示までのプロセスは全て自動化できるため、 この機能をソフトウェアライブラ リとして提供すれば、 コンテンヅゃアプリケーションを作成するプログラマは立 体表示のためのプログラミングを意識する必要がない。 また、 L、 M、 Nを画素 数で表すと、 Lは表示範囲を示すので、 全画面による表示であるか、 画面の一部 による表示であるかを Lで指示することができる。 Lもハードウェアに依存しな いパラメ一夕である。
図 20は 4台のカメラ 22、 24、 26、 28による 4眼式のカメラ配置を示 す。 正確には、 第 1のカメラ 22と第 2のカメラ 24の間など、 隣接するカメラ 間で適正視差になるよう前述の Aと Eを決めていくべきだが、 簡易的な処理とし ては、 より中央に近い第 2のカメラ 2 4と第 3のカメラ 2 6の間で決めた Aおよ び Eを他のカメラ間に流用してもほぼ同様の効果が得られる。
なお、 Tはオブジェクトの配置に対する制限としたが、 基本的な三次元空間の 大きさとしてプログラムにより決められていてもよい。 この場合、 プログラム全 体を通して必ずこの基本表現空間 T内にのみオブジェクトを配置することもでき るし、 効果的な表示のために、 ときどき故意にこの空間を飛び出すようにォプジ ェクトに視差を与えてもよい。
別の例として、 三次元空間におけるオブジェクトのうち最も近置されるものと 最も遠置されるものの座標に対して Tを決定してもよく、 これを実時間で行えば 、 必ず基本表現空間 Tにオブジェクトが配置できる。 オブジェクトをつねに基本 表現空間 Tに入れることの例外として、 「一定時間の位置の平均が基本表現空間 T内にあればよい」 という緩和条件で運用すれば、 短時間の例外を作ることもで きる。 更に、 基本表現空間 Tを定めるオブジェクトを静的なものに限ってもよく 、 この場合、 動的なオブジェクトが基本表現空間 Tからはみ出す例外的な動作を 与えることができる。 更に別の例として、 すでにオブジェクトを配置した空間を 基本表現空間の幅 Tのサイズに縮める変換を行ってもよいし、 既述の操作と組み 合わせてもよい。 なお、 オブジェクトを故意に基本表現空間から飛び出すように 表示する手法は後述する。
なお、 第 1の立体画像処理装置 1 0 0の立体感調整部 1 1 2がユーザに表示す る画像として、 二重像が出やすいものにすれば、 限界視差は小さめに定まり、 他 の画像を表示したときの二重像の出現頻度を低下させることができる。 二重像が 出やすい画像として、 オブジェクトと背景との色や明るさが対照的なものが知ら れており、 限界視差を特定する段階、 すなわち初期設定の際にはそうした画像を 利用すればよい。
図 2 1から図 3 6までは、 第 1の立体画像処理装置 1 0 0の歪処理部 1 3 6に よる処理とその原理を示す。
図 2 1は第 1の立体画像処理装置 1 0 0の補正マップ保持部 1 4 0に格納され た補正マヅプの一例を概念的に示す。 このマヅプは直接視差を補正するもので、 その全体がそのまま視差画像に対応しており、 周辺部にいくにしたがって小視差 になる。 図 2 2はこの補正マップにしたがって歪処理部 1 3 6がカメラ配置を決 め、 それを受けたカメラ配置決定部 1 3 2によるカメラパラメ一夕の操作の結果 生じる視差の変化を示す。 二つのカメラの左右視点位置から正面方向を見るとき は 「通常視差」 が付けられ、 一方、 正面から大きく外れた方向を見るときは 「小 視差」 が付けられる。 実際には、 周辺にいくにしたがって、 カメラ配置決定部 1 3 2はカメラ間隔を近づけていく。
図 2 3はカメラ配置決定部 1 3 2が歪処理部 1 3 6の指示にしたがってカメラ の配置を変えて視差を変える別の例を示す。 ここでは、 二つのカメラのうち、 左 側のカメラのみを移動させながら、 画像周辺に向かうにしたがって 「通常視差」 →「中視差」 「小視差」 と視差が変化している。 この方法のほうが図 2 2に比 ベて計算コストが低い。
図 2 4は補正マップの別の例を示す。 このマヅプも視差を変更するもので、 画 像の中央付近は通常視差のまま触れず、 それ以外の視差補正領域において視差を 徐々に小さくする。 図 2 5はカメラ配置決定部 1 3 2がこのマヅプにしたがって 変化させるカメラ位置を示す。 カメラの方向が正面から大きく外れことき、 はじ めて左カメラの位置が右カメラへ寄り、 「小視差」 が付けられている。
図 2 6は補正マップの別の例を概念的に示す。 このマヅプは視点からオブジェ クトまでの距離感を補正するもので、 それを実現するために、 カメラ配置決定部 1 3' 2が二つのカメ^の光軸交差距離を調整する。 画像周辺に行くにしたがって 光軸交差距離を小さくすれば、 オブジェクトは相対的に遠置方向へ奥まって見え るため、 特に近置視差を小さくする意味で目的を達する。 光軸交差距離を小さく するために、 カメラ配置決定部 1 3 2はカメラの光軸方向を変えればよく、 いず れか一方のカメラの向きを変えればよい。 図 2 7は、 図 2 6のマップによって二 次元画像を生成するときの光軸交差位置、 または光軸交差面 2 1 0の変化を示す 。 画像周辺ほど光軸交差面 2 1 0がカメラに寄る。
図 2 8は距離感に関する別の補正マヅプ、 図 2 9は図 2 8のマヅプにしたがつ てカメラ配置決定部 1 3 2が歪処理部 1 3 6の指示にしたがって光軸交差面 2 1 0を変化させる様子を示す。 この例では、 画像中央領域では補正をせずにォブジ ェクトを通常位置に配置し、 画像周辺領域でオブジェクトの位置を補正する。 そ の目的のために、 図 29において画像中央付近では光軸交差面 210に変化はな く、 ある点を超えてから光軸交差面 210がカメラへ寄ってくる。 図 29では、 左カメラだけ向きをかえて対応している。
図 30 (a) 〜 (f ) は歪処理部 136による別の歪変換を示す。 いままでの 例と違い、 カメラ位置を変えるのではなく、 カメラ座標系で三次元空間自体を直 接歪ませる。 図 30 (a) 〜 (f) において、 長方形領域はもとの空間の上面図 、 斜線領域は変換後の空間の上面図を示す。 例えば、 図 30 (a) のもとの空間 の点 Uは、 変換後点 Vに移る。 これはこの点が遠置方向へ移動されたことを意味 する。 図 30 (a) では、 空間は周辺部へ向かうほど奥行き方向について矢印の 方向に押しつぶされ、 近置の場合も遠置の場合も、 同図の点 Wのごとく、 一定の 距離感に近い距離感をもたされる。 その結果、 画像周辺部では距離感が揃い、 特 別に近置されるオブジェクトもなくなり、 二重像の問題を解決するとともに、 ュ —ザの生理に適合しやすい表現となる。
図 30 (b) 、 図 30 (c) 、 図 30 (d) 、 図 30 (e) はいずれも画像周 辺部で距離感を一定値に近づける変換の変形例を示し、 図 30 (f ) はすべての 点を遠置方向へ変換する例を示している。
図 31は、 図 30 (a) の変換を実現するための原理を示す。 直方体空間 22 8は、 第 1のカメラ 22と第 2のカメラ 24の投影処理が行われる空間を含む。 第 1のカメラ 22のビューボリュームは、 そのカメラの画角と前方投影面 230 および後方投影面 232で定まり、 第 2のカメラ 24のそれは、 そのカメラの画 角と前方投影面 234および後方投影面 236で定まる。 歪処理部 136はこの 直方体空間 228に歪変換を施す。 原点は直方体空間 228の中心とする。 多眼 式の場'合はカメラが増えるだけで変換原理は同じである。
図 32は歪変換の一例で、 Z方向の縮小変換を採用している。 実際には空間内 の個々のオブジェクトに対して処理を行う。 図 33はこの変換を視差補正マヅプ になそらえて表現したもので、 Y軸上が通常視差であり、 Xの絶対値が増えるほ ど視差が小さくなり、 X = ±Aが視差なしとなる。 ここでは Z方向のみの縮小変 換なので、 変換式は以下のとおりである。
【数 1】 、
(Χ1,Υ1,Ζ1, 1)
Figure imgf000034_0001
変換を図 34で説明する。 まず、 X 0かつ Z≥0の範囲を考える。 点 (X0 , Υ0, Ζ 0) が縮小処理により点 (Χ0, Υ0, Ζ 1) に移動したとき、 縮小 率 S ζは、
S z = Z 1/Z 0
=CE/CD
である。 Cの座標は (X0, Y0, 0) で Dの座標は (X0, Y 0 , B) である
Eは直線と平面の交点であり、 座標を (X0, Y0, Ζ 2) とすると、 Ζ 2は下 のように求めることができる。
Z = B-XxB/A (平面)
X = X0 , Y=YO (直線) . Ζ 2 =Β-Χ 0 x Β/Α
したがって、
S z =CE/CD
= (B-X 0 xB/A) /B
= 1一 X 0/A
Xに対して一般に、
S z = 1 -X/A
となる。 Xと Zの他の範囲についても同様の計算を行うと、 以下の結果が得られ 変換が検証できる。
X≥ 0のとき、 S z = 1 -X/A
X< 0のとき、 S z = 1 +X/A
図 3 5は歪変換の別の例を示す。 より厳密にはカメラから放射状に撮影が行わ れることを考慮し、 X軸、 Y軸方向の縮小処理も組み合わせている。 ここでは、 二つのカメラの中心をカメラ位置の代表として変換を行う。 変換式は以下の通り である。
【数 2】 、
(Χ1'Υ1,Ζ1, 1)
Figure imgf000035_0001
図 36はこの変換を検証する。 ここでも、 X 0かつ Ζ≥ 0の範囲を考える。 点 (Χ0, Υ0, Ζ 0) が縮小処理により点 (Χ1, Υ 1 , Ζ 1) に移動したと き、 縮小率 Sx、 S y、 S zは、
Sx= (X 1 -X 2 ) / (X 0-X 2)
= (X4-X2) / (X 3-X2)
Sy= (Y 1 -Y2) / (Y0-Y2)
= (Y4-Y2) / (Y3-Y2)
Sz = (Z 1 - Z 2 ) / (Z 0 - Z 2 )
二 ( Z 4 - Z 2 ) / ( Z 3 - Z 2 )
となる。 Eは平面と直線の交点なので、 前述と 様 Sx、 Sy、 Szを求めるこ とができる。
なお、 以上のように変換後の空間を平面の集合で表すと、 面同士の接線を境に 処理が変化し、 場合により違和感が生じうる。 その場合は曲面で接続するか、 曲 面だけで空間を構成してもよい。 計算は曲面と直線の交点 Eを求めるものに変わ るだけである。
また、 以上の例では、 縮小率は同一直線 CD上では同じとなるが、 重み付けを 行ってもよい。 例えば Sx、 Sy、 S zに、 カメラからの距離 Lに対する重み付 け関数 G (L) をかければよい。
図 37から図 40までは、 第 3の立体画像処理装置 100の歪処理部 174に よる処理とその原理を示す。
図 3 7は第 3の立体画像処理装置 1 0 0に入力されたデプス情報付画像のデブ スマップを示し、 ここではデブスの範囲が K 1 ~ K 2の値をもっとする。 ここで は近置のデプスを正、 遠置のデプスを負で表す。
図 3 8は元のデプス範囲 2 4 0と変換後のデプス範囲 2 4 2の関係を示す。 デ ブスは画像周辺部に行くにしたがって一定値に近づく。 歪処理部 1 7 4はこの補 正にしたがうようデプスマップを変換する。 垂直方向に視差をもたせる場合も同 様である。 この変換も Ζ方向の縮小のみなので、 以下の式で表現できる。
【数 3】
(X0, Y0, Gxy, 1 )
Figure imgf000036_0001
なお、 S zは Xの値により場合分けされ、
X≥ 0のとき、 S z = 1 — 2 X/ L
Xく 0のとき、 S z = 1 + 2 X/ L
となる。 以上の変換により、 図 3 9に示す新たな要素をもつ新たなデプスマップ が生成される。
図 4 0はデプスマップに対する別の歪変換の原理を示す。 空間は、 より厳密に はユーザ 1 0から放射状に観察されるので、 X軸、 Y軸方向の縮小処理も組み合 わせている。 ここでは、 眼間中心を観察位置としている。 具体的な処理は図 3 6 の場合と同じ式になる。 なお、 もともとのデプ マップは Z値しか持たないが、 この計算を行う場合は X値と Y値も保持することになる。 Z値は X方向あるいは Y方向の画素シフト量に変換されるが、 X値と Ϋ値はそれらに対するオフセヅト 値として保持すればよい。
いずれにしても、 歪処理部 1 7 4で変換されたデプスマップともとの画像は二 次元画像生成部 1 7 8へ入力され、 ここで適正視差になるよう水平方向にシフト した合成処理が行われる。 その詳細は後述する。
図 4 1〜図 5 1は、 第 2の立体画像処理装置 1 0 0の位置シフト部 1 6 0、 お よびその延長と把握できる第 3の立体画像処理装置 1 0 0の二次元画像生成部 1 7 8の処理を示す。
図 4 1は位置シフト部 1 6 0による二つの視差画像の合成位置のシフト原理を 示す。 同図のごとく、 初期状態では右眼画像 Rと左眼画像 Lの位置は一致してい る。 しかし、 同図上部のごとく左眼画像 Lを相対的に右へシフトすると、 近置点 の視差は増加し、 遠置点の視差は減少する。 逆に、 同図下部のごとく左眼画像 L を相対的に左へシフトすると、 近置点の視差は減少し、 遠置点の視差は増加する 以上が視差画像のシフトによる視差調整の本質である。 画像のシフトは一方で あってもよいし、 両方を互いに逆方向にシフトしてもよい。 またこの原理から、 立体表示方式は、 メガネ方式やメガネなし方式を問わず、 視差を利用している全 ての方式に適用できることが分かる。 多視点映像や垂直方向の視差に対しても同 様の処理が可能である。
' 図 4 2はシフト処理を画素レベルで示す。 左眼画像 2 0 0と右眼画像 2 0 2に は、 'ともに第 1四角形 2 5 0と第 2四角形 2 5 2が写っている。 第 1四角形 2 5 0には近置視差がついており、 そのネ ί差量を正数であらわすと、 「6画素」 とな る。 これに対し第 2四角形 2 5 2は遠置視差がついており、 その視差量を負数で あらわすと、 「一 6画素」 となる。 ここで、 この視差量をそれそれ: F 2、 F 1と する。
一方、 ユーザが保有する表示装置の適正視差が J 1〜J 2であることが分かつ たとする。 位置シフト部 1 6 0は両画像の合成開始位置を互いに (J 2—F 2 ) 画素シフトさせる。 図 4 3はそのシフトの終了後の状態で、 いま、 F l =—6、 F 2 = 6であり、 また、 J l =— 5、 J 2 = 4であったとすると、 合成開始位置 は互いに _ 2画素、 つまり遠置方向に全体がシフトする方向にずらされることに なる。 最終的な視差量は図 4 3のごとく、 E 1 =— 8、 E 2 = 4となり、 少なく とも近置方向に関して限界視差内に収まる。 一般に遠置方向と比較して、 近置方 向の二重像の方が違和感が強いとされ、 かつ被写体は近置方向に配置された状態 で撮影されることが多いので、 基本的に近置方向の視差を限界内に収めることが 望ましい。 以下に処理例を示す。
1 . 近置点が限界視差外で、 遠置点が限界視差内の場合は、 近置点を限界視差点 にシフトする。 ただし、 遠置点の視差が眼間距離に到達すれば処理をやめる。 2 . 近置点が限界視差外で、 遠置点が限界視差外の場合は'、 近置点を限界視差点 にシフトする。 ただし、 遠置点の視差が眼間距離に到達すれば処理をやめる。
3 . 近置点も遠置点も限界視差内の場合は処理しない。
4 . 近置点が限界視差内で、 遠置点が限界視差外の場合は、 遠置点を限界視差点 にシフトするが、 処理の途中で近置点が限界視差点に到達すれば処理をやめる。 図 4 4は合成位置のシフトによる画像端の欠落を示す。 ここでは左眼画像 2 0 0と右眼画像 2 0 2のシフト量が 1画素であり、 左眼画像 2 0 0の右端と右眼画 像 2 0 2の左端にそれぞれ 1画素幅の欠落部分 2 6 0が生じる。 画像端調整部 1 6 8はこのとき、 図 4 4のように画像端の画素列を複製して水平画素数を補償す る。
これ以外の方法として、 欠落部分 2 6 0は黒または白など特定の色で表示して もよいし、 非表示にしてもよい。 更に初期画像のサイズと同じになるように切り 出しや付け加え処理を施してもよい。 また、 予め初期画像のサイズを実際の表示 サイズより大きくしておき、 欠落部夯 2 6 0が表示に影響しないよう配慮しても よい。
図 4 5は第.2の立体画像処理装置 1 0 0による視差の手動調整の流れである。 同図のごとく、 まず視差画像として左右画像が人手で作成され (S 1 0 ) 、 これ がネヅトワークその他のルートで配布される (S 1 2 ) 。 これを第 2の立体画像 処理装置 1 0 0が受け取り (S 1 4 ) 、 この図の例では、 まずはそのままシフト なしの通常の状態で画像 ¾合成して表示する (S 1 6 ) 。 すなわち、 ここでは適 正視差がまだ取得されていない場合や位置シフト部 1 6 0を動作させていない場 合を考えている。 続いて、 立体表示された視差画像に対してユーザが立体感調整 部 1 1 2を介して視差の調整を指示し、 これを位置シフト部 1 6 0が 「手動調整 モード」 で受け、 画像合成位置を調整して表示する (S 1 8 ) 。 なお、 S 1 0と S 1 2は画像クリエ一夕の手続 2 7 0、 S 1 4以降は第 2の立体画像処理装置 1 0 0の手続 2 7 2である。 また、 図示しないが、 このシフト量をヘッダに記録し 、 次回から参照して合成すれば、 再調整の手間が省ける。
図 4 6は第 2の立体画像処理装置 1 0 0による自動調整の流れを示す。 画像ク リエ一夕の手続 2 7 0である、 左右画像の生成 (S 3 0 ) 、 画像配布 (S 3 2 ) は図 4 5と同じである。 また、 第 2の立体画像処理装置 1 0 0の手続 2 7 2のう ち、 画像受取 (S 3 4 ) も同様である。 次に、 視差量検出部 1 5 0のマッチング 部 1 5 8によって視差画像間に予め付けられている視差、 特に最大視差を検出し ( S 3 6 ) 、 一方、 視差情報保持部 1 2 0から適正視差、 特に限界視差を取得す る (S 3 8 ) 。 この後、 位置シフト部 1 6 0が前述の処理によって限界視差を満 たすよう画像の合成位置をシフトし (S 4 0 ) 、 視差書込部 1 6 4、 画像端調整 部 1 6 8、 フォーマヅト変換部 1 1 6による処理を経て立体表示される (S 4 2 ) 。
図 4 7は、 第 2の立体画像処理装置 1 0 0による更に別の自動調整の流れを示 す。 画像クリエ一夕の手続 2 7 0で左右画像の生成 (S 5 0 ) した後、 この時点 で最大視差を検出して (S 5 2 ) 視差画像のいずれかの視点画像のヘッダへ記録 しておく (S 5 4 ) 。 この検出は対応点マッチングで実施してもよいが、 クリエ 一夕が手作業で視差画像を生成したときは、 その編集過程で当然に既知であるた め、 これを記録すればよい。 この後、 画像を配布する (S 5 6 ) 。
一方、 第 2の立体画像処理装置 1 0 0の手続 2 7 2のうち、 画像受取 (S 5 8 ) は図 4 6と同様である。 次に、 視差量検出部 1 5 0のヘッダ検査部 1 5 6によ つて前述の最大視差をヘッダから読み出す (S 6 0 ) 。 一方、 視差情報保持部 1 2 0から限界視差を取得し (S 6 2 ) 、 以下の処理 S 6 4、 S 6 6は図 4 6の処 理 S 4 0、 S 4 2とそれぞれ同じである。 この方法によれば、 最大視差を計算す る必要がない。 また、 画像全体に適切な立体感を実現できる。 更に、 シフト量は ヘッダに記録できるため、 原画像自体を損なうおそれがない。 なお、 図示しない が、 図 4 6でも検出された最大視差をヘッダに記録すれば、 つぎからは図 4 7の 手続にしたがって処理することができる。
なお、 多眼式でも同様の処理が可能で、 それそれ隣り合う視点画像間の視差量 に対して同様の処理を行えばよい。 ただし、 実際にはそれら複数の視点画像間の 視差のうちの最大の視差によって全視点画像間の 「最大視差」 とみなし、 合成位 置のシフト量を決めてもよい。
ヘッダ情報は多視点画像の少なくともひとつにあればよいとしたが、 多視点画 像が 1枚の画像に合成されている場合はその画像のへッダを利用すればよい。 更に、 すでに合成済みの画像が配布される場合もあるが、 その場合はいちど逆 変換処理で画像を分離し、 合成位置シフ ト量を計算して再合成するか、 それと結 果が同じになるよう画素の並べ替え処理を行えばよい。
図 48〜図 5 1は、 合成位置のシフ トをデプス情報付画像について行う処理を 示す。 これは第 3の立体画像処理装置 1 00の二次元画像生成部 1 Ί 8にて行わ れる。 図 48、 図 49はそれそれデプス情報付画像を構成する平面画像 204と デプスマップである。 ここでは近置デプスを正、 遠置デプスを負で表している。 オブジェクトとして第 1四角形 2 50、 第 2四角形 2 52、 第 3四角形 254が 存在し、 第 1四角形 2 50はデプス 「4」 、 第 2四角形 2 5 2は 「2」 、 第 3四 角形 2 54は 「― 4」 である。 第 1四角形 2 50は最近置点、 第 2四角形 2 5 2 は中間近置点、 第 3四角形 2 54が最遠置点にある。
二次元画像生成部 1 78は、 もとの平面画像 2 04を基礎として、 まず、 各画 素をデプスマップの値分だけシフトさせる処理を行い、 他方の視点画像を生成す る。 基準を左眼画像とすると、 もとの平面画像 2 04はそのまま左眼画像となる 。 第 1四角形 2 50を左に 4画素、 第 2四角形 2 52を左に 2画素、 第 3四角形 2 54を右に 4画素シフトし、 図 5 0のごとく、 右眼画像 202が作成される。 画像端調整部 1 68は、 オブジェク卜の移動による画素情報の欠落部分 260を 視差が 「0」 である、 背景と判断される近接画素によって埋める。
続いて二次元画像生成部 1 78は、 適正視差を満たすデプスを計算する。 デブ の範囲を K 1〜K 2とし、 各画素のデプス値 ¾Gxyとすると、 デプスマヅプ は図 3 7において Hxyを Gxyへ変更した形になる。 また、 ュ一ザが保有する 表示装置の適正視差が J 1〜 J 2であることが分かったとする。 この場合、 その デプスマップにおいて、 各画素のデプス値 Gは以下のように変換され、 新しいデ プス値 Fx yが得られる。
F X y = J 1 + (Gxy-K 1 ) x (J 2 -J 1) / (K 2 - 1) 前述の例では、 K l=一 4、 Κ2 = 4であり、 また、 J l=一 3、 J 2 = 2で あつたとすると、 この変換式により、 図 49のデプスマヅプは図 51のデプスマ ヅプへ変換される。 すなわち、 「4」 は 「2」 へ、 「2」 は 「1」 へ、 「ー4」 は 「一 3」 へそれそれ変換される。 K 1と K 2の間の中間値は、 J 1と J 2の間 に変換される。 例えば第 2四角形 252は Gxy=2で、 Fxy=0. 75とな る。 Fxyが整数にならない場合は、 四捨五入や近置視差が小さくなるような処 理を施せばよい。
なお、 上述の変換式は線形変換の例であるが、 更に Gxyに対する重み付け関 数 F (Gxy) をかけたり、 その他いろいろな非線形変換も考えられる。 また、 もとの平面画像 204から、 オブジェクトを互いに逆方向にシフトして新たに左 右画像を生成することもできる。 多眼式の場合は同様の処理を複数回行い、 多視 点画像を生成すればよい。
以上が実施の形態に係る立体画像処理装置 100の構成および動作である。 立体画像処理装置 100は装置として説明したが、 これはハードウェアとソフ トウエアの組合せでもよく、 ソフトウェアのみでも構成できる。 その場合、 立体 画像処理装置 100の任意の部分をライブラリ化して各種プログラムから呼びだ し可能にすると利便性が高い。 プログラマは立体表示の知識が必要となる部分の プログラミングをスキヅプできる。 ュ一ザにとっては、 ソフトウェアやコンテン ヅによらず、 立体表示に関する操作、 すなわち GUIが共通になり、 設定した情 報は他のソフトウェアでも共有できるため再設定の手間が省ける。
なお、 立体表示に関する処理ではなく、 情報を複数のプログラム間で共有する だけでも有用である。 各種プログラムはその情報を参照して画像の状態を決定で きる。 共有される情報の例は、 前述の立体画像処理装置 100の情報取得部 11 8で取得される倩報である。 この情報を図示しない記録部または補正マップ保持 部 140などに保持しておけばよい。
図 52〜図 54は、 以上の立体画像処理装置 100をライブラリとして利用す る一例を示す。 図 52は立体表示ライブラリ 300の用途を示す。 立体表示ライ ブラリ 300は複数のプログラム A 302、 プログラム B 304、 プログラム C 306などから関数を呼び出す形で参照される。 パラメ一夕ファイル 318には 前述の情報のほか、 ユーザの適正視差などが格納されている。 立体表示ライブラ リ 3 0 0は A P I (アプリケーションプログラムイン夕フェイス) 3 1 0を介し て複数の装置 A 3 1 2、 装置 B 3 1 4、 装置 C 3 1 6などで利用される。
プログラム A 3 0 2等の例として、 ゲーム、 いわゆる W e b 3 Dと呼ばれる三 次元アプリケーション、 三次元デスクトップ画面、 三次元地図、 二次元画像であ る視差画像のビユア、 デプス情報付画像などのピュアが考えられる。 ゲームの中 でも、 当然ながら座標の使い方が違うものがあるが、 立体表示ライブラリ 3 0 0 はそれにも対応できる。
一方、 装置 A 3 1 2等の例として、 2眼や多眼のパララックスバリア式、 シャ ッタめがね方式、 偏光めがね方式など、 視差を利用する任意の立体表示装置であ る。
図 5 3は三次元データソフト 4 0 2に立体表示ライプラリ 3 0 0が組み込まれ た例を示す。 三次元デ一夕ソフ ト 4 0 2はプログラム本体 4 0 4と、 そのために 適正視差を実現する立体表示ライブラリ 3 0 0と、 撮影指示処理部 4 0 6を備え る。 プログラム本体 4 0 4はュ一ザイン夕フェイス 4 1 0を介してユーザと連絡 する。 撮影指示処理部 4 0 6は、 ユーザの指示にしたがって、 プログラム本体 4 0 4の動作中の所定の場面を仮想的にカメラ撮影する。 撮影された画像は画像記 録装置 4 1 2に記録される。 また、 立体表示装置 4 0 8へ出力される。 ' 例えば三次元データソフト 4 0 2がゲ一ムソフトであるとする。 その場合、 ュ —ザはゲーム中は立体表示ライブラリ 3 0 0によって適切な立体感を体験しなが らゲームを実行できる。 ゲーム中、 ユーザが記録に残したい場合、 例えば、 対戦 型戦闘ゲームで完全勝利をおさめたとき、 ユーザインタフェイス 4 1 0を介して 撮影指示処理部 4 0 6へ指示を出し、 その場面を記録する。 その際、 立体表示ラ イブラリ 3 0 0を利用し、 後に立体表示装置 4 0 8で再生したときに適正視差と なるよう視差画像が生成され、 これが画像記録装置 4 1 2の電子アルバム等へ記 録される。 なお、 記録を視差画像という二次元画像で行うことにより、 プログラ ム本体 4 0 4の有する三次元データ自体は流出せず、 著作権保護の面にも配慮す ることができる。
図 5 4は、 図 5 3の三次元データソフト 4 0 2をネヅトワーク利用型のシステ ム 4 3 0へ組み込んだ例を示す。
ゲーム機 4 3 2は図示しないネットワークを介し、 サーバ 4 3 6と、 ユーザ端 末 4 3 4に接続される。 ゲーム機 4 3 2は、 いわゆるアーケードゲーム用で、 通 信部 4 4 2、 三次元データソフト 4 0 2およびゲームを口一カルに表示する立体 表示装置 4 4 0を備える。 三次元データソフト 4 0 2は図 5 3のものである。 三 次元データソフト 4 0 2から立体表示装置 4 4 0へ表示される視差画像は立体表 示装置 4 4 0について予め最適設定されている。 三次元データソフト 4 0 2によ る視差の調整は、 後述のように通信部 4 4 2を介してユーザへ画像を送信する際 に利用される。 ここで利用する表示装置は、 視差を調整して立体画像を生成する 機能を備えていればよく、 必ずしも立体表示ができる装置でなくてもよい。 ユーザ端末 4 3 4は、 通信部 4 5 4、 立体画像を見るためのビユアプログラム 4 5 2および立体画像を口一カルに表示する任意のサイズおよびタイプの立体表 示装置 4 5 0を備える。 ピュアプログラム 4 5 2には立体画像処理装置 1 0 0が 実装されている。
サーバ 4 3 6は、 通信部 4 6 0、 ゲームに関連してユーザが仮想的に撮影した 画像を記録する画像保持部 4 6 2、 およびユーザの適正視差情報、 ユーザのメー ルァドレスその他の個人情報などをユーザと対応づけて記録するユーザ情報保持 部 4 6 4を備える。 サーバ 4 3 6は例えばゲームの公式サイ トとして機能し、 ゲ ーム実行中にユーザが気に入った場面や名勝負の動画または静止画を記録する。 立体表示は動画、 静止画のいずれでも可能である。
以上の構成における画像撮影の一例は以下の要領で行われる。 ユーザは予めュ —ザ端末 4 3 4の立体表示装置 4 5 0で立体表示を行い、 立体画像処理装置 1 0 0の機能をもとに適正視差を取得し、 これを通信部 4 5 4を介してサーバ 4 3 6 へ通知し、 ユーザ情報保持部 4 6 4へ格納してもらう。 この適正視差は、 ユーザ の保有する立体表示装置 4 5 0のハードウェアに関係のない汎用的な記述になつ ている。
ユーザは任意のタイミングでゲーム機 4 3 2によってゲームをする。 その間、 立体表示装置 4 4 0には蕞初に設定されていた視差、 またはユーザが手動調整し た視差による立体表示がなされる。 ゲームのプレイ中、 またはリプレイ中、 ユー ザが画像の記録を希望すると、 ゲーム機 4 3 2の三次元データソフト 4 0 2に内 蔵された立体表示ライブラリ 3 0 0が、 二つの通信部 4 4 2、 4 6 0を介してサ ーバ 4 3 6のユーザ倩報保持部 4 6 4からこのユーザの適正視差を取得し、 それ に合わせて視差画像を生成し、 再び二つの通信部 4 4 2、 4 6 0を介して画像保 持部 4 6 2へ仮想的に撮影された画像に関する視差画像を格納する。 ユーザは自 宅へ帰ったのち、 この視差画像をュ一ザ端末 4 3 4へダウンロードすれば、 所望 の立体感で立体表示ができる。 その際も、 ピュアプログラム 4 5 2のもつ立体画 像処理装置 1 0 0により、 視差の手動調整は可能である。
以上、 この応用例によれば、 本来、 表示装置のハードウェアごと、 ユーザごと に設定しなければならない立体感に関するプログラミングが立体画像処理装置 1 0 0および立体表示ライブラリ 3 0 0に集約されており、 ゲームソフトのプログ ラマは立体表示に関する複雑な要件を一切気にする必要がない。 これはゲームソ フトに限らず、 立体表示を利用する任意のソフトウェアについても同様であり、 立体表示を利用するコンテンヅゃアプリケーションの開発の制約を解消する。 し たがって、 これらの普及を飛躍的に促進することができる。
特に、 もともと三次元の C Gデータが存在するゲームその他のアプリケ一ショ ンの場合、 従来は的確な立体表示をコ一ディングすることが困難であることも大 きな原因となって、 せっかく三次元デ一タをもちながら、 それを立体表示に利用 しなかったことも多い。 実施の形態に係る立体画像処理装置 1 0 0または立体表 示ライブラリ 3 0 0によれば、 そうした弊害を除去でき、 立体表示アプリケ一シ ョンの充実化に寄与することができる。
なお、 図 5 4ではユーザの適正視差をサーバ 4 3 6に登録したが、 ユーザはそ の情報を記録した I Cカードなどを持参してゲーム機 4 3 2を利用してもよい。 この力一ドに、 このゲームに関する得点や気に入った画 ί象を記録してもよい。 以上、 本発明を実施の形 ¾|をもとに説明した。 この実施の形態は例示であり、 それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと 、 またそうした変形例も本発明の範囲にあることは当業者に理解されるところで ある。 以下、 そうした例を挙げる。
第 1の立体画像処理装置 1 0 0は、 三次元データを入力することにより、 高い 精度で処理が可能である。 しかし、 三次元データをいつたんデプス情報付画像へ 落とし、 これに対して第 3の立体画像処理装置 1 0 0を利用して視差画像を生成 してもよい。 場合により、 そのほうが計算コストが低いことがある。 同じように 複数の視点画像を入力する際も、 高精度の対応点マッチングを用いてデプスマツ プを作ることも可能で、 このようにしてデプス情報付画像へ落とし、 これに対し て第 3の立体画像処理装置 1 0 0を利用して視差画像を生成してもよい。
第 1の立体画像処理装置 1 0 0において、 カメラ仮配置部 1 3 0を立体画像処 理装置 1 0 0の構成としたが、 これは立体画像処理装置 1 0 0の前処理であって もよい。 カメラの仮配置までは、 適正視差に関係なく処理できるためである。 同 様に、 第 1、 第 2、 第 3の立体画像処理装置 1 0 0を構成する任意の処理ュニッ トを立体画像処理装置 1 0 0の外部へ出すことも可能であり、 立体画像処理装置 1 0 0の構成の自由度の高さは当業者に理解されるところである。
実施の 態では、 視差の制御を水平方向に行う場合を説明したが、 同様の処理 は垂直方向についても実施できる。
立体表示ライブラリ 3 0 0や立体画像処理装置 1 0 0の動作中は、 文字デ一夕 を拡大処理するュニットを設けてもよい。 例えば水平 2視点による視差画像の場 合、 ユーザの目に見える画像の水平解像度は 1 / 2になる。 その結果、 文字の可 読性が低下しうるので、 水平方向へ 2倍に文字を引き延ばす処理が有効である。 垂直方向にも視差がある場合、 同様に垂直方向へ文字を引き延ばすことも有用で ある。
立体表示ライブラリ 3 0 0や立体画像処理装置 1 0 0の動作中は、 表示してい る画像に 「3 D」 などの文字やマークを入れる 「動作中表示部」 を設けてもよい 。 その場合、 ユーザは視差の調整が可能な画像であるか否かを知ることができる 立体表示/通常表示の切替ユニットを設けてもよい。 このユニットは G U Iを 含み、 ユーザが所定のボタンをクリックすると、 表示が立体表示から通常の二次 元表示に切り わり、 その反対も可能な構成とすれば便利である。
情報取得部 1 1 8は必ずしもユーザ入力により情報を取得するのではなく、 プ ドプレイなどの機能により自動的に取得できる情報があつてもよい。 実施の形態では、 Eと Aを導出する方法をとつたが、 これらを固定し、 他のパ ラメ一夕を導出する方法であってもよく、 変数の指定は自由である。
立体表示に関して、 別の表現手法について提案する。 一般的な、 平面の画像表 示では、 「ある界面をオブジェクトが通過する」 と行った、 特に奥行き方向の表 現には現実味という点で限界がある。 また、 窓の面に実際に空間と空間を隔てる 界面があることを観察者に認識させることは困難である。 そこで、 以下に説明す るように立体画像表示装置において立体的に物体を表示することで画面や枠とい つた実体と、 画像内に表現されるォブジェクト上の界面とがー致するように認識 させることが可能となり、 このような表示により新しい表現方法が生まれる。 一 般に、 表示画面やその周辺の枠は視覚的に認知されるので、 これを窓のように利 用する表示方法が考えられ、 その面に空間と空間の界面や、 板状のオブジェクト を配置する指定が必要となる。 この場合、 図 1 8に示した位置関係では、 光軸交 差位置 Dが指定される。
図 1 8に示した撮影系の位置関係では、 基本表現空間 T内での近置および遠置 の限界視差をそれそれ P、 Qとすると、
E : S = P : A
E : S + T = Q : T - A
の関係式が得られた。 これら関係式を近置、 遠置の限界視差それぞれついて解く と、
E = P S /A
E = Q ( S + T ) / ( T一 A )
が得られる。 これら二つの Eのうち小さい方の Eを選択することで、 適正視差範 囲の立体画像が得られる。
図 5 5は、 三次元デ一夕により構成された画像が表示画面 4 0 0に表示されて いる状態を示している。 この画像は、 水槽 4 1 0の一つのガラス面 4 0 1が表示 画面 4 0 0と一致しており、 水槽 4 1 0内を魚 3 0 1が泳いでいることが表現さ れている。 表示画面 4 0 0より奥を遠置空間、 手前を近置空間となるようが処理 がなされれば、 魚 3 0 1は、 図 5 6に示すように通常は遠置空間を泳いでいるよ うに表され、 そして時折、 図 5 7に示すように 「魚 3 0 1が表示画面 4 0 0を突 き破って近置空間に現れる」 というような表現ができる。 更に、 魚 3 0 1が表示 画面 4 0 0を通り抜ける際、 例えば、 「表示画面 4 0 0の周辺から水しぶきが飛 び、 魚 3 0 1が通り抜けると界面が再生される。 」 という表現もできる。 別の表 現の例として、 例えば 「表示画面より手前の近置空間には水がないので、 魚 3 0 1は近置空間でしばらく泳ぐと息苦しくなり、 再び界面、 つまり表示画面 4 0 0 を突き抜けて遠置空間に戻る。 」 という表現もできる。
なお、 必ずしも物体が界面を通過し、 その後、 物体が通過する際に壊れた界面 が再生される必要はなく、 界面が壊れたままの状態としたり、 物体の衝突にあわ せて界面が変形するが通過しないとしたり、 更にその際に衝撃のみ伝わる、 映像 上の効果として例えば電気ショックが加わる、 など界面と物体の相互作用に関す る様々な表現ができることは明らかである。 また、 界面は、 単ある面でもよいが 、 ガラスのような板状の物体や紙などの薄い物体を配置してもよい。 また、 界面 は表示画面に完全に一致する必要はなく、 その近辺であればよい。 以上のような 表現効果は、 平面的な画像では十分に観察者に状況を伝えることができないのは 明らかである。 特に立体画像の起点となるオリジナルデータが三次元デ一夕であ ると、 上述のような効果を表現するための編集が容易となる。
このような、 表示すべきオブジェクトが有する界面を表示画面に一致させる表 現は、 図 5 8に示す手法により生成することができる。 つまり、 三次元空間に仮 想的な水槽 4 1 0が配置され、 その左側方に配置された二つの仮想カメラ 4 3 0 、 4 4 0から視差を持つ二つの画像が生成される。 その際二つの仮想カメラ 4 3 0、 4 4 0の光軸交差位置を水槽の一つの面と一致させる。 また、 このような画 像は、 図 5 9のように撮影することもできる。 実際の水槽 4 1 0上^に二台の仮 想カメラ 4 3 0、 4 4 0を配置し水槽 4 1 0を撮影する。 その際、 二台のカメラ の光軸交差位置を水面に一致させる。
図 6 0は、 以上の処理を実現するための第 4の立体画像処理装置 1 0 0の構成 を示す。 この立体画像処理装置 1 0 0は、 図 1 1で示した第 1の立体画像処理装 置 1 0 0の立体感調整部 1 1 2にオブジェクト指定部 1 8 0が更に設けられた構 成である。 このオブジェクト指定部 1 8 0は、 ユーザの指定を受けたオブジェク トの界面を表示画面付近に位置させる、 もしくは一致させる処理を行う。 ここで 、 ユーザとしては、 立体画像の制作者を想定し、 上述の処理は立体画像の制作も しくは編集時になされる。 なお、 ユーザは観察者であってもよい。
まず図 6 0に示す立体画像処理装置 1 0 0に関してその処理手順を説明する。 オブジェクト指定部 1 8 0はマウスなどの所定の入力装置によってユーザから二 つの仮想カメラ 4 3 0、 4 4 0の光軸交差面に対応させるオブジェクトの指定を 受付け、 その指定されたオブジェクトを視差制御部 1 1 4に通知する。 視差制御 部 1 1 4、 より具体的にはカメラ配置決定部 1 3 2は、 ユーザから指定されたォ ブジェクトが有する平面を二つの仮想カメラ 4 3 0 , 4 4 0の光軸交差面になる ように調整する。 この処理以外の動作は、 図 1 1に示した立体画像処理装置 1 0 0の動作と同一でよい。 このようにして決められたオブジェクトには、 表示画面 付近に表示させることを示す情報が付加される。 表示の際には適宜、 それを読み 出して光軸の交差距離 Dを決め、 先に述べた処理によりカメラ間距離 Eを決める また、 別の表現手法について提案する。 表示画面に表示すべきオブジェクトが 複数存在する場合、 必ずしも全てのオブジェクトを常に適正視差内に収める必要 はない。 時には、 効果的な表示のために、 ある条件下で、 例えば一定期間だけ、 一部のォブジヱクトを適正視差の条件から外して表示してもよい。 この手法とし て、 静止オブジェクトに対して基本表現^間を決定することを上述したが、 より 詳しくは、 オブジェクト毎に、 立体表示すべきオブジェクトが含まれる基本表現 空間内に表現すべきォブ'ジェクトであるかを判別する情報 (以下、 単に 「識別情 報」 ともいう) を持たせればよい。 なお、 基本表現空間内に表現すべき対象を、 「基本表現空間の算出対象」 ともいう。 そしてこの識別情報をもとに、 随時基本 表現空間が決定されればよい。
識別情報が必要に応じて適宜変更できるように構成されていれば、 適正視差か ら外す条件を柔軟に設定することが可能である。 例えば、 識別情報に適正視差条 件から外す時間の指定が記述されていれば、 指定された時間が過ぎれば自動的に 適正視差の範囲に戻るようにすることもできる。 '
なお、 このように一時的に一部のオブジェクトを、 適正視差条件から外して表 示画面に表示するため手法を以下に示す。 例えば、 図 1 1に示した第 1の立体画 像処理装置 1 0 0において、 カメラ配置決定部 1 3 2は、 適正視差にしたがって 仮設定されたカメラパラメ一夕を修正したが、 更にその機能を以下のように拡張 すればよい。 つまり、 カメラ配置決定部 1 3 2はォブジェクト毎に関連づけられ ている識別情報を読みとり、 その識別情報を反映させる形でカメラパラメ一夕を 配置する。
更に別の表現手法について提案する。 基本表現空間の前面および背面、 つまり 近置限界である前方投影面と遠置限界である後方投影面が、 あるオブジェクトに よって決定されると、 オブジェクトに対応した空間の前後の空間を移動する表現 ができなくなる。 図 6 1は、 第 4の立体画像処理装置 1 0 0により表示される画 像に関して便宜的に奥行き方向、 特に基本表現空間 Tについて表している。 本図 左側に前方投影面 3 1 0と右側に後方投影面 3 1 2が設定されており、 前方投影 面 3 1 0と後方投影面 3 1 2との間が基本表現空間 Tとなる。 基本表現空間丁の 範囲内には、 静止オブジェクトとして前方投影面 3 1 0側に家 3 5 0が、 後方投 影面 3 1 2側には木 3 7 0が表現されている。 更に、 それら二つの静止オブジェ クトの上方の空間を動的なオブジェクトである鳥 3 3 0が前方へ移動している。 鳥 3 3 0は、 基本表現空間 Tの範囲内で移動していれば、 その動きを表現できる が、 前方投影面 3 1 0または後方投影面 3 1 2に達した場合、 それ以降は、 鳥 3 3 0が図 6 1の左側に示した鳥 3 3 0のように前 投影面、 あるいは図示しない が後方投影面 3 1 2に位置するオブジェクトとなり、 鳥 3 3 0が最大視差に固定 され、 実空間で更に前方もしくは後方に移動することができない。 もし、 少しで もォブジェクトを移動しているように表現することができれば、 ォブジェクトに 対する臨場感を保つことが可能となる。
上述したように、 動的なオブジェクトを基本表現空間 Tの対象から外す処理が 考えられるが、 上述のようにある効果を狙う場合以外は、 ユーザは違和感を覚え る可能性があり、 基本表現空間 Tの範囲で表現することが好ましいことも多い。 そこで、 図 6 2に示すように、 オブジェクトが何も存在しない領域を、 基本表 現空間 Tに含ませる。 図 6 2は、 前方の静止オブジェクトの家 3 5 0の更に前方 に、 何も存在しない空間を基本表現空間 Tの一部として設けておき、 動的なォブ ジェクトである鳥 3 3 0が家 3 5 0の前方を移動できるようにしたものである。 図 6 3は更に、 後方に置かれた静止ォブジェクトの木 3 7 0の更に後方にも何も 存在しない空間を基本表現空間 Tの一部として設けたものである。 これにより、 例えば動的なオブジェクトである鳥 3 3 0が後方より移動してきて、 家 3 5 0の 前面にあたる位置を越えても、 鳥 3 3 0は基本表現空間 Tの範囲内に位置してい るため、 更に前方に移動しても適正視差で表現され、 その移動に関して、 ユーザ である観察者は違和感を覚えることがない。
また、 図 6 4に示すように、 例えば鳥 3 3 0をそれ自身だけでなく前後の空間 を含める形で、 視差を計算する対象として移動ォブジェクト 3 9 0を形成してお く。 移動オブジェクト 3 9 0の最前面が、 前方投影面 3 1 0に達した場合、 鳥 3 3 0だけを移動させる。 その場合、 例えば鳥 3 3 0の移動速度を本来の速度より 遅くすることで、 本来鳥 3 3 0がすぐに前方投影面 3 1 0に達してしまい、 それ 以降の移動が表現できなくなるまでの時間を遅くできる。
また、 図 6 5に示すように、 例えば、 移動オブジェクト 3 9 0が前方投影面 3 1 0を越えた後は、 あらかじめ含めておいた空間の中で鳥 3 3 0を移動させても よい。 これにより最大視差は移動オブジェクト 3 9 0で決まり、 鳥 3 3 0は少し づっその最大視差に近づくため、 実空間で前に移動し繞けることが可能になる。 これは、 オブジェクト、 つまり鳥 3 3 0の位置によって移動させることを有効に するか無効にするかを判定すれば実現できる。 移動速度は、 本来想定されている 移動速度や、 速い速度、 遅い速度のいずれに設定されてもよく、 移動速度に柔軟 性を持たせることで、 様々な表現が可能となる。 例えば、 移動ォブジェクト 3 9 0の端に近付くほど移動速度を遅く変更することで、 前後方向に伴い視差量が過 度に大きくなるのを防ぎながら前への移動を表現できる。
また、 もし、 他のオブジェクトが更にその前後に出現する場合、 最大視差は、 今度はそのオブジェクトに依存することになるので、 鳥 3 3 0を移動ォブジェク ト 3 9 0内のもとの位置に少しづつ戻す。
次に、 最大視差を変化させながら急激な視差の変化を防ぐ原理を、 先に示した 図 1 7および図 1 8をもとに説明する。 上述のごとく、
t a n ( 9¾/ 2 ) = M t a n ( Θ / 2 ) /L
E : S = P : A Έ> = 2 (S +A) t an ( /2)
の関係が成り立ち、 これらの式より、 あるカメラ設定において、 あるオブジェク トの近置側の視差量は、
M=LE Α/ (2 S (A+S) t an (θ/2) )
と表すことができる。 ここで、 このオブジェクトが前方に移動すると、 カメラ設 定を変更しなければ、 Αが大きくなり Sが小さくなるので視差量は大きくなる。 ここで、 オブジェクトが前方に移動した際に、 Mが M, に、 Sが S, 、 Aが A ' となったとすると、
M, =LEA, / (2 S, (Α' + S' ) t an (θ/2) )
Μ<Μ'
と表すことができる。
カメラ設定のうち、 Εと A' を変更し、
M" =LE" Α" / (2 S' (A" + S, ) t an (θ/2) )
と変換し、 このとき
Μ<Μ,, <Μ'
の関係を満たせば、 観察者に向かって移動するォブジェク トを立体表示する際に 、 急激な視差量の変化を防ぐことができる。 なお、 Εまたは Α, のいずれかのみ を変更してもよい。 このとき、 Μ" は、
M" =LE" A' / (2 S' (A' +S' ) t an (θ/2) )
または、
Μ" - LEA" / (2 S5 (A,, + S, ) t an (Θ/2) )
と表される。
オブジェクトの奥に向かう動きに対して、 急激な視差量の変化を防ぐには、 Μ>Μ" >Μ'
の関係を満たせばよい。'
また、 遠置側の視差量 Νに関しても同様にしても、
N = LE (T-A) / (2 (T + S) (A+S) t an (0/2) ) であり、 同様に、
N' =LE (T一 A, ) / (2 (T + S' ) (A, +S, ) t an (Θ/2) )
N,, = L E,, (T— A" ) / ( 2 ( T + S, ) ( A" + S, ) t a n { Θ / 2 ) )
を求める。 ここで
N > N" > Ν '
の関係を満たせば、 オブジェクトの観察者に向かう動きに対して、 現実の座標上 の移動速度は、 急激な視差量の変化を防ぐことができ、 また、
Ν < Ν" < Ν '
の関係を満たせば、 オブジェクトの奥に向かう動きに対して、 急激な視差量の変 化を防ぐことができる。
以上、 図 6 1から図 6 5で示したような表現手法を実現する立体画像表示装置 1 0 0の構成を説明する。 この立体画像表示装置 1 0 0では、 図 6 0で示した立 体画像表示装置 1 0 0で実現できる。 ただし、 カメラ配置決定部 1 3 2は、 適正 視差にしたがって仮設定されたカメラパラメ一夕を修正する際に、 オリジナルデ 一夕から、 基本表現空間の算出対象となる範囲に関する情報やオブジェクトの視 差量の変更に関する情報を読みとりそれをカメラパラメ一夕に反映させる機能を 更に有す。 この情報は、 オリジナルデータ自身に盛り込まれていてもよいし、 例 えば、 視差情報保持部 1 2 0に保持されてもよい。
実施の形態では、 例えば、 球が正しく見えるような正しい視差状態に対して、 適正視差処理によって視差が大きすぎる状態であると判断されれば、 立体画像の 視差が小さくなるように処理された。 このとき、 球が奥行き方向につぶれたよう な形状に見えるが、 一般的にこのような表示に対する違和感は小さい。 人は、 通 常、 平面画像を見慣れているため、 視差が 0の状態と正しい視差の状態との間で あれば、 人は違和感を覚えないことが多い。
逆に、 球が正しく見えるような視差状態に対して、 適正視差処理で立体画像の 視差が小さくなりすぎると判断されれば、 視差が大きくなるように処理される。 このとき、 例えば球は奥行き方向に膨らんだような形状に見え、 このような表示 に対しては人は違和感を大きく覚えることがある。
単体のォブジェクトを立体表示する際などに、 上述のような人が違和感を覚え る現象が起こりやすく、 建物や乗り物など、 実生活で眼にする物体の表示では、 特に、 この視差の違いによる見え方の違和感が明確に認識される傾向がある。 そ こで、 その違和感を低減するためには、 視差が大きくなるような処理に対しては 、 補正を加える必要がある。
三次元データにより立体画像が生成される場合は、 カメラの配置を変更するこ とで、 視差の調整が比較的容易に行うことができる。 図 6 6から図 7 1をもとに 、 視差の補正手順を示す。 また、 この視差の補正は、 上述の第 1から第 4の立体 画像処理装置 1 0 0により行うことができる。 ここでは、 図 1 1に示した第 1の 立体画像処理装置 1 0 0によって、 三次元デ一夕により立体画像が生成されるこ とを想定する。 なお、 後述する第 4、 第 6の立体画像表示装置 1 0 0でも上述の 補正処理は実現できる。
図 6 6は、 ある立体画像表示装置 1 0 0の表示画面 4 0 0において、 観察者が 立体画像を観察している様子を示している。 表示画面 4 0 0の画面サイズが L、 表示画面 4 0 0と観察者との距離が d、 眼間距離が eである。 更に、 近置限界視 差 Mと遠置限界視差 Nは立体感調整部 1 1 2により予め得られており、 近置限界 視差 Mと遠置限界視差 Nの間が適正視差となる。 ここでは、 理解を容易にするた めに近置限界視差 Mのみを表示しており、 この値から最大飛び出し量 mが定まる 。 飛び出し量 mとは、 表示画面 4 0 0から近置点までの距離を指 。 なお、 L、 M、 Nの単位は 「画素」 であり、 他の d、 m、 e等のパラメ一夕と異なり、 本来 は所定の変換式を用いて調整する必要があるが、 ここでは説明を容易にするため 同じ単位系で表している。
このとき、 球 2 1を表示するために、 球 2 1の最近置点と最遠置点とを基準と して、 視差制御部 1 1 4のカメラ配置決定部 1 3 2によってカメラ配置が図 6 7 のように決められたとする。 二つのカメラ 2 2、 2 4の光軸交差距離が D、 それ らカメラ間隔が E cである。 ただし、 パラメ一夕の比較を容易にするために、 '光 軸交差距離におけるカメラの見込み幅が画面サイズ Lと一致するように座標系の 拡大縮小処理がなされている。 このとき、 例えばカメラ間隔 E cが眼間距離 eに 等しく、 光軸交差距離 Dが観察距離 dより小さかったとする。 すると、 この系は 、 図 6 8のように、 図 6 7に示したカメラ位置から観察者が観察すると球 2 1が 正しく見える。 このような撮影系で生成された画像をもとの立体画像表示装置 1 00で球 21を観察すると、 図 69のように、 適正視差範囲全体にわたって奥行 き方向に伸びた球 21が観察される。
この原理を用いて、 立体画像に対して補正が必要か否かを判断する手法を以下 に示す。 図 70は、 図 67に示したカメラ配置で、 表示画面 400からの距離が Aに位置する球の最近置点を撮影する様子を示している。 このとき、 二つのカメ ラ 22、 24のそれぞれと距離 Aの位置する点を結んでできる二つの直線によつ て、 距離 Aに対応する最大視差 Mが求まる。 更に、 図 71は、 二つのカメラ 22 、 24とカメラの光軸公差距離を dとしたときに、 図 70で示した視差 Mを得る ために必要なカメラ間隔 E 1を表している。 これは、 カメラ間隔以外の撮影系の パラメ一夕を全て観察系のパラメ一夕と一致させる変換ということができる。 図 70および図 71には次の関係が成り立つ。
M: A = E c : D -A
M: A=E 1 : d-A
E c = E 1 (D-A) Z (d-A)
E 1 =E c (d-A) / (D-A)
そして、 この E 1が眼間距離 eより大きいときに視差が小さくなるような補正 が必要と判断される。 E 1を眼間距離 eにすればよいので、 次式のように E cを 補正すればよい。
E c = e (D-A) / (d-A)
最遠置点についても同様で、 図 72、 および図 73において、 球 21の最近置 点と最遠置点の距離を基本表現空間である Tとすると、
N: T-A = E c : D +T-A
N: T— A = E 2 : d + T-A
E c = E 2 (D + T-A) / (d + T-A)
E 2 =E c (d + T-A) / (D + T-A)
更に、 この E 2が眼間距離 eより大きいときに、 補正が必要と判断される。 続 いて、 E 2を眼間距離 eにすればよいので、 次式のように E cを補正すればよい E c = e ( D + T - A) / ( d + T - A)
最終的には、 最近置点、 最遠置点からそれぞれ得られた二つの E cのうち、 小 さい方を選択すれば、 近置および遠置のいずれに関しても視差が大きくなりすぎ ることがなくなる。 この選択された E cをもとの三次元空間の座標系にもどして カメラを設定する。
より、 一般的には、
E c < e ( D - A) / ( d - A)
E c < e ( D + T - A) / ( d + T - A)
の 2式を同時に満たすようにカメラ間隔 E cを設定すればよい。 これは、 図 7 4 および図 7 5において、 観察距離 dの位置に眼間距離 eの間隔で置かれた二つの カメラ 2 2、 2 4と、 オブジェクトの最近置点とを結ぶ二つの光軸 K 4上、 また は上記二つのカメラ 2 2、 2 4と最遠置点を結ぶ二つの光軸 K 5上に二つのカメ ラを配置したときの間隔が、 カメラ間隔 E cの上限であることを示している。 つ まり、 図 7 4における二つの光軸 K 4の間隔、 もしくは図 7 5における二つの光 軸 K 5の間隔のうち狭い方の光軸の間に含まれるように二つのカメラ 2 2、 2 4 を配置すればよい。
なお、 ここで光軸交差距離を変更せずにカメラ間隔のみで補正を行ったが、 光 軸交差距離を変更し、 オブジェクトの位置を変更してもよいし、 カメラ間隔およ び光軸交差跑離の両方を変更してもよい。
デプスマップを利用する場合も補正が必要となる。 デプスマヅプ値がその点の ずらし量を画素数で表しており、 初期値、 一般にはオリジナルデ一夕に記述され ている値が最適な立体視を実現する状態であるとすれば、 適正視差処理で、 デブ スマップ値の範囲を大きくする必要が生じたときには上記の処理を行わず、 デブ スマップ値の範囲を小さくする必要が生じたとき、 つまり視差を小さくする必要 が生じたときのみ、 上記処理を行えばよい。
また、 初期値の視差が小さめに設定されている場合には、 最大許容値を画像の へッダ領域などに保持し、 その最大許容値に収まるように適正視差処理を行えば よい。 これらの場合、 適正距離に関してハードウェア情報が必要となるが、 先に 示したハードウェア情報に依存しない場合の処理と比べ、 より高性能な処理が実 現できる。 以上の処理は、 視差が自動設定される場合だけでなく、 手動で設定し ている場合の処理としても利用できる。
また、 観察者が違和感を覚える視差の限界は、 画像によって異なる。 一般に、 模様や色の変化が少ない画像で、 エッジが目立つような画像は、 視差を大きくつ けるとクロストークが目立つ。 また、 ェヅジの両側の輝度差が大きい画像も、 視 差を強くつけるとクロストークが目立つ。 つまり、 立体表示すべき画像、 つまり 視差画像、 更には視点画像において、 高周波成分が少ない場合に、 ユーザはその 画像を視た際に違和感を覚える傾向がある。 そこで、 画像をフーリエ変換などで の手法で周波数解析し、 その解析の結果得られた周波成分の分布に応じて適正視 差に補正を加えるとよい。 つまり、 高周波成分の量が多い画像に関しては、 視差 が適正視差よりも大きくなる補正を加える。
また、 更に動きの少ない画像はクロストークが目立つ。 一般に、 ファイル名の 拡張子を調べることで、 ファイルの種類が動画か静止画であるかが分かることが 多い。 そこで、 動画像と判定された場合には、 動きベクトルなどの既知の動き検 出手法で、 動きの状態を検出し、 その状態に応じて適正視差量に補正を加えても よい。 つまり、 動きの少ない画像には、 視差が本来の視差よりも小さくなるよう な補正を加える。 一方、 動きの多い画像には、 補正を加えない。 または、 動きを 強調したい場合などは視差が本来の視差よりも大きくなるような補正を加えても iい。 なお、 適正視差の補正は一例で、 予め決められた視差範囲であればどのよ うなものでも補正ができる。 また、 デプスマヅプを補正することもできるし、 視 差画像の合成位置ずらしの量を補正することもできる。
また、 これらの分析結果をファイルのヘッダ領域に記録して、 立体画像処理装 置がそのヘッダを読みとり、 次回以降の立体画像の表示の際に利用してもよい。 また、 高周波成分の量や動き分布は、 画像の作成者やユーザによって実際の立 体視によりランク付けがなされてもよいし、 複数の評価者による立体視でランク 付けを行い、 その平均値が利用されてもよく、 そのランク付けの手法は問わない また、 適正視差は厳密に守られる必要はなく、 カメラパラメータの算出は常時 行う必要はなく、 一定時間ごとやシーンチェンジごと等に行ってもよい。 特に、 処理能力の低い装置により行われる場合に有効である。 例えば、 一定時間每にカ メラパラメ一夕を算出する場合、 三次元データから立体画像を生成するケースで は第 1の立体画像処理装置 1 0 0において、 視差制御部 1 1 4は内部夕イマを利 用し一定周期毎にカメラ配置決定部 1 3 2に対して、 カメラパラメ一夕の再算出 を指示すればよい。 内部夕イマは、 立体画像処理装置 1 0 0の演算処理を行う C P Uの基準周波数を利用してもよいし、 専用夕イマを別途設けてもよい。
図 7 6は、 画像の状態に応じて適正視差を算出することを実現する第 5の立体 画像処理装置 1 0 0の構成を示している。 ここでは図 1 1に示した第 1の立体画 像処理装置 1 0 0において、 新たに画像判定部 1 9 0が設けられている。 それ以 外の構成および動作は同一なので異なる点を主に説明する。 この画像判定部 1 9 0は、 画像の周波数成分を解析し高周波成分の量を求め、 その画像に適した視差 を視差制御部 1 1 4に通知する周波数成分検出部 1 9 2と、 オリジナルデ一夕が 動画像であればシーンチェンジを検出したり、 画像内の動きを検出したりするこ とでカメラパラメ一夕の算出タイミングを視差制御部 1 1 4に通知するシーン判 定部 1 9 4を備える。 シーンチェンジの検出は、 既知の手法を用いて行えばよい ォリジナルデータが動画像であるとき、 画像の高周波成分の量により適正視差 を調整する処理を常時行うと周波数成分検出部 1 9 2の処理負荷が大きくなる。 その処理負荷に見合う演算処理装置を使用すると立体画像処理装置 1 0 0のコス トアップとなる懸念がある。 上述のように適正視差は常時厳密に守られる必要が ないので、 シーン判定部 1 9 0の検出結果 ¾基にシーンチェンジなどのように画 像が大きく変化するときに画像の周波数成分を分析する構成とすることで、 画像 判定分 1 9 0の処理負荷を低減できる。
三次元空間において複数の仮想カメラ 配置し、 それら仮想カメラそれそれに 対応する視差画像を生成するときに、 それら視差画像内にオブジェクトの情報が 存在しない領域が発生してしまうことがある。 以下に、 三次元データを起点とし て立体画像を生成する場合を例に、 視差画像内にオブジェクトの情報が存在しな い領域が発生する原理を説明するとともに、 その解消手法を説明する。 図 7 7は 、 三次元データを作成する制作者により設定される仮カメラ位置 S ( X s、 Y s 、 Z s ) 、 画角 Θ、 および第 1から第 3のオブジェクト 7 0 0、 7 0 2、 7 0 の関係を示している。
仮カメラ位置 S ( X s、 Y s、 Z s ) は、 複数の仮想カメラをもとにそれそれ の視差画像を生成する際に、 それら仮想カメラの中心となる (以下、 カメラ群中 心位置 Sともいう) 。 第 1のォブジェクト 7 0 0は、 背景に当たる。 ここで制作 者は、 画角 0内に第 2および第 3のォブジェクト 7 0 2、 7 0 4が収まるととも に、 背景画像である第 1のォブジェクト 7 0 0によって画角 Θ内にオブジェクト の情報が存在するよう、 画角 0およびカメラ群中心位置 Sを設定する。
つぎに、 所定のプログラムにより、 図 7 8に示すように所望の視差が得られる よう、 更に近置および遠置の基準である光軸交差位置 A ( X a、 Y a、 Z a ) が 得られるように、 二つの仮想カメラ 7 2 2、 7 2 4のパラメ一夕、 具体的には力 メラ位置およびそれぞれの光軸が定まる。 このとき、 画角 Sが先に定められた値 と等しい場合、 それら二つの仮想カメラ 7 2 2、 7 2 4のカメラ位置では、 例え ば、 背景画像である第 1のオブジェクトの大きさによっては、 本図で示すように オブジェクトの情報が存在しない第 1および第 2のォブジェクトゼロ領域 7 4 0 、 7 4 2が発生する。
第 1のオブジェクトゼロ領域 7 4 0は、 角度で表すとひ、 第 2のオブジェクト ゼロ領域 7 4 2は、 ?であり、 これらの角度範囲にはオブジェクト情報が存在し ない。 従って、 図 7 9に示すように、 これらひと/?が無くなるように画角 Θを調 整すればよい。 つまり、 ひと ?の値のうち、 大きいほうの値を画角 0から減算す る。 このとき、 光軸方向を変更しないようにするために、 画角 0の左右両方から 減算すべき値を減らすため、 新しい画角 S 1は 0 1 = 0 1—2 Xひまたは 0 1— 2 Χ ?から定められる。 ただし、 ひや/?は、 視差画像からは即座に判明しない場 合もあるので、 少しずつ画角 0を調整し、 そのたびに視差画像内にオブジェクト の情報が存在しない領域が発生しているか否かを確認してもよい。 また、 ォブジ ェクトの情報が存在しない領域の有無は、 実際には、 表示画面の画素に入力すベ きデ一夕があるか否かにより確認すればよい。 また、 画角 Θの調整のみで全画素 にオブジェクト情報が存在するように調整するに限らず、 カメラ間隔 Eや光軸交 差 置 Aを変更してもよい。 図 80は、 画角調整の処理を示すフローチャートである。 この画角調整の処理 は、 図 1 1に示した第 1の立体画像表示装置 100で実現可能である。 まず、 立 体画像表示装置 1 00に立体画像の起点となるオリジナルデータが入力されると 、 カメラ仮配置部 130は、 カメラ群中心位置 Sを決定する (S 1 1 0) 。 つづ いて、 カメラ配置決定部 132は、 そのカメラ群中心位置 Sをもとに、 カメラ画 角 0を決定し (S 1 12) 、 カメラ間隔 Eを決定し (S 1 14) 、 仮想カメラの 光軸交差位置 Aを決定する (S 1 16) 。 更に、 カメラ配置決定部 132はオリ ジナルデータに対しカメラ間隔 Eおよび光軸交差位置 Aに基づき座標変換処理を 行い (S 1 18) 、 表示画面の全画素にォブジヱクトの情報が存在するか否かを 判定する (S 1 20) 。
ォブジェクトの情報がない画素が存在する場合 (S 120の N) 、 画角 0を少 し狭める補正を行い (S 1 22) 、 S 1 14の処理に戻り、 以降、 全画素にォブ ジェクト情報が存在するようになるまで、 S 1 14から S 120までの処理を継 続する。 ただし、 画角 0の補正のみで全画素にオブジェクト情報が存在するよう に調整する場合、 S 1 14のカメラ間隔 Eの決定処理および S 1 16の光軸交差 位置 Aの決定処理はスキップする。全画素にォブジヱクト情報が存在する場合(S 1 20の Y) 、 この画角調整の処理は終了となる。
上記実施の形態では、 主に三次元データを起点に生成される立体画像に関して 説明した。 以下に、 実写画像を起点に立体画像を表現する手法に関して説明する 。 三次元データを起点にする場合と、 実写画像を起点にする場合との差異は、 実 写画像を起点にする場合には、 基本表現空間の奥行き Tの概念がないことである 。 これは、 適正視差表示が可能な奥行き範囲 Tと言い換えることができる。 図 17および図 18に示したように、 立体画像を生成するためのカメラ設定に 必要なパラメ一夕はカメラ間隔 E、 光軸交差距離 A、 画角 0、 基本表現空間の前 面である前方投影面 30からカメラ配置面、 すなわち視点面 208までの距離 S 、 光軸交差面 2 10の視点面 208からの距離 D、 奥行き範囲 Tの 6種類である 。 そしてこれらの間には、 以下の関係式が満たされる。
E = 2 (S + A) t an (θ/2) · (SM+SN + TN) / (LT) A=S TM/ (SM+SN + TN) 3791
58
D = S + A
したがって、 6種類のパラメ一夕 E、 Α、 Θヽ S、 D、 Tのうち、 3種類を指 定すれば、 残りのパラメ一夕を算出できる。 一般に、 いずれのパラメ一夕を指定 するかは自由であるが、 先に示した実施の形態では、 Θヽ S、 Tを指定し、 E、 A、 Dを算出した。 6»や Sを自動的に変更すると拡大率が変わるため、 プログラ マや撮影者が意図する表現ができなくなる恐れがあり、 これらを自動的に決める ことは好ましくないことが多い。 Tについても、 表現範囲の制限を表すパラメ一 夕ともいえ、 予め決めるのが好ましい。 そして、 三次元デ一夕の場合には、 いず れのパラメ一夕を変えるのも手間はほとんど同一である。 ところが、 実写の場合 には異なる。 カメラの構造によっては価格が大きく異なるうえに、 操作性も変わ るため、 用途に応じて指定するパラメ一夕を変えることが望ましい。
図 8 1は、 娯楽施設や写真館などで立体写真を撮影する立体写真撮影装置 5 1 0と被写体 5 5 2との関係を示している。 この立体写真撮影装置 5 1 0は、 カメ ラ 5 5 0と立体画像処理装置 1 0 0とを含んで構成されている。 ここでは、 撮影 環境が固定される。 つまり、 カメラ 5 5 0の位置と被写体 5 5 2の位置が予め決 められており、 パラメ一夕として 0、 S、 Tが決まっている。 この撮影系は、 図 1 8に示した例を、 実際のカメラ 5 5 0に置き換えた状態であり、 二つのレンズ 5 2 2、 5 2 4がー台のカメラ 5 5 0に備わり、 このカメラ 5 5 0のみで立体画 像の基点となる二つの視差画像を撮影できる。
図 8 2は、 この処理を行う第 6の立体画像処理装置 1 0 0の構成を示す。 この 立体画像処理装置 1 0 0は、 図 1 2に示した立体画像処理装置 1 0 0において、 視差検出部 1 5 0をカメラ制御部 1 5 1に置き換えたものである。 カメラ制御部 1 5 1は、 レンズ間隔調整部 1 5 3と光軸調整部 1 5 5を有する。
レンズ間隔調整部 1 5 3は、 二つのレンズ 5 2 2、 5 2 4の位置を調整するこ とでカメラ間隔 E、 より詳細に言うとレンズ間隔 Eを調 ½する。 ま十こ、 光軸調整 部 1 5 5は、 二つのレンズ 5 2 2、 5 2 4それそれの光軸方向を変更して、 Dを 調整する。 被写体 5 5 2は、 自宅などに保有している立体画像表示装置の適正視 差情報を、 メモリや力一ドなどの持ち運び可能な記録媒体や、 インターネットな どの通信手段を通じて入力する。 情報取得部 1 1 8が、 この適正視差の入力を受 け付け、 カメラ制御部 1 5 1に通知する。 その通知を受けて、 カメラ制御部 1 5 1は E、 A、 Dを算出し、 レンズ 5 2 2、 5 2 4の調整することで、 カメラ 5 5 0は適正な視差で撮影を行う。 これは、 ライブラリにより、 被写体が表示される 立体表示装置と立体写真撮影装置 5 1 0との処理が共通化されていることで実現 する。
なお、 表示の際に被写体を画面上に配置したい場合は、 D、 Aも決めておき、 被写体を Dに位置させて撮影すればよく、 この場合は、 近置と遠置で別々に適正 視差の計算を行い、 Eが小さくなる方を選択すればよい。 また、 Tは、 被写体が 占める範囲より大きくしてもよい。 背景がある場合、 背景を含めて Tを決定する とよい。
また、 適正視差情報は、 必ずしも被写体であるユーザが所有する立体画像表示 装置で調べたものである必要はない。 例えば、 撮影現場で典型的な立体画像表示 装置で好みの立体感を選択してもよい。 この選択は、 立体感調整部 1 1 2により 可能である。 あるいは、 単に 「画面上/遠置/近置」 、 「立体感:大/中 Z小」 のような項目から選択し、 それらに対応して視差情報保持部 1 2 0に保持されて いる、 予め決められたカメラパラメ一夕が用いられてもよい。 また、 光軸交差位 置の変更は機構構造で変更されてもよいが、解像度の高い C C D (Charge Coupled Device) を用いて、 画像として利用する範囲を変えることで実現されてもよい。 この処理には位置シフト部 1 6 0の機能を使えばよい。
図 8 3は、 人間が入ることができない場所に移動可能なカメラ 5 5 0が設置さ れ、 コントローラ 5 1 9を使った遠隔操作によりそのカメラ 5 5 0が操作され、 撮影されている映像を立体画像表示装置 5 1 1で観察している様子を示している 。 立体画像表示装置 5 1 1には、 図 8 2で示した構成の立体画像表示装置 1 0 0 が組み込まれている。
カメラ 5 5 0には、 レンズ間隔 Εが自動調整できる機構がついている。 またこ のカメラ 5 5 0には光学ズームもしくは電子ズーム機能がついており、 これによ り 0が決まる。 ところが、 このズーム操作により視差量が変化する。 一般に遠く を撮影するほど表示の際に視点間の光軸の成す角度が小さくなるので、 そのレン ズ間隔 Εでは視差が小さくなり立体感が乏しくなる。 そこで、 レンズ間隔 Εゃズ —ム量などのカメラ設定を適切に変更する必要が生じる。 ここでは、 このような 場合にカメラ設定を自動的に制御し、 煩雑なカメラ設定を大幅に軽減する。 なお 、 コントローラ 5 1 9を使用して、 カメラ設定を調整してもよい。
操作者は、 まずコントローラ 5 1 9を使い光学ズームもしくは電子ズームを操 作すると、 0が決定される。 次に、 カメラ 5 5 0を動かし、 撮影したい被写体を 立体表示装置 5 1 1において中央に表示させる。 カメラ 5 5 0はオートフォー力 スの機能により被写体に焦点を合わせ、 同時に距離を取得する。 初期状態では、 この距離を Dとする。 つまり、 被写体が表示画面付近に位置して見えるように力 メラ 5 5 0を自動設定する。 Tは手動で範囲を変更でき、 操作者は予め前後関係 を把握したい物体の奥行き方向の分布を指定しておく。 こうして、 θ、 D、 丁が 決まる。 それによつて、 先に示した 3つの関係式より E、 A、 Sが決まり、 カメ ラ 5 5 0が適切に自動調整される。 この例の場合には、 Sが後から決まるため、 Tが最終的にどの範囲となるかは不確定である。 そこで、 Tはある程度大きく設 定しておくとよい。
なお、 被写体を画面端に表示したい場合には、 一度被写体を中央に表示し、 所 定のボタンを押して焦点および Dを固定できるようにし、 その後カメラ 5 5 0の 向きを変更すればよい。 また、 焦点や Dを手動でに変更できるようにすれば、 被 写体の奥行き位置を自由に変えることができる。
図 8 4は、 立体画像撮影装置 5 1 0による撮影の一例を示す。 体画像撮影装 置 5 1 0は、 図 8 2で示した構成を有する。 このカメラ 5 5 0には、 予め撮影者 が保持する立体画像表示装置の適正ネ見差が、 持ち運び可能なメモリなどの記録媒 体やインターネットなどの通信手段を通じて入力されている。 ここでは、 カメラ 5 5 0として、 簡単な構造を有する、 比較的低価格で入手可能なカメラを想定す る。 ここでは、 カメラ間隔 E、 光軸交差距離 D、 画角 0が固定されており、 先に 示した 3つの関係式より A、 S、 Tが決まる。 これらの値から被写体までの距離 の適切な範囲を計算することができるので、 被写体までの距離を実時間で測定し 、 計算された距離が適切であるかどうかをメッセ一ジゃランプの色などで撮影者 に通知できる。 被写体までの距離は、 オートフォーカスの距離測定機能など既知 の技術で取得すればよい。 ' 以上のように、 いずれのカメラパラメ一夕を変数または定数とするかの組合せ は自由で、 用途に合わせて様々な形態がある。 また、 カメラ 5 5 0は上記以外に も、 顕微鏡、 医療用の内視鏡、 携帯端末など様々な機器に取り付けられた形態が 考えられる。
なお、 特定の立体表示装置に対して視差を最適化すると、 他の立体表示装置で 立体視が困難な場合がある。 しかし、 一般的に装置の性能は向上するものであり 、 次に購入する立体表示装置に対しては視差が大きすぎると言うことは稀と考え られる。 むしろ、 撮影装置の設定不備により、 立体表示装置の性能に関係なく立 体視が困難となる危険を避けるために、 上記のような調整を行うことは重要であ る。 なお、 ここで、 立体表示装置とは、 立体視を実現するための立体画像処理装 置を備える構成とする。
第 1から第 6の立体画像処理装置 1 0 0の立体感調整部 1 1 2で得られる適正 視差は、 特定の立体画像処理装置 1 0 0に対してユーザが立体視しながら決める パラメータであり、 その立体画像処理装置 1 0 0においては、 以後その適正視差 が守られる。 この立体感調整の操作には立体表示装置固有の 「画像分離性能」 と 観察者固有の 「生理的限界」 という二つの因子が加味されている。 「画像分離性 能」 とは複数の視点画像を分離する性能を表す客観的因子で、 この性能が低い立 体表示装置はほとんど視差を付けていな ともクロストークが感知されゃすく、 複数の観察者が調整を行った場合の適正視差の範囲は平均的に狭くなる。 逆に、 画像分離性能が高ければ大きな視差を付けてもクロストークはほとんど感知され ず、 適正視差の範囲は平均的に広くなる傾向がある。 一方、 「生理的限界」 は主 観的因子で、 例えば画像分離性能が非常に高く完全に画像が分離していても、 観 察者 よって不快感を覚えない視差範囲が異なる。 これは、 同じ立体画像処理装 置 1 0 0における適正視差のばらつきとして現れる。
画像分離性能は分離度とも呼ばれ、 図 8 5のように最適観察距離で照度計 5 7 0を水平方向に移動しながら基準画像 5 7 2の照度を測定する方法で決めること ができる。 その際、 2眼式の場合は例えば左眼画像に全白を表示し、 右眼画像に 全黒を表示する。 画像が完全に分離していれば、 右眼画像が見える位置の照度は 0になる。 それに対して、 左眼画像の白の漏れの程度を測定することで、 画像分 離性能が得られる。 本図、 右端のグラフは測定結果の例である。 また、 この測定 は、 モアレの濃淡を測定することとほとんど等価であるので、 図 8 6のようなモ ァレが観察される距離でモアレ画像を取り込み、 その濃淡を解析することでも画 像分離性能を測定することができる。
メガネ式の立体表示装置などでも、 同じように漏れ光を測定することで画像分 離性能を測定することができる。 また、 実際には、 左右両方の画像を全黒とした ときの測定値をバックグラウンドとして加味して計算してもよい。 また、 画像分 離性能は、 多数の観察者によるランク付け評価の平均値で決定することもできる このように、 立体表示装置の画像分離性能については客観的な数値などの判断 基準を与えることができるので、 例えば、 ユーザ保有の図 5 4の立体表示装置 4 5 0のランクとその立体表示装置 4 5 0に対するユーザの適正視差が分かれば、 他の立体表示装置 4 4 0のランクにあうよう適正視差を変換することができる。 また、 立体表示装置には画面サイズ、 画素ピッチ、 最適観察距離などの固有値と なるパラメ一夕もあり、 これらパラメ一夕の情報も適正視差の変換には利用する 以下に、 適正視差の変換例について、 図 8 7および図 8 8を用いてパラメ一夕 毎に順に説明する。 ここでは、 適正視差は、 N/ Lと M/ Lにより保持されてい るものとする。 ここで、 Mは近置限界視差、 Nは遠置限界視差、 Lは画面サイズ である。 このように比の値で表すことで、 立体表示装置間の画素ピッチの違いを 無視することができる。 そこで、 以下に使用する図では、 説明を容易にするため に画素ピヅチが等しいとして説明する。
まず、 画面サイズの違いに対する変換について説明する。 図 8 7に示すように 、 '画面サイズによらず視差の絶対値を変えないように処理するのが好ましい。 つ まり、 前後方向の立体表現範囲を同じにする。 図上側に示す状態から下側に示す 状態のように、 画面サイズが a倍になったとする。 このとき、 NZLを N/ ( a L ) に変換し、 M/Lを M/ ( a L ) に変換することで画面サイズが異なる場合 でも、 適正視差が実現される。 本図では最近置点の例を示している。
次に、 観察距離の違いに対する変換について説明する。 図 8 8に示すように、 最適観察距離 dが b倍になれば、 視差の絶対値も b倍にするのが好ましい。 つま り、 眼が見込む視差の角度を一定に保つ。 従って、 N/ Lを b N/Lに変換し、 M/ Lを b M/Lに変換することで最適観察距離が異なる場合でも、 適正視差が 実現される。 本図では、 最近置点の例として表している。
最後に、 画像分離性能の因子を加味することに関して説明する。 ここでは、 画 像分離性能のランク rを 0以上の整数であるとし、 視差を付けることができない ほど性能が悪いものを 0とする。 そして、 第 1の立体表示装置の画像分離性能を r 0とし、 第 2の立体表示装置の画像分離性能を r 1とすると、 c = r 1 / r 0 として、 N/ Lを c N/ Lに、 M/ Lを c MZ Lに変換する。 これによつて画像 分解性が異なる立体表示装置であっても、 適正視差が実現される。 なお、 ここで 示した、 cを導出するた式は一例であり、 他の数式から導出してもよい。
以上の処理を全て行うと、 結局、 N/ Lは b c N/ ( a L ) に、 M/ Lを b c M/ ( a L ) に変換される。 なお、 この変換は、 水平方向の視差、 垂直方向の視 差のいずれにも適用できる。 なお、 以上の適正視差の変換は、 図 5 2、 図 5 3、 および図 5 4で示した構成で実現できる。
また、 基本表現空間の前面と背面は Zバッファを利用して決められてもよい。 Zバヅファは陰面処理の手法で、 カメラから視たォブジェクト群のデプスマヅプ が得られる。 この Z値を取り除く最小値と最大値を、 最前面、 最背面の位置とし て用いてもよい。 処理としては、 仮想カメラの位置から Z値を取得する処理が追 加される。 この処理には、 最終の解像度 必要がないので、 画素数を減らして処 理を行うと処理時間が短くなる。 この手法により、 隠れている部分が無視される ので適正視差範囲を有効に利用できる。 また、 オブジェクトが複数であっても扱 いやすい。
また、 視差制御部は 1 1 4は、 三次元データにより立体画像を生成する際に、 視差画像を生成するために設定されるカメラ配置に関するパラメ一夕が変更され る場合、 前記カメラパラメ一夕を前記パラメ一夕の変動に対して予め設けられて いる閾値に収まるよう制御してもよい。 また、 視差制御部 1 1 4は、 デプス情報 が与えられた二次元動画?象より動画像の立体画像を生成する際に、 二次元動画像 の進行に伴い発生する、 デプス情報に含まれるデブスの最大値もしくは最小値の 変動が、 予め設けられている閾値に収まるように制御してもよい。 それら制御の 際に利用される閾値は、 視差情報保持部 1 2 0に保持さていればよい。
三次元データにより立体画像を生成する際に、 視界内に存在するォブジェクト から基本表現空間を決定していると、 オブジェクトの急速な移動やフレームィン 、 フレームアウトによって、 基本表現空間の大きさが急激に変わり、 カメラ配置 に関するパラメ一夕が大きく変動することがある。 この変動が予め決められた閾 値よりも大きい場合には、 閾値を限度として変動を許可してもよい。 また、 デブ ス情報が与えられた二次元動画像より立体画像を生成する際にも、 デブスの最大 値もしくは最小値から視差量の最大値や最小値を決定していると、 同様の不都合 が考えられる。 この変動に対しても閾値を設けるとよい。
本実施の形態によれば、 以下のような効果がある。
1 . 人の生理に適合しやすい立体画像を生成または表示できる。
2 . 表示対象画像が変わってもユーザに適切な立体画像を生成または表示できる 3 . 簡単な操作で立体表示の立体感を調整できる。
4 . 適切な立体表示が可能なコンテンヅまたはアプリケーションづく りに際し、 プログラマの負担を軽減できる。
5 . 立体表示を最適化しょうとするユーザの手間が軽減される。
6 . 通常、 プラグアンドプレイ機能の対象にならない立体感調整やヘッドトラッ キング情報を容易に実現でき、 後付のパ ラックスバリアのように、 原理上ブラ グアンドプレイができ い装置についても同様である。 産業上の利用可能性
以上のように、 発明は、 立体画像処理方法および立体画像処理方法装置など に利用可能である。

Claims

請求の範囲
1 . 異なる視差に対応する複数の視点画像をもとに表示された立体画像に対す るユーザの応答を取得する指示取得部と、
取得された応答をもとに、 そのユーザに関する適正視差を特定する視差特定部 と、
を含むことを特徴とする立体画像処理装置。
2 . 前記特定された適正視差が別の画像の表示の際にも実現されるよう処理を 施す視差制御部を更に含むことを特徴とする請求項 1に記載の装置。
3 . 前記別の画像は三次元デ一夕を起点として生成される立体画像であり、 前 記視差制御部は前記適正視差にしたがってその立体画像を生成する複数の視点を 決定することを特徴とする請求項 2に記載の装置。
4 . 前記視差制御部は、 前記複数の視点間の距離とそれらの視点からオブジェ クトを見込む光軸の交差位置を決定することを特徴とする請求項 3に記載の装置
5 . 前記視差制御部は、 表示の対象となる所定の基本三次元空間について前記 適正視差が実現するよう制御することを特徴とする請求項 2〜4のいずれかに記
6 . 前記視差制御部は、 三次元空間において最も近置されるオブジェクトの座 標と最も遠置されるオブジェクトの座標について前記適正視差が実現するよう制 御することを特徴とする請求項 2〜 4のいずれかに記載の装置。
7 . 前記別の画像はすでに視差が与えられている複数の二次元画像であり、 前 記視差制御部は前記適] t視差にしたがってそれら複数の二次元画像の水平方向の シフト量を定めることを特徴とする請求項 2に記載の装置。
8 . 前記別の画像はデブス情報が与えられている平面画像であり、 前記視差制 御部は前記適正視差にしたがってその平面画像のデプス情報を調整することを特 徴とする請求項 2に記載の装置。
9 . 前記適正視差を記録する視差保持部を更に含み、 前記視差制御部は、 所定 のタイミングにて前記適正視差を読み込み、 その値を初期値として前記処理を施 すことを特徴とする請求項 2〜 8のいずれかに記載の装置。
1 0 . 前記立体画像に含まれる所定のオブジェクトの指定をユーザより受け付 けるオブジェクト指定部と、
指定されたォブジェクトの位置に、 前記複数の視点画像それそれに関連づけら れている光軸の交差位置を対応させるとともに、 前記指定されたオブジェクトが 、 前記立体画像が表示される表示画面の位置付近に表現するように前記光軸の交 差位置を設定する光軸交差位置設定部と、
を有することを特徴とする請求項 1〜 9のいずれかに記載の装置。
1 1 . 前記指定されたオブジェクトは所定の界面を有し、
前記光軸交差位置設定部は、 前記界面上に前記光軸の交差位置を対応づけるこ とを特徴とする請求項 1 0に記載の装置。
1 2 . 前記指定されたオブジェクトに対して、 そのオブジェクトが前記光軸の 交差位置と対応づけられ、 かつ、 前記オブジェクトが表示画面の位置付近に表現 される旨が記述された光軸対応情報を、 前記オブジェクトと関連づける指定情報 付加部と、
を更に有することを特徴とする請求項 1 0または 1 1に記載の立体画像処理装
1 3 . 光軸交差位置設定部は、 前記光軸対応情報を取得し、 取得した光軸対応 情報に記述されているオブジェクトに対して前記光軸の交差位置を対応させると ともに、 前記光軸の交差位置が対応づけられたオブジェクトを、 前記立体画像が 表示される表示画面の位置付近に表現することを特徴とする請求項 1 2に記載の 立体画像処理装置。
1 4 . 前記立体画像を生成する際に用いられる画像デ一夕に関連づけらており 、 前記立体画像に含まれるオブジェクトに、 立体表示すべきオブジェクトが含ま れる基本表現空間内に表現すべきか否かの情報が含まれる識別情報を取得する識 別情報取得部と、
前記取得した識別情報をもとに、 オブジェクトに視差量を反映させる視差制御 部と、
を更に有することを特徴とする請求項 1〜 1 3のいずれかに記載の装置。
1 5 . 前記視差制御部は、 更に、 前記立体画像内に表現されるォブジェクトの 幅と奥行きの比が人間の眼に正しく知覚される範囲の視差よりも、 視差が大きく ならないように制御することを特徴とする請求項 1〜 1 4のいずれかに記載の装
1 6 . 前記立体画像の起点となるオリジナルデータが入力された際に、 複数の 視点画像を生成するための複数の仮想カメラの配置を設定するカメラ配置設定部 と、
前記仮想カメラそれそれに対応して生成される視点画像に、 表示すべきォブジ ェクトの情報が存在しない領域が発生しているか否かを判定するォブジェクト領 域判定部と、
表示すべきオブジェクトの情報が存在しない領域が発生している場合、 ォブジ ェクトの情報が存在しない領域が無くなるように、 前記仮想カメラの画角、 カメ ラ間隔、 および光軸の交差位置の少なくともいずれかを調整するカメラパラメ一 夕調整部と、 を更に有することを特徴とする請求項 1〜 1 5のいずれかに記載の装置。
1 7 . 前記立体画像が三次元データを起点に生成される場合、 前記視差制御部 は、 前記立体画像を生成する際に、 視差画像を生成するために設定されるカメラ 配置に関するパラメ一夕が変更される場合、 前記カメラパラメ一夕を前記パラメ 一夕の変動に対して予め設けられている閾値に収まるよう制御することを特徴と する請求項 1〜 1 6のいずれかに記載の装置。 '
1 8 . 前記立体画像が、 デプス情報が与えられた二次元動画像を起点として生 成する際に、 前記視差制御部は、 前記二次元動画像の進行に伴い発生する、 前記 デプス情報に含まれるデブスの最大値もしくは最小値の変動が、 予め設けられて いる閾値に収まるように制御することを特徴とする請求項 1〜 1 7のいずれかに 記載の装置。
1 9 . 前記立体画像を、 シーンを単位として分析する画像判定部を更に有する ことを特徴とする請求項 1〜 1 8のいずれかに記載の装置。
2 0 . 異なる視差による複数の立体画像をユーザに表示するステップと、 表示された立体画像に対するユーザの Jfe答をもとにそのユーザに関する適正視 差を特定するステップと、
を含むことを特徴とする立体画像処理方法。
2 1 . ユー i に依存する適正視差を取得するステップと、
取得した適正視差が実現されるよう、 表示前に画像に処理を加えるステップと を含むことを特徴とする立体画像処理方法
2 2 . 前記の各ステップを立体表示用ライブラリの機能として実装し、 複数の プログラムからこのライブラリの機能を関数として呼出可能に構成したことを特 徴とする請求項 2 0または 2 1に記載の方法。
2 3 . 前記立体画像内に立体表示すべきオブジェクトが含まれる基本表現空間 内に表現すべきオブジェクトの移動速度を、 近置または遠置方向について変更す るステップを更に含むことを特徴とする請求項 2 0〜2 2のいずれかに記載の方 法。
2 4 . 立体表示すべきオブジェクトが含まれる基本表現空間内に表現すべきォ ブジェクトを所定の視差範囲内に収まるように表現しつつ、 前記基本表現空間の 最前面あるいは最後面の少なくとも一方の面をォブジェクトが存在しない位置に 設定することで前記適正視差を調整するステップを更に含むことを特徴とする請 求項 2 0〜2 3のいずれかに記載の方法。
2 5 . 異なる視差による複数の立体画像をユーザに表示するステップと、 表示された立体画像に対するユーザの応答をもとにそのユーザに関する適正視 差を特定するステップと、
をコンピュータに実行せしめることを特徴とするコンピュータプログラム。
2 6 . 立体画像を表示するための複数の視点画像間の視差を補正する視差制御 部と、
前記視差制御部がその処理の際に参照すべき補正マップを保持するマップ保持 部と、
を含み、 前記補正マップは、 前記視差が視点画像内の位置に基づいて補正され るよう記述きれていることを特徴とする立体画像処理装置。
2 7 . 前記視差制御部は、 前記複数の視点画像の周辺部において視差を小さく し、 または、 オブジェクトがユーザからより遠くに感知されるよう前記視差を変 化させることを特徴とする請求項 2 6に記載の装置。
2 8 . 前記視差制御部は、 前記複数の視点画像のいずれかに選択的に処理を施 すことによって前記視差を変化させることを特徴とする請求項 2 6または 2 7に
2 9 . 前記複数の視点画像は三次元デ一夕を起点として生成されるものであり 、 前記視差制御部は前記複数の視点画像の生成にあたって、 カメラパラメ一夕を 制御して前記視差を変化させることを特徴とする請求項 2 6〜2 8のいずれかに
3 0 . 前記複数の視点画像は三次元データを起点として生成されるものであり 、 前記視差制御部は前記複数の視点画像の生成にあたって、 三次元空間自体を歪 ませることにより前記視差を変化させることを特徴とする請求項 2 6または 2 7 に記載の装置。
3 1 . 前記複数の視点画像は、 デプス情報が与えられている平面画像から生成 されるものであり、 前記視差制御部はそのデプス情報を操作することによって前 記視差を変化させることを特徴とする請求項 2 6または 2 7に記載の装置。
3 2 . 立体画像を表示するための複数の視点画像を取得するステップと、 取得された前記複数の視点画像間の視差をそれら視点画像内の位置に基づいて 変化させるステップと、
を含むことを特徴とする立体画像処理方法。
3 3 . 前記の各ステップを立体表示用ライブラリの機能として実装し、 複数の プログラムからこのライブラリの機能を関数として呼出可能に構成したことを特 徴とする請求項 3 2に記載の方法。
3 4 . 立体画像を表示するための複数の視点画像を取得するステップと、 取得された前記複数の視点画像間の視差をそれら視点画像内の位置に基づいて 変化させるステップと、
をコンピュータに実行せしめることを特徴とするコンピュータプログラム。
3 5 . 第 1の表示装置にて取得されたユーザの適正視差を第 2の表示装置に読 み込むステップと、
第 2の表示装置にて前記適正視差にしたがって視差画像の視差を調整するステ ヅプと、
第 2の表示装置から調整後の視差画像を出力するステップと、
を含むことを特徴とする立体画像処理方法。
3 6 . 前記第 1の表示装置のハードウエアに関する情報を前記第 2の表示装置 に読み込むステップと、
読み込んだ前記第 1の表示装置のハ一ドウエアに関する情報および前記第 2の 表示装置のハードウェアに関する情報をもとに、 前記視差画像の視差を調整する ステップで視差が調整された視差画像を、 前記第 2の表示装置にて前記適正視差 にしたがって視差を補正するステヅプと、
を更に含むことを特徴とする請求項 3 5に記載の立体画像処理方法。
3 7 . 前記ハードゥヱァに関する情報は、 表示画面の大きさを含むことを特徴 とする請求項 3 6に記載の立体画像処理方法。 '
3 8 . 前記ハードウェアに関する情報は、 前記表示装置の最適観察距離を含む ことを特徴とする請求項 3 6または 3 7に記載の立体画像表示方法。
3 9 . 前記ハードウェアに関する情報は、 表示装置の画像分離性能に関する情 報を含むことを特徴とする請求項 3 6から 3 9のいずれかに記載の立体画像表示 方法。
4 0 . ネットワークを介して接続された第 1の表示装置、 第 2の表示装置およ びサーバを含み、
第 1の表示装置は、 当該装置にて取得されたユーザの適正視差情報をサーバに 送信し、
サーバは適正視差情報を受信してこれをュ一ザと関連づけて記録し、 ユーザが第 2の表示装置にて画像デ一夕の出力を要求したとき、 当該装置はサ —バからそのユーザの適正視差情報を読み出して視差を調整したのち視差画像を 出力することを特徴とする立体画像処理装置。
4 1 . 視差画像を立体表示するための適正視差をいつたん表示装置のハードウ ェァに依存しない表現形式へ変換し、 この表現形式による適正視差を異なる表示 装置間で流通することを特徴とする立体画像処理方法。'
4 2 . 複数の視点画像から表示された立体画像に対するユーザの指示を取得す る指示取得部と、
取得された指示にしたがい、 前記複数の視点画像間の視差量を変化させる視差 制御部と、
を含むことを特徴とする立体画像処理装置。
4 3 . 複数の視点画像から立体画像を表示するときに生じる第 1の視差量を検 出する視差量検出部と、
第 1の視差量が、 ユーザの許容視差量である第 2の視差量の範囲に入るよう前 記複数の視点画像間の視差量を変化させる視差制御部と、
を含むことを特徴とする立体画像処理装置。
4 4 . 前記視差量検出部は前記第 1の視差量の最大値を検出し、 前記視差制御 部は、 その最大値が前記第 2の視差量の最大値を超えないよう前記複数の視点画 像間の視差量を変化させることを特徴とする請求項 4 3に記載の装置。
4 5 . 前記視差量検出部は、 前記複数の視点画像間で対応点マツチングを計算 することにより前記第 1の視差量を検出することを特徴とする請求項 4 3または. 4 4に記載の装置。
4 6 . 前記視差量検出部は、 前記複数の視点画像のいずれかのヘッダに予め記 録された前記第 1の視差量を検出して読み出すことを特徴とする請求項 4 3〜 4 5のいずれかに記載の装置。
4 7 . 前記視差制御部は、 前記複数の視点画像の合成位置をシフトすることに より前記複数の視点画像間の視差量を変化させることを特徴とする請求項 4 2〜 6のいずれかに記載の装置。
4 8 . 最終的に確定した合成位置を所定の記録エリアへ書き込む視差量書込部 を更に含むことを特徴とする請求項 4 7に記載の装置。
4 9 . 前記記録エリアは前記複数の視点画像のいずれかのヘッダであることを 特徴とする請求項 4 8に記載の装置。
5 0 . 前記視差制御部は、 前記複数の視点画像を生成する基礎になったデプス 情報を調整することにより前記複数の視点画像間の視差量を変化させることを特 徴とする請求項 4 2〜4 4のいずれかに記載の装置。
5 1 . 前記複数の視点画像間の視差量を変化させたとき、 前記立体画像を表示 させると生じうる画素の欠落を軽減する画像端調整部を更に含むことを特徴とす る請求項 4 2〜5 0のいずれかに記載の装置。
5 2 . 複数の視点画像をもとに表示された立体画像に対するュ一ザの指示を取 得するステップと、 その指示にしたがい、 前記複数の視点画像間の視差量を変化させるステップと を含むことを特徴とする立体画像処理方法。
5 5 3 . 複数の視点画像から立体画像を表示するときに生じる第 1の視差量を検 出するステップと、
第 1の視差量が、 ユーザの許容視差量である第 2の視差量の範囲に入るよう前 記複数の視点画像間の視差量を変化させるステヅプと、
を含むことを特徴とする立体画像処理方法。
0
5 4 . 前記の各ステップを立体表示用ライブラリの機能として実装し、 複数の プログラムからこのライブラリの機能を関数として呼出可能に構成したことを特 徴とする請求項 5 2または 5 3に記載の方法。 5 5 5 . 複数の視点画像をもとに表示された立体画像に対するユーザの指示を取 得するステップと、
その指示にしたがい、 前記複数の視点画像間の視差量を変化させるステップと をコンピュータに実行せしめることを特徴とするコンピュータプログラム。 0
, 5 6 . 立体画像表示に必要な情報をメモリ上に保持し、 その保持された情報を 複数の異なるプログラム間で共有し、 それらのプログラムのいずれかが立体画像 を表示する際、 前記保持された情報を参照して出力され べき画像の状態を決定 することを特徴とする立体 ®像処理方法。
5
5 7 . 前記保持された情報は、 立体画像表示装置に入力される画像のフォーマ ット、 立体画像の表示順序、 立体画像の視差量のいずれかの情報を含むことを特 徴とする請求項 5 6に記載の方法。
5 8 . 前記保持された情報の共有に加え、 立体画像表示固有の処理を前記複数 のプログラムで共有することを特徴とする請求項 5 6または 5 7に記載の方法。 5 9 . 前記立体画像表示固有の処理は、 前記保持された情報を決定するための 処理であることを特徴とする請求項 5 8に記載の方法。
6 0 . 前記立体画像表示固有の処理は、 立体表示における適正視差を決定する ためのグラフィカルユーザィン夕フェイスに関する処理、 適正視差状態の実現を 支援する視差調整用画面の表示処理、 ユーザの頭位置を検出して追跡する処理、 立体表示装置を調整するための画像を表示する処理のいずれかを含むことを特徴 とする請求項 5 8に記載の方法。
6 1 . 立体表示画像の立体感を調整するためのグラフィカルュ一ザイン夕フエ イスをユーザに提供する立体感調整部と、
ユーザによる立体感の調整の結果判明する限界視差を守る形で視差画像を生成 する視差制御部と、
を含むことを特徴とする立体画像処理装置。 6 2 . 立体画像表示を適正化するために参照すべき情報を取得する情報検出部 と、
取得された情報にしたがって前記視差制御部で生成された視差画像のフォーマ ットを変換する変換部と、
を更に含むことを特徴とする請求項 6 1に記載の装置。
6 3 . 前記情報検出部は、 視差画像の視点数、 視差画像の並び方、 立体表示の 方式、 ュ一ザの頭位置の追跡情報のいずれかを取得することを特徴とする請求項 6 2に記載の装置。
6 4 . 前記視差制御部は、 三次元デ一夕に基づき、 カメラパラメ一夕を制御し て、 前記限界視差を守りつつ前記視差画像を生成することを特徴とする請求項 6 1〜 6 3のいずれかに記載の装置。
6 5 . 前記視差制御部は、 デプス情報が与えられている平面画像を入力し、 そ のデプス情報を制御して前記視差画像を生成することを特徴とする請求項 6 1〜 6 3のいずれかに記載の装置。' 6 6 . 前記視差制御部は、 予め視差の与えられた複数の二次元画像を入力し、 それら複数の二次元画像の水平方向のシフト量を定め、 前記視差画像を生成する ことを特徴とする請求項 6 1〜6 3のいずれかに記載の装置。
6 7 . 立体画像の表示に影響するパラメ一夕をグラフィカルユーザィン夕フエ イスを利用して特定する機能と、 特定したパラメ一夕にしたがって視差画像を生 成する機能とを複数のプログラムから関数の形で呼出可能に構成したことを特徴 とするコンピュータプログラム。
6 8 . 立体表示画像の立体感を調整するためのグラフィカルユーザィン夕フエ イスをユーザに提供するステップと、
ユーザによる立体感の調整の結果判明する限界視差を守る形で視差画像を生成 するステップと、
をコンピュータに実行せしめることを特徴とするコンピュータプログラム。
PCT/JP2003/003791 2002-03-27 2003-03-27 Procede de traitement d'images tridimensionnelles et dispositif WO2003081921A1 (fr)

Priority Applications (13)

Application Number Priority Date Filing Date Title
EP03715473A EP1489857B1 (en) 2002-03-27 2003-03-27 3-dimensional image processing method and device
CN038071592A CN1643939B (zh) 2002-03-27 2003-03-27 立体图像处理方法及装置
KR1020047015105A KR100812905B1 (ko) 2002-03-27 2003-03-27 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체
US10/949,528 US8369607B2 (en) 2002-03-27 2004-09-27 Method and apparatus for processing three-dimensional images
US12/976,262 US8131064B2 (en) 2002-03-27 2010-12-22 Method and apparatus for processing three-dimensional images
US12/986,509 US8417024B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,453 US8254668B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,491 US8879824B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,551 US8724886B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,530 US8577128B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US12/986,471 US8577127B2 (en) 2002-03-27 2011-01-07 Method and apparatus for processing three-dimensional images
US13/088,752 US8472702B2 (en) 2002-03-27 2011-04-18 Method and apparatus for processing three-dimensional images
US13/283,361 US8559703B2 (en) 2002-03-27 2011-10-27 Method and apparatus for processing three-dimensional images

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
JP2002087494 2002-03-27
JP2002-87496 2002-03-27
JP2002-87497 2002-03-27
JP2002087497A JP2003284095A (ja) 2002-03-27 2002-03-27 立体画像処理方法および装置
JP2002087495A JP2003284093A (ja) 2002-03-27 2002-03-27 立体画像処理方法および装置
JP2002-87494 2002-03-27
JP2002-87495 2002-03-27
JP2002087496A JP3702243B2 (ja) 2002-03-27 2002-03-27 立体画像処理方法および装置
JP2002087493 2002-03-27
JP2002-87493 2002-03-27
JP2003003761A JP3749227B2 (ja) 2002-03-27 2003-01-09 立体画像処理方法および装置
JP2003003763A JP3857988B2 (ja) 2002-03-27 2003-01-09 立体画像処理方法および装置
JP2003-3761 2003-01-09
JP2003-3763 2003-01-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US10/949,528 Continuation US8369607B2 (en) 2002-03-27 2004-09-27 Method and apparatus for processing three-dimensional images

Publications (1)

Publication Number Publication Date
WO2003081921A1 true WO2003081921A1 (fr) 2003-10-02

Family

ID=28458078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003791 WO2003081921A1 (fr) 2002-03-27 2003-03-27 Procede de traitement d'images tridimensionnelles et dispositif

Country Status (4)

Country Link
EP (11) EP1489857B1 (ja)
KR (1) KR100812905B1 (ja)
CN (1) CN1643939B (ja)
WO (1) WO2003081921A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482598B2 (en) 2005-03-18 2013-07-09 Ntt Data Sanyo System Corporation Stereoscopic image display apparatus, stereoscopic image displaying method and computer program product
CN103636187A (zh) * 2011-08-30 2014-03-12 松下电器产业株式会社 摄像装置
KR101417024B1 (ko) 2007-11-22 2014-07-08 엘지이노텍 주식회사 카메라를 이용한 3d 영상 획득 방법

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2407224C2 (ru) * 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
KR100704634B1 (ko) 2005-12-19 2007-04-09 삼성전자주식회사 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
KR100762670B1 (ko) * 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
TWI331872B (en) 2006-12-29 2010-10-11 Quanta Comp Inc Method for displaying stereoscopic image
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
KR20080100984A (ko) 2007-05-15 2008-11-21 삼성전자주식회사 3차원 영상 디스플레이 방법 및 장치
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
KR100906784B1 (ko) * 2007-11-15 2009-07-09 (주)레드로버 입체영상 제작 프로그램용 플러그인 모듈 및 입체영상 제작방법
KR100924432B1 (ko) * 2007-12-06 2009-10-29 한국전자통신연구원 다시점 영상의 인식 깊이감 조절 장치 및 방법
CN101472190B (zh) * 2007-12-28 2013-01-23 华为终端有限公司 多视角摄像及图像处理装置、系统
JP5684577B2 (ja) * 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
WO2010010521A2 (en) * 2008-07-24 2010-01-28 Koninklijke Philips Electronics N.V. Versatile 3-d picture format
JP4657331B2 (ja) 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
KR101633627B1 (ko) 2008-10-21 2016-06-27 코닌클리케 필립스 엔.브이. 입력 3차원 비디오 신호를 프로세싱하는 방법 및 시스템
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
JP5327524B2 (ja) * 2009-02-27 2013-10-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP5415217B2 (ja) * 2009-10-02 2014-02-12 パナソニック株式会社 三次元映像処理装置
JP5299214B2 (ja) * 2009-10-20 2013-09-25 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2011109294A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、情報処理方法、表示制御装置、表示制御方法、およびプログラム
EP2334089A1 (en) * 2009-12-04 2011-06-15 Alcatel Lucent A method and systems for obtaining an improved stereo image of an object
JP5287702B2 (ja) * 2009-12-25 2013-09-11 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2011138354A (ja) * 2009-12-28 2011-07-14 Sony Corp 情報処理装置および情報処理方法
EP2525579B1 (en) 2010-01-11 2019-03-06 LG Electronics Inc. Broadcasting receiver and method for displaying 3d images
JP4951079B2 (ja) * 2010-03-11 2012-06-13 株式会社東芝 立体表示装置、映像処理装置
EP2549766A1 (en) * 2010-03-17 2013-01-23 Panasonic Corporation Replay device
CN102835116B (zh) * 2010-04-01 2015-03-25 诺基亚公司 用于选择立体成像视点对的方法和装置
EP2375763A2 (en) * 2010-04-07 2011-10-12 Sony Corporation Image processing apparatus and image processing method
JP5477128B2 (ja) * 2010-04-07 2014-04-23 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
JP2011223481A (ja) * 2010-04-14 2011-11-04 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
JP5202584B2 (ja) * 2010-06-24 2013-06-05 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、コンテンツ作成支援装置、画像処理方法、コンテンツ作成支援方法、および画像ファイルのデータ構造
EP2586209A1 (en) * 2010-06-28 2013-05-01 Thomson Licensing Method and apparatus for customizing 3-dimensional effects of stereo content
WO2012002347A1 (ja) * 2010-06-30 2012-01-05 富士フイルム株式会社 画像処理装置、撮像装置及び画像処理方法
CN103098479A (zh) * 2010-06-30 2013-05-08 富士胶片株式会社 图像处理装置、图像处理方法和图像处理程序
CN102340678B (zh) * 2010-07-21 2014-07-23 深圳Tcl新技术有限公司 一种景深可调的立体显示装置及其景深调整方法
WO2012014708A1 (ja) * 2010-07-26 2012-02-02 富士フイルム株式会社 画像処理装置、方法およびプログラム
CN105915880B (zh) 2010-08-10 2018-02-23 株式会社尼康 图像处理装置和图像处理方法
EP2434764A1 (en) * 2010-09-23 2012-03-28 Thomson Licensing Adaptation of 3D video content
US8693687B2 (en) * 2010-10-03 2014-04-08 Himax Media Solutions, Inc. Method and apparatus of processing three-dimensional video content
JP4956658B2 (ja) * 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
TW201216204A (en) * 2010-10-13 2012-04-16 Altek Corp Method for combining dual-lens images into mono-lens image
JP2012090094A (ja) * 2010-10-20 2012-05-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US20120113093A1 (en) * 2010-11-09 2012-05-10 Sharp Laboratories Of America, Inc. Modification of perceived depth by stereo image synthesis
JP5640681B2 (ja) * 2010-11-11 2014-12-17 ソニー株式会社 情報処理装置、立体視表示方法及びプログラム
JP5695395B2 (ja) 2010-11-19 2015-04-01 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 立体画像生成方法及びその装置
CN103238337B (zh) * 2010-11-23 2016-03-16 深圳超多维光电子有限公司 立体图像获取系统及方法
KR101783608B1 (ko) * 2010-12-02 2017-10-10 엘지전자 주식회사 전자 장치 및 입체감 조정 방법
CN103947198B (zh) * 2011-01-07 2017-02-15 索尼电脑娱乐美国公司 基于场景内容的预定三维视频设置的动态调整
EP2574065B1 (en) 2011-01-26 2016-09-07 FUJIFILM Corporation Image processing device, image-capturing device, reproduction device, and image processing method
RU2476825C2 (ru) * 2011-03-01 2013-02-27 Государственное образовательное учреждение высшего профессионального образования Томский государственный университет (ТГУ) Способ управления движущимся объектом и устройство для его осуществления
CN102971770B (zh) * 2011-03-31 2016-02-10 松下电器产业株式会社 进行全周围立体图像的描绘的图像描绘装置、图像描绘方法
CN102740015B (zh) * 2011-04-13 2015-03-11 鸿富锦精密工业(深圳)有限公司 同时播放不同频道的电视系统
CN103503449B (zh) * 2011-04-28 2016-06-15 松下知识产权经营株式会社 影像处理装置及影像处理方法
US20120300034A1 (en) * 2011-05-23 2012-11-29 Qualcomm Incorporated Interactive user interface for stereoscopic effect adjustment
JP2012247891A (ja) * 2011-05-26 2012-12-13 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP5971632B2 (ja) * 2011-05-26 2016-08-17 パナソニックIpマネジメント株式会社 電子機器および合成画像の編集方法
KR20120133951A (ko) * 2011-06-01 2012-12-11 삼성전자주식회사 3d 영상변환장치 그 깊이정보 조정방법 및 그 저장매체
TWI486052B (zh) 2011-07-05 2015-05-21 Realtek Semiconductor Corp 立體影像處理裝置以及立體影像處理方法
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
US9402065B2 (en) * 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
KR101888155B1 (ko) * 2011-11-22 2018-08-16 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
CN102413350B (zh) * 2011-11-30 2014-04-16 四川长虹电器股份有限公司 蓝光3d视频处理方法
JP5818674B2 (ja) * 2011-12-21 2015-11-18 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、画像表示装置
CN103227929B (zh) * 2012-01-29 2016-10-26 晨星软件研发(深圳)有限公司 立体影像处理装置及立体影像处理方法
DE102012201564B3 (de) * 2012-02-02 2013-05-29 Leica Microsystems (Schweiz) Ag System zur Darstellung stereoskopischer Bilder
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
CN102752621A (zh) * 2012-06-26 2012-10-24 京东方科技集团股份有限公司 景深保持装置、3d显示装置及显示方法
EP2680593A1 (en) * 2012-06-26 2014-01-01 Thomson Licensing Method of adapting 3D content to an observer wearing prescription glasses
CN103546736B (zh) 2012-07-12 2016-12-28 三星电子株式会社 图像处理设备和方法
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム
US9300942B2 (en) 2012-10-18 2016-03-29 Industrial Technology Research Institute Method and control system for three-dimensional video playback using visual fatigue estimation
CN103780894B (zh) * 2012-10-18 2016-02-10 财团法人工业技术研究院 具视觉疲劳估算的立体影片播放方法与控制系统
RU2525228C2 (ru) * 2012-10-19 2014-08-10 Федеральное бюджетное учреждение "3 Центральный научно-исследовательский институт Министерства обороны Российской Федерации" Устройство локации и навигации
JP2014230251A (ja) * 2013-05-27 2014-12-08 ソニー株式会社 画像処理装置、および画像処理方法
CN103458259B (zh) * 2013-08-27 2016-04-13 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
KR101528683B1 (ko) * 2013-11-29 2015-06-15 영산대학교산학협력단 과도시차 객체 검출방법
CN103686416B (zh) * 2013-12-27 2016-09-28 乐视致新电子科技(天津)有限公司 智能电视中的3d设置信息处理方法及装置
TW201528775A (zh) 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
US9667951B2 (en) 2014-02-18 2017-05-30 Cisco Technology, Inc. Three-dimensional television calibration
CN103841403B (zh) * 2014-03-11 2015-12-02 福州大学 一种无形变立体图像视差快速调节方法
CN104284177A (zh) * 2014-10-28 2015-01-14 天津大学 会聚立体图像视差控制方法
KR101817436B1 (ko) * 2016-08-02 2018-02-21 연세대학교 산학협력단 안구 전위 센서를 이용한 영상 표시 장치 및 제어 방법
JP6780983B2 (ja) * 2016-08-18 2020-11-04 マクセル株式会社 画像処理システム
RU2672092C1 (ru) * 2017-07-19 2018-11-12 Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" Способ измерения углового положения наземных неподвижных радиоконтрастных объектов
CN113343207A (zh) * 2021-06-07 2021-09-03 网易(杭州)网络有限公司 信息验证的方法、装置、计算机设备及存储介质
KR102317230B1 (ko) * 2021-08-25 2021-10-26 주식회사 에스에이엠지엔터테인먼트 인공지능 기반 아케이드 게임 환경 확장 시스템
KR20230053956A (ko) 2021-10-15 2023-04-24 김채은 잉크 찌꺼기가 나오지 않는 더 매끄러운 쇠볼을 가진 볼펜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH09271043A (ja) * 1996-03-29 1997-10-14 Olympus Optical Co Ltd 立体映像ディスプレイ装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01139507A (ja) 1987-11-25 1989-06-01 Hitachi Ltd ドライフラワ輸送容器
US5502481A (en) * 1992-11-16 1996-03-26 Reveo, Inc. Desktop-based projection display system for stereoscopic viewing of displayed imagery over a wide field of view
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
JPH07298307A (ja) * 1994-04-28 1995-11-10 Canon Inc 画像記録再生装置
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
GB9611938D0 (en) * 1996-06-07 1996-08-07 Philips Electronics Nv Stereo image generation
WO1998025413A1 (en) * 1996-12-04 1998-06-11 Matsushita Electric Industrial Co., Ltd. Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
JP3500056B2 (ja) * 1997-11-10 2004-02-23 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
WO1999030280A1 (en) * 1997-12-05 1999-06-17 Dynamic Digital Depth Research Pty. Ltd. Improved image conversion and encoding techniques
JP2000209614A (ja) * 1999-01-14 2000-07-28 Sony Corp 立体映像システム
AUPQ119799A0 (en) * 1999-06-25 1999-07-22 Dynamic Digital Depth Research Pty Ltd Ddc/3 image conversion and encoding techniques
US7161614B1 (en) * 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001218228A (ja) * 2000-02-01 2001-08-10 Canon Inc 立体画像撮影用光学系及びそれを用いた立体画像撮影装置
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
EP1185112B1 (en) * 2000-08-25 2005-12-14 Fuji Photo Film Co., Ltd. Apparatus for parallax image capturing and parallax image processing
KR20020077692A (ko) * 2001-04-02 2002-10-14 에이디아이 코퍼레이션 입체영상을 발생시키는 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0568268A (ja) * 1991-03-04 1993-03-19 Sharp Corp 立体視画像作成装置および立体視画像作成方法
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH09271043A (ja) * 1996-03-29 1997-10-14 Olympus Optical Co Ltd 立体映像ディスプレイ装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1489857A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482598B2 (en) 2005-03-18 2013-07-09 Ntt Data Sanyo System Corporation Stereoscopic image display apparatus, stereoscopic image displaying method and computer program product
KR101417024B1 (ko) 2007-11-22 2014-07-08 엘지이노텍 주식회사 카메라를 이용한 3d 영상 획득 방법
CN103636187A (zh) * 2011-08-30 2014-03-12 松下电器产业株式会社 摄像装置

Also Published As

Publication number Publication date
EP2357841B1 (en) 2015-07-22
EP2357841A3 (en) 2012-02-22
EP2357837A3 (en) 2012-02-22
EP1489857B1 (en) 2011-12-14
KR100812905B1 (ko) 2008-03-11
EP2357838A2 (en) 2011-08-17
EP2357835A3 (en) 2012-02-22
EP1489857A1 (en) 2004-12-22
EP2387248A3 (en) 2012-03-07
EP2362670A1 (en) 2011-08-31
KR20050004823A (ko) 2005-01-12
EP2357839A3 (en) 2012-02-29
EP2357840A3 (en) 2012-02-29
EP2357836A2 (en) 2011-08-17
EP2362670B1 (en) 2012-10-03
EP2357838B1 (en) 2016-03-16
EP2357840A2 (en) 2011-08-17
EP2387248A2 (en) 2011-11-16
EP2381691A3 (en) 2012-05-23
EP2357838A3 (en) 2012-02-22
CN1643939B (zh) 2010-10-06
EP2381691A2 (en) 2011-10-26
EP2357835A2 (en) 2011-08-17
EP2381691B1 (en) 2015-05-13
EP2357836A3 (en) 2012-03-07
EP2357839A2 (en) 2011-08-17
EP1489857A4 (en) 2007-07-25
EP2357836B1 (en) 2015-05-13
EP2357841A2 (en) 2011-08-17
EP2357837A2 (en) 2011-08-17
CN1643939A (zh) 2005-07-20

Similar Documents

Publication Publication Date Title
WO2003081921A1 (fr) Procede de traitement d&#39;images tridimensionnelles et dispositif
US8559703B2 (en) Method and apparatus for processing three-dimensional images
JP2004221700A (ja) 立体画像処理方法および装置
JP3749227B2 (ja) 立体画像処理方法および装置
JP3857988B2 (ja) 立体画像処理方法および装置
JP2003284093A (ja) 立体画像処理方法および装置
JP2004221699A (ja) 立体画像処理方法および装置
JP4118146B2 (ja) 立体画像処理装置
JP2003284095A (ja) 立体画像処理方法および装置
JP3702243B2 (ja) 立体画像処理方法および装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020047015105

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10949528

Country of ref document: US

Ref document number: 20038071592

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2003715473

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003715473

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020047015105

Country of ref document: KR