WO2004107764A1 - 画像表示装置及びプログラム - Google Patents

画像表示装置及びプログラム Download PDF

Info

Publication number
WO2004107764A1
WO2004107764A1 PCT/JP2004/007185 JP2004007185W WO2004107764A1 WO 2004107764 A1 WO2004107764 A1 WO 2004107764A1 JP 2004007185 W JP2004007185 W JP 2004007185W WO 2004107764 A1 WO2004107764 A1 WO 2004107764A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
fade
image data
eye
Prior art date
Application number
PCT/JP2004/007185
Other languages
English (en)
French (fr)
Inventor
Keiji Horiuchi
Yoshihiro Hori
Takatoshi Yoshikawa
Goro Hamagishi
Satoshi Takemoto
Ken Mashitani
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2003149881A external-priority patent/JP2004356772A/ja
Priority claimed from JP2003165043A external-priority patent/JP2005004341A/ja
Priority claimed from JP2003164599A external-priority patent/JP2005005828A/ja
Priority claimed from JP2003336222A external-priority patent/JP2005109568A/ja
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Priority to EP04745337A priority Critical patent/EP1628490A1/en
Priority to US10/557,804 priority patent/US20070236493A1/en
Publication of WO2004107764A1 publication Critical patent/WO2004107764A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing

Definitions

  • the present invention relates to an image display device and a program that enable an observer to perform stereoscopic vision, and are suitable for use, for example, when a fade-in or fade-out function is provided.
  • a stereoscopic video can be generated when this file is opened. Also, a method has been proposed in which two images are broadcast as one-channel images so that the receiver can perform stereoscopic viewing (see Patent Document 2). If a video file consisting of two videos is created, a stereoscopic video can be generated when this file is opened.
  • Patent Document 2 JP-A-10-174064
  • Patent Document 3 JP-A-7-170451
  • the present invention changes the parallax generated by the right-eye image and the left-eye image to produce a display effect in which the display object moves away during fade-out and approaches the display object during fade-in. It is a thing to tighten.
  • the invention according to claim 1 is an image display device that displays a right-eye image and a left-eye image on a display screen, wherein the right-eye image and the left-eye image are displayed on the display screen.
  • Display control means for controlling wherein the display control means controls the right-eye image and the right-eye image on the display screen so that the right-eye image and the left-eye image separate in a predetermined direction over time during a fade-out process.
  • a means for controlling the arrangement of the left-eye image is provided.
  • the invention according to claim 2 is the image display device according to claim 1, wherein the display control means is configured to make the right-eye image and the left-eye image have a regular size with the passage of time during the fade-out processing. It is characterized by further including a means for controlling to reduce from.
  • the invention according to claim 3 is the image display device according to claim 1 or 2, wherein an empty area is provided in the display area for the left-eye image and the display area for the right-eye image during the fade-out processing. When this occurs, the next image for the left eye or the image for the right eye is assigned to this empty area.
  • the invention according to claim 4 is an image display device that displays a right-eye image and a left-eye image on a display screen, wherein the display of the right-eye image and the left-eye image on the display screen is performed.
  • a means for controlling the arrangement of the left-eye image is provided.
  • the display control means is configured to set the right-eye image and the left-eye image to have a regular size with the lapse of time during the fade-in process. It is characterized by further including a means for controlling so as to enlarge the image.
  • the invention according to claim 6 is a program for providing a computer with a three-dimensional stereoscopic image display function of displaying a right-eye image and a left-eye image on a display screen, the program being provided on the display screen.
  • the display control process includes a display control process for controlling display of the right-eye image and the left-eye image, and the display control process causes the right-eye image and the left-eye image to separate in a predetermined direction as time passes during a fade-out process.
  • the method includes a process of controlling an arrangement of the right-eye image and the left-eye image on the display screen.
  • the invention according to claim 7 is the program according to claim 6, wherein the display control processing is performed such that the right-eye image and the left-eye image change from a regular size as time passes during the fade-out processing. It is characterized by further including a process of controlling to reduce.
  • the invention according to claim 8 is the program according to claim 6 or 7, wherein an empty area occurs in the display area for the left-eye image and the display area for the right-eye image during the fade-out processing. Allocating the next left-eye image or right-eye image to the empty area.
  • the invention according to claim 9 is a program for giving a computer a three-dimensional stereoscopic image display function of displaying a right-eye image and a left-eye image on a display screen.
  • Display control processing for controlling the display of the right-eye image and the left-eye image in the display control processing, wherein the right-eye image and the left-eye image from a predetermined direction over time during fade-in processing
  • the method further includes a process of controlling an arrangement of the right-eye image and the left-eye image on the display screen so as to be closer to each other.
  • the right-eye image and the left-eye image become regular sizes with time during the fade-in process. And a process of controlling the enlargement.
  • the present invention also includes one that provides a transition effect such that when a display object is managed as an object, the object gradually disappears from the screen or emerges on the screen for each object.
  • the present invention is an image display device for displaying, as a three-dimensional image, original image data in which a display target is managed as an object, and specifies an object to be fade-in or fade-out out of the objects.
  • a display means for displaying the generated stereoscopic image data.
  • the out-of-object designating means may be configured to include means for determining the context of each object, and specifying an object to be set as a fade-in or fade-out based on the result of the determination. it can.
  • the objects can be sequentially deleted from the foremost object.
  • the transition effect setting means in the present invention can be configured to set the transmittance according to the progress of an object designated as a fade-in or fade-out target.
  • the stereoscopic image data generating means according to the present invention thins out display pixels of the specified object according to the set transmittance, and fills the objects behind the pixels with respect to pixels remaining after the thinning out. It can be configured to fit in. With this configuration, for example, at the time of fade-out, the object to be erased can be gradually erased while the object behind the object gradually rises, and the stereoscopic effect and the sense of reality can be realized. It can provide a certain transition effect.
  • the color of the designated object can be made lighter or darker according to the progress of the transition effect. Thereby, the sense of presence at the time of fade-in or fade-out can be further improved.
  • the present invention can also be expressed as a program that gives the functions of the above-described device or each unit to a computer.
  • the following inventions each capture the present invention as a program.
  • the invention according to claim 14 is a program for providing a computer with a function of displaying, as a stereoscopic image, original image data in which a display target is managed as an object, wherein the object to be faded in or faded out of the object Out-of-object designation processing to specify the object to be converted, transition effect setting processing to set the transition effect outside the specified object, and generation of stereoscopic image data by incorporating the object with the transition effect and other objects And a display process for displaying the generated stereoscopic image data.
  • the object designating process determines a context of each object, and sets an object to be set for fade-in or fade-out based on a result of the determination. Is specified.
  • the transition effect setting process includes a process of setting a transmittance for the specified object
  • the stereoscopic image data generation process includes And a process of thinning out display pixels of the specified object in accordance with the set transmittance, and embedding the object data behind the pixels remaining after the thinning out.
  • the display plane is pseudo-rotated in the front-rear direction, whereby the currently displayed image disappears from the front surface to the back surface, and the image to be displayed next is output from the back surface to the front surface. Including manifestation.
  • the display plane in the predetermined rotation state is set as the stereoscopic viewpoint.
  • the geometric figure information when viewed from the viewpoint is obtained by arithmetic processing, or the geometric figure information for each viewpoint previously obtained by the arithmetic processing is read from the storage means, and the geometrical figure from each viewpoint is displayed as an image to be displayed. (The currently displayed image or the image to be displayed next) and combine them to form one displayed image.
  • the display plane changes every moment due to the pseudo rotation, and the image on the display plane is stereoscopically viewed. Therefore, it is possible to give the viewer a movement and a three-dimensional effect at the same time, and realize a fade-in / fade-out operation with a sense of realism due to a synergistic effect.
  • the invention according to claim 17 relates to an image display device, and when a display plane is pseudo-rotated in the front-rear direction, the visual plane power in a predetermined rotation state is assumed in advance.
  • Geometric figure providing means for providing geometric figure information that is sometimes viewed
  • image size changing means for changing the size of an image for each viewpoint according to the geometric figure information of the viewpoint
  • Display image generating means for generating a display image by synthesizing a viewpoint image.
  • the invention according to claim 18 is based on the image display device according to claim 17, wherein the image size changing means is configured to execute the processing when the image for each viewpoint is provided as image data for three-dimensional stereoscopic display. It is characterized in that image data for two-dimensional display is constructed from image data for each viewpoint, and an image for each viewpoint is obtained based on the image data for two-dimensional display.
  • the invention of claim 19 is the image display device according to claim 17 or 18, wherein the image of each viewpoint being displayed is targeted before the pseudo rotation angle reaches 90 °.
  • the processing by the image size changing means and the processing by the display image generating means are executed, and until the pseudo rotation angle reaches 90 ° force 180 °, the image of each viewpoint to be displayed next is targeted. It is characterized in that the processing by the image size changing means and the processing by the display image generating means are executed.
  • the geometric figure providing means associates the geometric figure information of each viewpoint with the rotation angle. And storing the geometric figure information of each viewpoint when the display plane is pseudo-rotated in the front-rear direction based on the geometric figure information stored in the storage means.
  • the invention of claim 21 is a program for providing an image display function to a computer, wherein the display plane in a predetermined rotation state is assumed in advance when the display plane is pseudo-rotated in the front-rear direction.
  • a geometric figure providing process for providing geometric figure information that is viewed when viewed from a viewpoint an image size changing process for changing the size of an image for each viewpoint according to the geometric figure information of the viewpoint,
  • image data for two-dimensional display is constructed from image data for the two-dimensional display, and an image for each viewpoint is acquired based on the image data for two-dimensional display.
  • the invention according to claim 23 is the program according to claim 21 or 22, wherein the image size is set to the image of each viewpoint being displayed until the pseudo rotation angle reaches 90 °. A change process and a display image generation process are performed, and the pseudo rotation angle is 90. Until the image reaches 180 °, the image size changing process and the display image generating process are performed for the image of each viewpoint to be displayed next.
  • the geometric figure providing process stores the geometric figure information of each viewpoint in association with the rotation angle. Wherein the geometric figure information of each viewpoint when the display plane is pseudo-rotated in the front-back direction is set based on the geometric figure information stored in the database.
  • the image display device of the present invention also includes the following processing as processing corresponding to “fade-in / fade-out”. That is, the image display device of the present invention is based on video data. Means for generating synthesized video data by synthesizing the pixel value of the currently displayed video data and the pixel value of the next display video data at a specified ratio in an image display device for driving a display; When switching from a stereoscopic video to another stereoscopic video, switching from a stereoscopic video to a stereoscopic video, or switching from a stereoscopic video to a stereoscopic video, the pixel value ratio of the current display video data is determined by a predetermined value. Display switching control means for designating the ratio so that the ratio gradually decreases over time and finally reaches 0%.
  • the image display device of the present invention changes the pixel value of the currently displayed video data to the pixel value of the next display video data in response to the image display device that drives the display based on the video data.
  • Means for switching from a stereoscopic video to another stereoscopic video, switching from a stereoscopic video to a stereoscopic video, or switching from a stereoscopic video to a stereoscopic video Display switching control means for designating switching pixels so that the ratio of the number of pixels of data gradually decreases over a predetermined period of time and finally reaches 0%.
  • the display switching control means is configured to designate the switching pixels so that a line-shaped or block-shaped area on the screen increases its width or number. You can.
  • switching from a stereoscopic image to another stereoscopic image switching from a stereoscopic image to a planar image, or switching from a stereoscopic image to a stereoscopic image is performed.
  • the switching is not instantaneous, but rather is performed gradually and the change in parallax becomes gradual, so that discomfort can be reduced.
  • the program of the present invention provides a computer for driving a display based on video data, and combining a pixel value of the currently displayed video data with a pixel value of the next displayed video data at a specified ratio.
  • the ratio is specified so that the pixel value ratio of the currently displayed video data gradually decreases over a predetermined period of time and finally reaches 0%, and the pixel value ratio functions as display switching control means. It is characterized.
  • the program of the present invention causes a computer to display on the basis of video data.
  • the ratio of the number of pixels of the currently displayed video data is gradually reduced over a predetermined period of time so that it finally becomes 0%.
  • a switching pixel is designated to function as display switching control means.
  • the computer functions as a means for designating the switching pixel so that the line-shaped or block-shaped area on the screen increases its width or number. , You can.
  • each object gradually disappears from the screen or a transition effect such that the object emerges on the screen is given to each object.
  • the synergistic effect of the powerful object transition effect and the stereoscopic effect can realize a realistic fade-in / fade-out operation.
  • switching from a stereoscopic video to another stereoscopic video, switching from a stereoscopic video to a planar video, or switching from a planar video to a stereoscopic video is performed gradually.
  • FIG. 1 shows a configuration of an image display device according to an embodiment of the present invention.
  • the image display device includes an input device 101, a command input unit 102, a control unit 103, an image processing unit 104, a display control unit 105, a display device 106, a storage unit 107, a development memory 108, and a graphic memory 109.
  • the input device 101 is provided with input means such as a mouse and a keyboard, and is used at the time of inputting commands such as "configuration of a reproduced image", a reproduction command, an image feed command, a fade-in command and a "fade-out command".
  • the command input unit 102 sends various commands input from the input device 101 to the control unit 103.
  • the control unit 103 controls each unit according to the input command transferred from the command input unit 102.
  • the image processing unit 104 processes the right-eye image data and the left-eye image data expanded in the expansion memory 108 in response to a command from the control unit 103, and displays image data constituting one screen. Generate data. Then, the generated display image data is stored in the graphic memory 109.
  • the display control unit 105 sends the image data stored in the graphic memory 109 to the display device 106 in response to a command from the control unit 103.
  • the display device 106 reproduces the image data received from the display control unit 105 on a display screen.
  • the storage unit 107 is a database that stores a plurality of image files, and each image file stores a predetermined number of still image data.
  • each still image data is composed of image data for the right eye and image data for the left eye for performing three-dimensional stereoscopic image display.
  • the expansion memory 108 is composed of a RAM (Random Access Memory), and the reproduction target still image data (the right eye image data and the left eye image data) read from the storage unit 107 by the image processing unit 104. Image data) is temporarily stored.
  • the graphic memory 109 is configured by a RAM, and sequentially stores the image data for three-dimensional stereoscopic display generated by the image processing unit 104.
  • the first still image data (the right-eye image data and the left-eye image data) among the still image data constituting the finale ) Is read by the image processing unit 104 and expanded on the expansion memory 108. Thereafter, the image processing unit 104 generates the right-eye image (R image) and the right-eye image (L image) such that the images of the right-eye image (L image) are arranged on the screen as shown in FIG. Data and The left-eye image data is mapped on the graphic memory 109.
  • R indicates a display area (pixel) of the right-eye image on the screen
  • L indicates a display area (pixel) of the left-eye image on the screen.
  • the assignment of the display area is determined according to the configuration of the three-dimensional filter. That is, when the display image is viewed through the three-dimensional filter 1, the right-eye image is projected to the viewer's right eye, and the left-eye image is projected to the viewer's left eye. A display area (pixels) for the image and the left-eye image is allocated.
  • the image data mapped on the graphic memory 109 is sent to the display device 106 by the display control unit 105 and reproduced on the display screen.
  • the right-eye image data and the left-eye image data of the next still image constituting the file are expanded on the development memory 108. Is opened and the same processing as described above is performed. Similarly, every time a feed command is input, the next image data for the right eye and the next image data for the left eye are developed on the development memory 108, and the above processing is executed. This allows the display device 10
  • Figure 3 shows the processing flow when a strong fade-out command is input.
  • DR1 and DL1 indicate the right-eye image data and the left-eye image data that are being reproduced and displayed, respectively
  • DR2 and DL2 are the right-eye image data and the left-eye image data that will be reproduced and displayed next, respectively. Indicates image data for use.
  • a shift amount SL is calculated from a preset fade-out speed (S101).
  • the shift amount SL refers to a shift amount when the right-eye image and the left-eye image are rearranged in a rightward and leftward direction from a position on the display screen, respectively.
  • the left-eye image data DL1 is mapped in the left image data area on the graphic memory 109 by shifting the shift amount to the left by the shift amount SL. (S102). Then, the data area for the left eye remaining after the mapping is The next left-eye image data DL2 to be displayed in the remaining area is mapped (S103).
  • the shift processing of the right-eye image data is similarly executed. That is, the right eye image data DL1 is mapped to the right image data area on the graphic memory 109 so as to be shifted rightward by the shift amount SL (S104). Then, the next right-eye image data DL2 to be displayed in the remaining area is mapped to the right-eye data area remaining after the mapping (S105).
  • the image data on the graphic memory 109 is transferred to the display device 106.
  • the image for the right eye and the image for the left eye are separated from each other by several pixels in the left and right direction, and the next image for the right eye and the image for the left eye are filled in the empty area created by the separation.
  • the inserted image is displayed on the display device 106 (S106).
  • Such processing can be easily realized, for example, by expressing how the shift amount changes with time by expressing the relationship between the time or the number of processing cycles and the shift amount by a function. .
  • FIG. 4 shows an example of image display during the above processing.
  • (A) shows the display state before the fade-out command is input
  • (b) shows the display state when the first processing cycle (S101 and S106) is executed after the fade-out command is input.
  • c) shows the display state when the second processing cycle is executed after the fade-out command is input, comparing the synthesized image, left-eye image (L image), and right-eye image (R image), respectively. This is shown.
  • the display of the next still image is omitted in the composite image of FIG.
  • the first processing cycle as shown in FIG. 6B is executed, the L image slides to the left by a few pixels, and an empty area (hatched area) is generated in the L image display area at the right end. .
  • the corresponding part of the next L image is embedded in this area.
  • the R image slides a few pixels to the right, and the corresponding part of the next R image is embedded in the left R image display area (hatched area).
  • the arrangement of the L image and the R image is further separated as shown in FIG. Also gets bigger. As a result, the same object on the L image and the R image is recognized as if it were further retracted in the depth direction.
  • the fade-out operation in which the next still image is gradually displayed while the still image being displayed is gradually retracted in the depth direction is executed.
  • the L image and the R image are slid in the left and right direction, but this is based on the premise that the L image and the R image are set to have a horizontal parallax. Therefore, if the parallax direction is, for example, the vertical or diagonal direction, the slide is performed in that direction. If the L image and the R image are moved in the same direction at the same time, they are moved while the parallax is maintained, so that the stereoscopic vision itself is not affected and only the variety of transition effects can be enhanced. .
  • FIG. 5 shows a processing flow when a fade-in command is input.
  • DR1 and DL1 are the right-eye image data and the left-eye image data that are being reproduced and displayed, respectively.
  • DR2 and DL2 indicate the right-eye image data and the left-eye image data to be reproduced and displayed next, respectively.
  • a shift amount SL is calculated from a preset fade-in speed (S111).
  • the shift amount SL refers to the amount of approach when the R image and the L image enter the right and left directions and the left, respectively, in the display screen.
  • the entry processing of the left-eye image data is completed as described above, the entry processing of the right-eye image data is similarly executed. That is, a free area corresponding to the shift amount SL is secured at the right end of the right image data area on the graphic memory 109 (S114). Then, the next left-eye image data DR2 is mapped to this empty area (S115). In the right image data area other than the empty area, the previous right eye image data DR1 is held as it is.
  • the image data on the graphic memory 109 is transferred to the display device 106.
  • an image in which the next L image and R image enter the displayed L image and R image by several pixels from the left and right directions is displayed on the display device 106 (S116).
  • the processing of SI 11 and SI 16 is executed until the R image and the L image are all displayed on the display screen (S117).
  • the processing flow in FIG. 5 is changed to return to S117 and S112.
  • the shift amount SL is reset when returning from S117 to S111. By doing so, a more active fade-in operation can be performed.
  • the amount of shift is This can be easily realized by expressing the relationship between time or the number of processing cycles and the shift amount by a function.
  • the next L image and R image enter the display screen with the parallax gradually narrowing, so that the next still image gradually pops forward. While doing so, it is possible to execute a fade-in operation that gradually enlarges the next still image.
  • the left and right images are slid in the left and right directions.
  • This is based on the premise that parallax in the horizontal direction is set for the L and R images. Therefore, if the parallax direction is, for example, the vertical or diagonal direction, the slide is performed from that direction. If the L image and the R image are moved in the same direction at the same time, they are moved while maintaining the parallax, so that the stereoscopic vision itself is not affected, and only the variety of transition effects is increased. Can be.
  • the still image at the time of fade-out includes a characteristic object in the center thereof, a force that can provide a smooth fade-out effect is obtained at a position shifted from the center of the still image at the time of fade-out.
  • the target object includes a typical object, the object is not projected to both the right and left eyes at the time of fade-out, so that the above-mentioned fade-out effect, that is, a display effect in which the object is pulled in the depth direction, is obtained. It is difficult to achieve.
  • FIG. 6 shows an image display example at the time of fade-out according to the present embodiment.
  • the left-eye image (L image) and the right-eye image (R image) are reduced at a predetermined reduction rate at the time of fade-out, and the boundary between the reduced images is displayed on the display screen.
  • the reduced image is slid left or right until it touches the boundary.
  • an effective fade-out operation can be realized even for a still image that does not include a characteristic object in the center.
  • the feeling of retraction in the depth direction can be further increased as compared with the case where they are simply separated.
  • FIG. 7 shows a processing flow during a strong fade-out operation.
  • DR1 and DL1 indicate the right-eye image data and the left-eye image data that are being reproduced and displayed, respectively
  • DR2 and DL2 are the right-eye image data and the left-eye image data that will be reproduced and displayed, respectively.
  • 3 shows image data for use.
  • the reduction scale and the positions of the L and R images are calculated from the preset fade-out speed (S201).
  • the arrangement positions of the L image and the R image are positions where the left boundary and the right boundary respectively contact the boundary of the display screen as described above.
  • the reduction ratio R is set as a reduction ratio for the displayed L image and R image.
  • the reduced left-eye image data DL1 is placed in an area corresponding to the L image arrangement position set in S201 in the left image data area on the graphic memory 109. It is mapped (S203). Then, the next left-eye image data DL2 to be displayed in the remaining area is mapped to the left-eye data area remaining after the mapping (S204).
  • mapping is performed to an area corresponding to the R image arrangement position set in S201 (S205). Then, the next right-eye image data DR2 to be displayed in the remaining area is mapped to the right-eye data area remaining after the mapping (S206).
  • the image data in the graphic memory 109 is transferred to the display device 106.
  • a composite image as shown in the uppermost part of FIG. 6B is displayed on the display device 106 (S207).
  • the processing cycle in S201 and S207 is executed for a predetermined number of cycles (S208).
  • S208 a predetermined number of cycles
  • next left-eye image data DL2 and right-eye image data DR2 are stored in the left-eye data area and the right-eye data area on the graphic memory 109. Only is mapped (S209). Then, the image data is transferred to the display device 106, and a composite image including only the next L image and R image is displayed on the display device 106 (S210).
  • the reduction rate R may be fixed to a value determined in advance, and if the fade-out effect is to be executed more actively, the reduction rate R may be set in each processing cycle (S201 to S207 above).
  • the reduction ratio R may be changed.
  • the arrangement position of the reduced L image and the R image may be set so that the boundary between the reduced L image and the R image is separated from the boundary of the display screen.
  • both the reduction ratio and the shift amount may be variably set. By combining the change in the reduction ratio and the change in the shift amount, more various fade-out processes can be realized.
  • the L image and the R image are slid in the left and right directions, but this is based on the premise that the L image and the R image are set to have a parallax in the horizontal direction. Therefore, if the parallax direction is, for example, the vertical or diagonal direction, the slide is performed in that direction.
  • the parallax direction is, for example, the vertical or diagonal direction
  • the slide is performed in that direction.
  • Fig. 8 shows a processing flow when a fade-in command is input.
  • the display screen at the time of the strong fade-in operation is opposite to that at the time of the fade-out operation in FIG. 7 described above, where the next left-eye image and right-eye image respectively touch the left and right boundaries with the display screen boundary. It will gradually expand in a state where it has been done.
  • the image size S and the layout positions of the L and R images are calculated from the preset fade-in speed (S211).
  • the arrangement positions of the L image and the R image are positions where the left boundary and the right boundary respectively contact the boundary of the display screen as described above.
  • the size of the arrangement area of the L image and the R image is set according to the size of the image size S.
  • the next image data DL2 for the left eye and the right eye The image data DR2 is processed to generate left-eye image data DL2 and right-eye image data DR2 of the image size S (S212).
  • the left-eye image data DL2 of the image size S is stored in the area corresponding to the L image arrangement position set in S211 in the left image data area on the graphic memory 109. It is mapped (S213).
  • the left-eye image data DL1 is held in the left-eye data area other than the area used at the time of the mapping.
  • the processing for arranging the image data for the left eye is completed as described above, the processing for arranging the image data for the right eye is similarly executed. That is, the right-eye image data DR2 having the image size S is mapped to an area corresponding to the arrangement position of the R image set in S211 in the right image data area on the graphic memory 109 (S214). . It should be noted that the right-eye image data DR1 is held as it is in the right image data area other than the area used for the mapping.
  • the image data on the graphic memory 109 is transferred to the display device 106.
  • a composite image in which the next L image and R image are reduced to a predetermined size and incorporated at the screen boundary position is displayed. Is displayed on the display 106 (S215).
  • the processing cycle from S211 to S215 is repeated until only the next L image and R image are displayed on the display screen (S216).
  • the image size S set in each processing cycle is enlarged by a predetermined ratio from the image size S one cycle before.
  • the arrangement area of the L image and the R image is enlarged accordingly, compared to one cycle before.
  • the parallax between the L image and the R image gradually decreases while the L image and the R image gradually increase. Compared to the case where the parallax between the images is simply reduced, the feeling of the still image jumping forward can be further increased. In addition, since the L image and the R image do not protrude from the screen, an effective fade-in operation can be realized even if a characteristic object is not included in the center of the still image.
  • both the enlargement ratio and the shift amount may be variably set. More various fade-in processes can be realized by combining the change in the enlargement ratio and the change in the shift amount.
  • the left and right images are slid in the left and right directions.
  • This is based on the premise that parallax in the horizontal direction is set for the L and R images. Therefore, if the parallax direction is, for example, vertical or diagonal, the directional force is slid. If the L image and the R image are moved in the same direction at the same time, they are moved while maintaining the parallax, so that the stereoscopic vision itself is not affected, and only the variety of transition effects is increased. Can be.
  • fade-out and fade-in processing unique to 3D stereoscopic display is realized by gradually changing the display position of L image and R image, and the reduction ratio and enlargement ratio.
  • Processing methods that have been used in the field of 2D display such as fade-out and fade-in, gradually darken or brighten, or gradually display images
  • the interocular distance is set in advance, and when calculating the shift amount in each processing cycle, the interocular distance is set so as not to exceed the interocular distance in the entire processing. If it exceeds, it is realized by a method such as making the shift amount zero at that time.
  • the present invention is applied to a so-called binocular image display device, but the present invention is also applied to an image display device having a larger number of photographing viewpoints. Applicable.
  • FIG. 9 shows an example of image display when the invention relating to the fade-out processing of FIG. 3 is applied to a four-eye image display device.
  • Figure (a) shows the image display state of each viewpoint before the fade-out command is input
  • Figure (b) shows the image display state of each viewpoint when the first processing cycle is executed after the fade-out command is input.
  • FIG. 7C shows the image display state of each viewpoint when the second processing cycle is executed after the fade command is input.
  • the slide amount (Sl, S2, S3, S4) per cycle for each viewpoint is set as follows.
  • the images at viewpoint 1 and viewpoint 4 disappear from the display screen before the images at viewpoint 2 and viewpoint 3. Therefore, if the viewer views the display screen from viewpoint 1 and viewpoint 2, for example, the image at viewpoint 1 disappears first, and thereafter, an effective fade-out operation cannot be realized. Therefore, when the image of viewpoint 1 disappears, the image of viewpoint 2 also disappears, and only the next image of viewpoint 1 and viewpoint 2 is displayed on the display screen. Bye, The same applies to the viewpoint 3 and viewpoint 4 images.
  • an image slide reverse to that at the time of the fade-out operation in Fig. 9 may be executed. Note that, as described above, the images at viewpoint 1 and viewpoint 4 disappear from the display screen before the images at viewpoint 2 and viewpoint 3 during fade-out. In the display screen, the image of point 3 precedes the images of point 1 and point 4
  • the image size in each processing cycle is gradually reduced. If you want to execute image processing. At this time, in each processing cycle, for example, the image size is set so that the boundary between the images of viewpoint 1 and viewpoint 4 is in contact with the boundary of the display screen. In this case, the images at viewpoints 2 and 3 are more slurried than the images at viewpoints 1 and 4. Since the id is delayed, its border will always be away from the border of the display screen.
  • an image slide process that is the reverse of that at the time of the strong fade-out operation may be performed. That is, the image of each viewpoint (the image to be faded in) may be slid in the opposite direction to the above and gradually enlarged while entering the display screen.
  • the slide processing of these four viewpoint images is performed by the display processing of the display image data by the image processing unit 104 and the mapping processing on the graphic memory 109, as in the embodiment of the two viewpoint image. Is done.
  • the storage unit 107 stores image data of each viewpoint. Then, the image data of each viewpoint is mapped to the viewpoint data area on the graphic memory 109 as it is or reduced to a predetermined size while being shifted by a predetermined amount. Thereby, the slide processing of the four viewpoint images is performed.
  • the image displayed after the fade-out is the next still image constituting the image file, but it is of course possible to use another background image.
  • the three-dimensional stereoscopic image display device can also be realized by adding the function shown in Fig. 1 to a personal computer or the like.
  • a program for performing the functions shown in FIG. 1 is downloaded to a personal computer via a disk or via the Internet.
  • the present invention can be abstracted as a program for providing such a function.
  • FIG. 10 shows a configuration of an image display device according to another embodiment.
  • the raw image data is CG (Computer Graphics) data
  • the CG data is traced from a preset viewpoint to generate three-dimensional image data.
  • the image display device includes an input device 201, a command input unit 202, a control unit 203, a format analysis unit 204, a transition effect control unit 205, a composite image generation unit 206, a display control unit 207, and a display.
  • the apparatus includes a device 208, a storage unit 209, a development memory 210, and a graphic memory 211.
  • the input device 201 includes input means such as a mouse and a keyboard, and is used for inputting commands such as "editing of the configuration of a reproduced image", a reproduction command, an image feed command, and a fade-in / fade-out command.
  • the command input unit 202 sends various commands input from the input device 201 to the control unit 203.
  • the control unit 203 controls each unit according to the input command transferred from the command input unit 202.
  • the format analysis unit 204 analyzes the CG data of the playback target image, and identifies the number of objects included in the image, the arrangement position of each object, the context between the objects, and the like. Then, the identification result is sent to the transition effect control unit 205 and the composite image generation unit 206. The details of the processing in the format analysis unit 204 will be described later.
  • the transition effect control unit 205 controls the execution of the transition effect process in response to the input of a fade-in / fade-out command from the input device 201.
  • the details of the processing in the transition effect control unit 204 will be described later.
  • the composite image generation unit 206 generates the left-eye image data and the right-eye image data developed by the CG data developed in the development memory 210, and maps them to the graphic memory 211. Further, when a transition effect command is input from the transition effect control unit 205, the image data for the left eye and the image data for the right eye to which the transition effect has been applied are generated, and these are stored in the graphic memory 211. The details of the process in the composite image generation unit 206 will be described later.
  • the display control unit 207 sends the image data stored in the graphic memory 211 to the display device 208 in response to a command from the control unit 203.
  • the display device 208 reproduces the image data received from the display control unit 207 on a display screen.
  • the storage unit 209 is a database that stores a plurality of image files. Stores a predetermined number of still image data.
  • each still image data is CG data in the present embodiment.
  • the development memory 210 is configured by a RAM (Random Access Memory), and has a storage unit 20.
  • RAM Random Access Memory
  • the graphic memory 211 is configured by a RAM, and sequentially stores the image data for three-dimensional stereoscopic display generated by the composite image generating unit 206.
  • FIG. 11 a method for defining an object using CG data and a process for arranging each object in a three-dimensional space will be described.
  • the figure shows the processing principle when arranging three objects AC in a three-dimensional space.
  • the objects A to C are individually defined by a contour on a three-dimensional coordinate axis as shown in the upper part of FIG. 11 and an attribute (pattern, color, etc.) of the contour surface.
  • Each object is placed in the three-dimensional space by positioning the origin of the coordinate axis of each object on the coordinate axis that defines the three-dimensional space as shown in the lower part of the figure.
  • the format analysis unit 204 determines the context of each object when viewing the three-dimensional space from a rough, predetermined stereoscopic viewpoint, using CG data that defines the outside of each object. Is analyzed and discriminated. Then, information on the context is sent to the transition effect control unit 205 and the composite image generation unit 206 together with information on the number of objects included in the image and the arrangement position of each object.
  • the synthetic image generation unit 206 traces the three-dimensional space from the viewpoint for the left eye (L) and the viewpoint for the right eye (R) as shown in FIG. Image) data and right Generates data for an ophthalmic image (R image). Then, the left-eye image (L image) and the right-eye image (R image) are arranged on the screen as shown in, for example, a partially enlarged view in the upper center of FIG.
  • the image data (image data for L) and the image data for right eye (image data for R) are mapped on the graphic memory 211.
  • R indicates the display area (pixels) of the right-eye image on the screen
  • L indicates the display area (pixels) of the left-eye image on the screen.
  • the assignment of the display area is determined according to the configuration of the three-dimensional filter. That is, when viewing the display image through the three-dimensional filter, the display area of the R image and the L image is set so that the R image is projected to the viewer's right eye and the L image is projected to the viewer's left eye. (Pixels) are assigned.
  • the composite image generation unit 206 performs a transparency process on the fade-in or fade-out target object specified by the transition effect control unit 205, and performs left-eye image data and right-eye image data.
  • FIG. 13 shows a process of generating left-eye image data.
  • FIG. 4A shows a state when the transmittance is not set in the sphere object
  • FIG. 4B shows a state when the sphere object is set to semi-transparent.
  • FIG. 4C shows a state in which the sphere object is set to be fully transparent.
  • the sphere object is semi-transparent, the sphere and the background thereof are traced according to the transmittance of the sphere object to generate L image data.
  • the transmittance of the sphere is set to 30%, 70% of the image data for the sphere (the pixels in the area are evenly thinned out) is obtained by tracing this sphere. The remaining 30% will be the image data obtained by tracing the object behind this sphere.
  • the image data of the background image is used.
  • the image data for L is generated by tracing only behind the sphere object at the time of tracing.
  • the R image data is generated by tracing the sphere and the background thereof in accordance with the transmittance of the sphere object. Also, when transmittance is set for other objects, L image data and R image data are generated by the same processing.
  • the first still image data (CG data) of the still image data constituting the finale is read out and stored in the development memory 210. Will be expanded to. Thereafter, the composite image generation unit 206 generates the right-eye image data and the left-eye image data from the read image data as described above. Then, the generated right-eye image data and left-eye image data are mapped on the graphic memory 211.
  • the image data mapped on the graphic memory 211 is sent to the display device 208 by the display control unit 207 and reproduced on the display screen. Thereafter, when a still image transmission command is input from the input device 201, the next still image data (CG data) constituting the file is expanded on the expansion memory 210, and the same processing as described above is performed. Be executed. Similarly, each time a feed command is input, the next still image data is developed on the development memory 210, and the above processing is executed. As a result, the still images constituting the file are sequentially displayed on the display device 208.
  • FIG. 14 shows a processing flow at the time of strong fade-out processing.
  • the transition effect control unit 205 determines whether the object existing on the screen and the L-viewpoint and the R-viewpoint based on the analysis result received from the format analysis unit 204.
  • the context of each object is extracted (S301).
  • the object located at the foremost position is set as a deletion target (S302). It should be noted that objects other than the object at the foremost position can also be set as objects to be deleted.
  • the transition effect control unit 205 sets the transmittance of the object to be erased (S303), and sends the transmittance and the identification information of the object to be erased to the composite image generating unit 206.
  • the composite image generation unit 206 transmits the transmittance and the identification information of the object to be deleted.
  • the three-dimensional space is traced from the L viewpoint, and L image data is generated (S304). At this time, all the unappeared objects are traced as all transparent. Then, the generated L image data is mapped to the L image data area on the graphic memory 211 (S305).
  • the three-dimensional space is traced from the R viewpoint to generate R image data (S306), and this is mapped to the R image data area on the graphic memory 211 (S307).
  • the mapping process on the graphic memory 211 is completed, the image data on the graphic memory 211 is transferred to the display device 208, whereby the composite image obtained by combining the L viewpoint image and the R viewpoint image is formed. It is reproduced and displayed on the display device 208 (S308). Thereafter, it is determined whether or not the object to be erased has been completely erased (transmittance 100%). If the object has not been completely erased, the process returns to S303, the transmittance is increased by one step, and the above processing is repeated. You.
  • Powerful S303 The processing of S308 is repeatedly executed until the object to be erased is completely erased (S309).
  • the object to be erased is completely erased, it is determined whether or not all the objects on the screen have been erased (S310). If NO, the process returns to S302, and a new object is set as the object to be erased.
  • the object to be erased is, for example, the object located closest to the foreground when viewed from the L and R viewpoints, among the objects remaining on the screen. Then, when all the objects on the screen have been erased, the fade-out processing ends (S310).
  • FIG. 15 shows a processing flow at the time of strong fade-in processing.
  • the transition effect control unit 205 determines whether the objects existing on the screen and the L and R viewpoints The context of each object is extracted (S321). Then, the object located at the innermost position is set as an appearance target (S322). It is also possible to set an object other than the object located at the innermost position as an appearance target. After that, the transition effect control unit 205 sets the transmittance of the appearance target object (S 323), and sends the transmittance and the identification information of the appearance target object to the composite image generation unit 206.
  • the composite image generation unit 206 traces the three-dimensional space from the L viewpoint based on the transmittance and the identification information of the appearance target object as described with reference to FIG. Then, image data for L is generated (S324). Then, the generated L image data is mapped to the L image data area on the digital memory 211 (S325). Similarly, the 3D space is traced from the R viewpoint to generate R image data (S326), and this is mapped to the R image data area on the graphic memory 211 (S327).
  • the mapping process on the graphic memory 211 is completed, the image data on the graphic memory 211 is transferred to the display device 208, whereby the composite image obtained by combining the L viewpoint image and the R viewpoint image is formed. It is reproduced and displayed on the display device 208 (S328). Thereafter, it is determined whether the object to be erased has completely appeared (transmittance 0%), and if not, the process returns to S323 to reduce the transmittance by one step and repeat the above processing.
  • Powerful S323 The processing of S328 is repeatedly executed until the object to appear completely appears (S329). Then, when the object to appear completely appears, it is determined whether or not all objects in the screen have appeared (S330). If NO, the process returns to S322, and a new object is set as the appearance object.
  • the object to appear is, for example, the object located at the innermost position when viewed from the L viewpoint and the R viewpoint, among objects not displayed on the screen. When all objects appear on the screen, the fade-in process ends (S330).
  • an object in each state can be stereoscopically viewed while erasing or appearing the objects in order, so that a realistic fade-out / fade-in operation can be realized.
  • the object is erased or appeared by thinning out the display pixels.
  • the color of the object to be erased or appeared can be changed by the transition effect. May be made lighter or darker depending on the degree of the darkness.
  • FIG. 16 shows a configuration of an image display device according to another embodiment.
  • the raw image data is MPEG data
  • the raw data includes a background image and the background image. It is assumed that an object to be incorporated in an image is prepared in advance and stored in the storage unit for each stereoscopic viewpoint.
  • the image display device includes an input device 201, a command input unit 202, a control unit 203, a decode processing unit 221, a transition effect control unit 222, a composite image generation unit 223, a display control unit 207, and a display device. 208, a storage unit 224, a development memory 210, and a graphic memory 211.
  • the configuration other than the decode processing unit 221, the transition effect control unit 222, the composite image generation unit 223, and the storage unit 224 is the same as the configuration in the above embodiment (see FIG. 10).
  • the decode processing unit 221 decodes the MPEG data of the image to be reproduced, and expands the decoded image data in the expansion memory 210. In addition, it extracts the number of objects included in the image, the arrangement position outside each object, the front-back relationship between the objects, and the like, and sends the extraction result to the transition effect control unit 222 and the composite image generation unit 223. The details of the processing in the decoding processing unit 221 will be described later.
  • the transition effect control unit 222 controls the execution of the transition effect process in response to the input of the fade-in / fade-out command from the input device 201. The details of the processing in the transition effect control unit 222 will be described later.
  • the composite image generation unit 223 generates left-eye image data and right-eye image data from the MPEG data expanded in the expansion memory 210, and maps these to the graphic memory 211. Further, when a transition effect command is input from the transition effect control unit 222, the image data for the left eye and the image data for the right eye to which the transition effect has been applied are generated and are mapped to the graphic memory 211. The details of the process in the composite image generation unit 223 will be described later.
  • the storage unit 224 is a database that stores a plurality of image files, and each image file stores a predetermined number of still image data.
  • each still image data is MPEG data, and is composed of image data for an L viewpoint and image data for an R viewpoint.
  • the image data for the L viewpoint and the image data for the R viewpoint each include a background and data (described later) relating to an object incorporated thereon.
  • FIG. 17 shows the processing when three objects AC are combined.
  • object area An area slightly wider than the object (hereinafter, referred to as "object area”) is set in the object AC as shown in FIG. Normally, the object area excluding the object is made transparent. That is, control information for making the object area excluding the object transparent is attached to each object.
  • the decoding processing unit 221 decodes the image data for the L viewpoint and the R viewpoint read from the storage unit 224, obtains the background image data and the object image data for each viewpoint, and decompresses them into a development memory. Expand to 210. At the same time, it extracts the contour information, attribute information, arrangement information, order information before and after, etc., and sends them to the transition effect control unit 222 and the composite image generation unit 223.
  • the synthetic image generating unit 223 synthesizes the background image of each viewpoint with the object based on the outline information, attribute information, arrangement information, and order information received from the decoding processing unit 221 ( It generates image data for the left eye (image data for L) and image data for the right eye (image data for R). Then, similar to the first embodiment, the images of the left-eye image (L image) and the right-eye image (R image) are arranged on the screen, for example, as shown in FIG. The image data for R and the image data for R are mapped on the graphic memory 211.
  • the composite image generation unit 223 controls the transition effect control unit.
  • FIG. 18 shows a mapping process of the L image data and the R image data. Note that FIG. 9 illustrates an example in which a transmission process (a transmittance of 50%) is set for the object B.
  • the degree of overlapping of the contours is detected based on the contour information, arrangement information, and information on the order of the front and rear of the objects A and B extracted by the decoding processing unit 221.
  • the object B is located ahead.
  • the area outside the outline of the object B since the area outside the outline of the object B is set to be transparent, the area outside the outline of the object area of the object B has priority over the image data of the object A behind it and is stored in the graphic memory 211. Is mapped. If the outline of the object B is not located in the area outside this outline, the image data of the background image is mapped to the graphic memory 211.
  • the image data of the object B is mapped on the graphic memory 211 with a priority of one pixel per two pixels.
  • the image data of the object A behind it is mapped to the remaining pixels.
  • the pixels to which the image data of the object B are assigned are set according to the transmittance of the object B. For example, if the transmittance of the object B is changed from 50% to 80%, the number of pixels for allocating the image data of the object B is changed to the ratio of one pixel to five pixels.
  • the first still image data among the still image data constituting the relevant file (the MPEG data for the L viewpoint and the R viewpoint) is read.
  • Image data (background image and object) for the L viewpoint and the R viewpoint obtained by this decoding are developed on the development memory 210.
  • the outline information, attribute information, arrangement information, and order information before and after each object extracted at the time of the decoding are transferred to the transition effect control unit 222 or 222. And is sent to the composite image generation unit 223.
  • the composite image generation unit 223 combines the background image data for the L viewpoint and the object image data for the R viewpoint based on the outline information, the attribute information, the arrangement information, and the order information. Generate L image data and R image data. Then, the generated L image data and R image data are mapped on the graphic memory 211.
  • the image data mapped on the graphic memory 211 is sent to the display device 208 by the display control unit 207, and reproduced on the display screen.
  • FIG. 19 shows a processing flow at the time of strong fade-out processing.
  • the transition effect control unit 222 extracts the objects existing on the screen and the context of each object based on the extraction information received from the decode processing unit 221 (S401). ). Then, the object located at the foremost position is set as a deletion target (S402). It should be noted that objects other than the object at the foremost position can be set as objects to be deleted.
  • the transition effect control unit 222 sets the transmittance of the object to be erased (S 403), and sends the transmittance and the identification information of the object to be erased to the composite image generating unit 223.
  • the composite image generation unit 223 generates image data for L as described above based on the transmittance and the identification information of the object to be deleted (S404). Then, the generated L image data is mapped to the L image data area on the graphic memory 211 (S405). Similarly, R image data is generated (S406), and this is mapped to the R image data area on the graphic memory 211 (S407).
  • the mapping process on the graphic memory 211 is completed, the image data on the graphic memory 211 is transferred to the display device 208, and the combined image obtained by combining the L viewpoint image and the R viewpoint image is thereby obtained. It is reproduced and displayed on the display device 208 (S408). After a while It is determined whether the object to be deleted has been completely erased (transmittance 100%). If it has not been completely erased, the process returns to S403, the transmittance is increased by one step, and the above processing is repeated.
  • S403 The processing of S408 is repeatedly executed until the object to be erased is completely erased (S409).
  • the object to be erased is completely erased, it is determined whether all the objects on the screen have been erased (S410). If NO, the process returns to S402, and a new object is set as an object to be erased.
  • the object to be deleted is, for example, the object at the foremost position among the objects remaining on the screen. Then, when all objects on the screen have been erased, the fade-out processing ends (S410).
  • FIG. 20 shows a processing flow at the time of strong fade-in processing.
  • the transition effect control unit 222 extracts the objects to be incorporated in the screen and the context of each object based on the extraction information received from the decode processing unit 221 (S421). ). Then, the object located at the innermost position is set as an appearance target (S422). Note that objects other than the object at the innermost position are set as appearance targets.
  • the transition effect control unit 222 sets the transmittance of the appearance target object (S423), and sends the transmittance and the identification information of the appearance target object to the composite image generation unit 223.
  • the composite image generation unit 223 generates L image data as described above based on the transmittance and the identification information of the appearance target object (S424). At this time, all unappeared objects are all transmitted. Then, the generated L image data is mapped to the L image data area on the graphic memory 211 (S425). Similarly, R image data is generated (S426), and this is mapped to the R image data area on the graphic memory 211 (S427).
  • the graphic memory 2 The image data on 11 is transferred to the display device 208, whereby a combined image obtained by combining the L viewpoint image and the R viewpoint image is reproduced and displayed on the display device 208 (S428). Thereafter, it is determined whether or not the appearance target object has completely appeared (transmittance 0%). If not, the process returns to S423, and the transmittance is reduced by one step, and the above processing is repeated.
  • S423 The processing of S428 is repeatedly executed until the object to appear completely appears (S429). Then, when the object to appear completely appears, it is determined whether or not all the objects have appeared on the screen (S430). If NO, the process returns to S402, and a new object is set as the appearance object.
  • the object to appear is, for example, the object at the innermost position among the objects not displayed on the screen. When all the objects appear on the screen, the fade-in process ends (S430).
  • an object in each state can be stereoscopically viewed while erasing or appearing the objects in order, so that a realistic fade-out / fade-in operation can be realized.
  • the object is erased or appeared by thinning out the display pixels.
  • the color of the object to be erased or appeared is set to the transmittance. May be made lighter or darker depending on the condition.
  • the present invention is applied to a so-called binocular image display device, but the present invention is applied to an image display device having a larger number of photographing viewpoints. Is also applicable.
  • the tracing process is executed by increasing the number of viewpoints.
  • MPEG data corresponding to the number of viewpoints is prepared in advance for each still image. Then, it is changed to be stored in the storage unit 224.
  • the three-dimensional stereoscopic image display device can also be realized by adding the functions of the configuration examples in each embodiment to a personal computer or the like.
  • a program for executing the function of each configuration example is downloaded to a personal computer via a disk or via the Internet.
  • the present invention can be abstracted as a program for providing such a function.
  • FIG. 21 shows a configuration of an image display device according to this embodiment.
  • the raw image data is assumed to be two-dimensional image data, and three-dimensional image data is generated from the two-dimensional image data.
  • the image display device includes an input device 301, a command input unit 302, a control unit 303, a transition effect control unit 304, a display plane generation unit 305, a parallax image generation unit 306, and a display control unit 307. , Display device 308, storage unit 309, development memory 310, and graphic memory 311.
  • the input device 301 includes input means such as a mouse and a keyboard, and is used for inputting commands such as "editing of the configuration of a reproduced image", a reproduction command, an image feed command, and a fade-in / fade-out command.
  • the command input unit 302 sends various commands input from the input device 301 to the control unit 303.
  • the control unit 303 controls each unit according to the input command transferred from the command input unit 302.
  • the transition effect control unit 304 controls the execution of the display plane rotation process in response to the input of the fade-in / fade-out command from the input device 301.
  • the display plane creation unit 305 obtains a geometric figure of the display plane when viewed from the left eye viewpoint and the right eye viewpoint according to the rotation angle input from the transition effect control unit 304. The processing in the display plane creation unit 305 will be described later in detail.
  • the parallax image generation unit 306 generates left-eye image data and right-eye image data from the two-dimensional image data expanded in the expansion memory 310, and maps them to the graphic memory 311. I do.
  • the left-eye image and the right-eye image are added to the left-eye geometric figure and the right-eye geometric figure input from the display plane creating unit 305.
  • the image data for the left eye and the image data for the left eye are compressed (non-linear or linear, even if they are shifted) to fit, and both compressed image data are mapped to the graphic memory 311. The processing at the time of the force and the effect of the transition will be described later in detail.
  • the display control unit 307 sends the image data stored in the graphic memory 311 to the display device 308 in response to a command from the control unit 303.
  • the display device 308 reproduces the image data received from the display control unit 307 on a display screen.
  • the storage unit 309 is a database that stores a plurality of image files, and each image file stores a predetermined number of still image data.
  • each still image data is data for displaying a two-dimensional image in the present embodiment.
  • the expansion memory 310 is configured by a RAM (Random Access Memory), and is used when temporarily storing still image data read out from the storage unit 309.
  • the graphic memory 311 is configured by a RAM, and sequentially stores image data for three-dimensional stereoscopic display generated by the parallax image generation unit 306.
  • the parallax image generation unit 306 When an image reproduction command of a predetermined file is input to the image display device, the first still image data among the still image data constituting the finale is read and expanded on the expansion memory 310. You. Thereafter, the parallax image generation unit 306 generates right-eye image data and left-eye image data from the read image data, and generates a right-eye image (R image) and a left-eye image (L image). The right-eye image data and the left-eye image data are arranged so that the images are arranged on the screen as shown in FIG.
  • the eye image data is mapped on the graphic memory 311.
  • R indicates a display area (pixel) of the right-eye image on the screen
  • L indicates a display area (pixel) of the left-eye image on the screen.
  • the assignment of the display area is determined according to the configuration of the three-dimensional filter. That is, when the displayed image is viewed through the three-dimensional filter, the R image is displayed on the viewer's right eye, and the L image is displayed on the viewer.
  • the display areas (pixels) of the R and L images are allocated so that the image is projected to the left eye of the viewer.
  • the image data mapped on the graphic memory 311 is sent to the display device 308 by the display control unit 307, and is reproduced on the display screen.
  • Such a geometric figure generation process is performed in such a manner that the left-eye viewpoint L and the right-eye viewpoint R are located in front of the display screen as shown in Fig. 23 (a) and at a position at a predetermined distance from the display screen. From this state, when the display screen is sequentially rotated by the angle ⁇ as shown in FIGS. 23 (b) and (c), and when viewed from the left-eye viewpoint L and the right-eye viewpoint R in each rotation state. The geometrical figure of the display plane is obtained by calculation.
  • the L image plane and the R image plane shown in Fig. 23 schematically show the shapes of geometric figures when the display plane is viewed from the left-eye viewpoint L and the right-eye viewpoint R, respectively. .
  • the L image plane and the R image plane have different shapes due to the parallax between the left eye viewpoint L and the right eye viewpoint R. Therefore, by applying the L image and the R image to the L image plane and the R image plane, respectively, a disparity is generated between the image projected to the left eye and the image projected to the left eye, and the image in the rotating state is generated. Will be viewed as stereoscopic.
  • the original image data (two-dimensional image data) is compressed by 1/2 in the horizontal direction to generate L image data and R image data.
  • the images of the generated L image data and R image data are The L image data and the R image data are compressed (or decompressed) in the vertical direction and the horizontal direction, respectively, so as to fit in the L image plane and the R image plane generated by the image plane creating unit 305.
  • the compressed L image data and R image data are mapped to corresponding positions of the L image data area and the R image data area on the graphic memory 311.
  • Fig. 24 schematically shows the original image data (upper part of the figure) compressed horizontally by 1Z2, and the lower part of Fig. 24 shows the L image generated in this manner.
  • 9 schematically shows a state in which data and image data for R are mapped on the graphics memory 311 so as to fit in the plane for L image and the plane for R image, respectively.
  • the L image plane and the R image plane are set to be maximum on the display plane.
  • the vertical length is the same as the vertical length of the image display area (the fourth system from the left in Fig. 24). Note that, since the vertical length of the portion that protrudes from the screen is not actually longer than the vertical length of the image display area, it may be cut off and displayed.
  • the magnification of the L image plane and the R image plane with respect to the original size (the size of the L image plane and the R image plane calculated according to Fig. 23) is the same. That is, when creating the L image plane and the R image plane in FIG. 24, the correspondence between the sizes of the L image plane and the R image plane in FIG. 23 is maintained.
  • the row with the maximum vertical length as a whole is the same as the vertical length of the image display area.
  • the planes for the L image and the plane for the R image are set so that the centers (rotation axes) in the vertical and horizontal directions coincide with each other.
  • the free space generated on the graphic memory 311 contains background image data (for example, data of a single color). Is mapped.
  • FIG. 25 shows a processing flow when a strong fade-in / fade-out command is input.
  • a fade-in / fade-out command is input, first, the two-dimensional image data of the still image to be played back is compressed in half in the horizontal direction, and the L image data and the R image data are separated. It is generated and expanded on the expansion memory 310 (S501). Also, the next still image The two-dimensional image data is read from the storage unit 309, and is compressed 1/2 in the horizontal direction to generate image data for L and image data for R, and is expanded on the expansion memory 310 (S502).
  • the rotation angle of the display plane is input from the transition effect control unit 304 to the display plane generation unit 305 (S503), and the L image plane and the R image plane (geometric figure information) corresponding to the rotation angle are displayed. This is calculated by the indicated plane generation unit 305 (S504).
  • the rotation angle of the display plane is set to be equal to the unit rotation angle in the first processing cycle, and then to be gradually increased as the processing cycle proceeds. At this time, if the speed of the fade-in / fade-out can be appropriately set, the unit rotation angle is in accordance with this speed. Further, the rotation angle may be changed for each processing cycle. As a result, the display effect at the time of fade-in / fade-out can be further improved.
  • the selected L image data and R image data are set so as to fit in the L image plane and the R image plane, respectively.
  • nonlinear compression is performed (S508).
  • the compressed L image data is mapped to the L image data area on the graphic memory 311 (S509), and the background image data (for example, a single color) is mapped to the L image data area remaining after the mapping. (S510).
  • the compressed R image data is mapped to the R image data area on the graphic memory 311 (S511), and the background image data is mapped to the R image data area remaining after the mapping (S512).
  • the image on the rotating display plane can be stereoscopically viewed while rotating the display plane in a simulated manner, a realistic fade-in / fade-out operation is realized. it can.
  • the display plane is pseudo-rotated in the horizontal direction.
  • the display plane may be rotated in various directions such as the vertical direction, the horizontal direction, or a combination thereof. obtain.
  • the display plane creating unit 305 performs an arithmetic process on the display plane in each rotation state according to the arithmetic processing principle of FIG. 23 to calculate the L image plane and the R image plane in each rotation state. I do.
  • the L image plane and the R image plane are calculated by the display plane creation unit 305.
  • the L image plane and the R image plane corresponding to the rotation angle are calculated and stored in advance, and during the fade-in / fade-out processing, the L image plane and the R image plane corresponding to the rotation angle of the processing cycle are used. May be read and used.
  • FIG. 26 shows a configuration example of the image display device in the case shown in FIG.
  • a geometric plane information storage unit 305a that stores an L image plane and an R image plane corresponding to the rotation angle is provided.
  • the display plane creating unit 305 reads the L image plane and the R image plane corresponding to the rotation angle input from the transition effect control unit 304 from the geometric plane information storage unit 305a, and reads them from the parallax image generation unit 306. Send to
  • FIG. 27 shows a fade-in / fade-out processing flow in the case of being strong. This processing flow is changed to S504 force 520 in the processing flow of FIG. Other processing, This is the same as the processing flow in FIG.
  • the still image data stored in the storage unit 309 is two-dimensional data.
  • three-dimensional still image data left eye image data and right
  • the image data for the eye may be stored in the storage unit 309.
  • L image data and R image data corresponding to a still image to be reproduced are read out from the storage unit 309 and expanded in the expansion memory 310.
  • the function of the parallax image generation unit 310 during normal reproduction is different from that of the above-described embodiment. That is, in this configuration, at the time of normal reproduction, the L image data and the R image data expanded in the expansion memory 310 are directly mapped to the corresponding areas on the dynamic memory 311. The process of generating the L image data and the R image data from the two-dimensional image data, which has been performed during the normal reproduction, is omitted.
  • the L image data and the R image data expanded in the expansion memory 310 are directly used as the L image plane.
  • a non-linear compression process may be performed so as to fit in the plane for the R image, and this may be mapped on the graphic memory 311.
  • these image data and R image data originally have a parallax corresponding to the display of the stereoscopic image, if this is directly applied to the L image plane and the R image plane, the influence of the original parallax will be obtained. Appears in a reproduced image, causing distortion in stereoscopic vision.
  • This distortion can be suppressed by providing the parallax image generation unit 306 with a function of eliminating the original parallax.
  • two-dimensional image data is generated from the L image data and the R image data developed in the development memory 310, and the two-dimensional image data is processed in the same manner as in the above-described embodiment. Reconstruct L image data and R image data.
  • FIG. 4 shows a fade-in / fade-out processing flow in the case of a strong and a weak.
  • S501 and S502 in the processing flow of FIG. 25 are changed to SS530 and S531.
  • the image data for L and the image data for R are generated from the two-dimensional image data force in S501 and S502, and the force that has been developed on the development memory 310 is as shown in FIG.
  • the processing flow first, in S530, the L image data and R image data of the next stereoscopic still image Is developed on the development memory 310 (the currently played L image data and R image data are already developed on the development memory 310 at the time of normal playback).
  • L image data and R image data for the still image currently being played back, and L image data to be played back next, from the L image data and R image data of Data and image data for R are reconstructed.
  • Other processing is the same as the processing flow of FIG. 25 described above.
  • the present invention is applied to a so-called binocular image display device, but the present invention is also applied to an image display device having a larger number of imaging viewpoints. Applicable.
  • FIG. 29 shows an example of generating a geometric figure when the present invention is applied to a four-eye image display device.
  • FIG. 29 (a) schematically shows a geometric figure when viewing the display plane from each viewpoint when the display plane is not rotated
  • FIG. 29 (b) shows the display plane by a predetermined amount. This is a schematic representation of the geometric figure when viewing the display plane from each viewpoint when rotated.
  • the background image Although a single color is used, other background images can of course be used.
  • the L image data area and the R image data area on the graphic memory 311 are allocated so that the L image plane and the R image plane are maximized on the display plane.
  • the method of allocating the L image data area and the R image data area on the memory 311 is not limited to this. For example, until the rotation angle reaches 90 ° (until the plane is switched from the front to the back), the L image plane is allocated.
  • the graphic memory 311 so that the planes for R and R images gradually become smaller on the display screen, and the planes for L and R images gradually increase on the display screen until the rotation angle reaches 90 ° and the force also reaches 180 °. It is OK to assign the data area for L image and the data area for R image above.
  • the present invention is applied to the display technique at the time of fade-in / fade-out.
  • the present invention can be applied to display techniques other than the fade-in / fade-out.
  • the present invention can be applied to a case where a display plane is pseudo-rotated in a three-dimensional space, or a display plane is pseudo-fixed diagonally in a three-dimensional space to give a special effect to image display. is there.
  • the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea of the present invention.
  • the three-dimensional stereoscopic image display device according to the present embodiment can also be realized by adding the functions of the configuration examples in each embodiment to a personal computer or the like.
  • a program for executing the function of each configuration example is mounted on a disk or downloaded to a personal computer via the Internet.
  • the present invention can be abstracted as a program for providing such a function.
  • FIG. 30 shows an example of the architecture of a personal computer (image display device).
  • CPU 1 is connected to North Bridge 2 with system control function and South Bridge 3 with interface functions such as PCI bus and ISA bus.
  • a video card 5 is connected to the north bridge 2 via a memory 4 and an AGP (Accelerated Graphics Port).
  • the South Bridge 3 has a USB (Universal Serial Bus) interface 6
  • a hard disk drive (HDD) 7 and a CD-ROM device 8 are connected.
  • HDMI Universal Serial Bus
  • FIG. 31 shows a general video card 5.
  • the VRAM (video memory) controller 5b controls writing / reading of drawing data to / from the VRAM 5a according to an instruction from the CPU 1 via the AGP.
  • the DAC (D / A converter) 5c converts the digital video data from the VRAM controller 5b into an analog video signal, and supplies this video signal to the personal computer monitor 12 via the video buffer 5d.
  • video display processing rendering processing
  • stereoscopic video display processing in which a right-eye video and a left-eye video are generated and these are alternately drawn in a vertical stripe shape can be performed.
  • the personal computer has a network connection environment and can receive a file (for example, a document file, mail, an HTML file, an XML file, and the like) from a transmission device configured as a server or the like on the Internet. . Further, in the personal computer, for example, by providing the monitor 12 with a liquid crystal barrier, it is possible to display both a two-dimensional image and a three-dimensional image. If the stereoscopic video is, for example, a right-eye video and a left-eye video alternately arranged in a vertical stripe, a vertical stripe-shaped light-shielding region is formed in the liquid crystal barrier under the control of the CPU 1.
  • a file for example, a document file, mail, an HTML file, an XML file, and the like
  • a stereoscopic video is to be displayed in a partial area on the screen (a window part for file playback or a partial video part in an HTML file)
  • the window and a part of the CPU 1 are displayed by the CPU 1. It is possible to control the size and the formation position of the vertical stripe-shaped light shielding area based on the display coordinates and the size of the image portion.
  • a normal barrier barrier stripes are fixedly formed at a predetermined pitch
  • the personal computer is equipped with word processing software and browser software (viewer), and can open a file and display an image on the monitor 12.
  • a personal computer generates synthesized video data by synthesizing the pixel value of the current display video data and the pixel value of the next display video data at a specified ratio, and generates a three-dimensional image.
  • the program is installed by specifying the ratio so that the pixel value ratio gradually decreases over a predetermined period of time and finally reaches 0%, and the CPU 1 executes processing based on the program. I do.
  • the VRAM controller 5b controls the writing of the combined R pixel value (drawing data) to the VRAM 5a and the reading for display in response to instructions from the CPU 1.
  • the writing of the combined R pixel value and the like into the VRAM 5a may be performed, for example, in an area corresponding to the upper horizontal line on the screen in an area that becomes the lower horizontal line in order, but is not limited to this.
  • FIG. 32 is a schematic diagram showing an example of switching images from a two-dimensional image (2D) to a three-dimensional image (3D). In the above process, it appears that the current display image gradually appears through (transparency) and the next display image is displayed.
  • the pixel value of the current display video data is changed to the pixel value of the next display video data for each pixel, and this changed pixel is selected at random or every predetermined number of pixels.
  • the current display image gradually becomes transparent (transparent), and the next display image is displayed.
  • the changed pixels are selected to be on the lower horizontal line in the order of the area force corresponding to the upper horizontal line on the screen, for example, a so-called wipe
  • the next display image appears to be displayed.
  • the CPU 1 designates a switching pixel so that the pixel number ratio of the currently displayed video data gradually decreases over a predetermined time (for example, 3 seconds) and finally reaches 0%. What is necessary is just to perform the process of drawing.
  • the CPU 1 performs a process of designating the switching pixel so as to increase the width or the number of the line-shaped or block-shaped area on the screen and draw the image. It may be executed.
  • the pixel value of the corresponding address on the VRAM 5a is rewritten to the pixel value of the next display image for a plurality of vertical lines arranged at predetermined intervals on the screen. Then, the pixel value of the corresponding address on the VRAM 5a is rewritten to the pixel value of the next display image so that the vertical line width expands horizontally, and the area of the current display image gradually decreases over a predetermined time. To be 0% finally.
  • the pixel value of the corresponding address on the VRAM 5a is rewritten to the pixel value of the next display video in the region that is the center on the screen. Then, a process of rewriting the pixel value of the corresponding address on the VRAM 5a to the pixel value of the next display image is performed so that the area expands vertically and horizontally, and the area of the current display image gradually decreases over a predetermined time. To finally reach 0%.
  • the pixel value of the corresponding address on the VRAM 5a is rewritten to the pixel value of the next display image for a plurality of regions having a predetermined vertical length that are arranged in a staggered manner on the screen. Then, a process of rewriting the pixel value of the corresponding address on the VRAM 5a to the pixel value of the next display image is performed so that each region expands horizontally, and the region of the current display image gradually decreases over a predetermined time. To be 0% finally.
  • the vertical line area at the left end on the screen corresponds to the corresponding address on VRAM5a. Pixel value of the next display image. Then, a process of rewriting the pixel value of the corresponding address on the VRAM 5a to the pixel value of the next display image is performed so that the vertical line width expands to the right and left, and the area of the current display image gradually takes a predetermined time. It is to be reduced to 0% finally.
  • a personal computer is used as an example.
  • the image display device is not limited thereto, and the image display device may be a digital broadcast receiving device capable of receiving a data broadcast (BML file) and displaying an image, or a network connection. It can also be configured as a mobile phone having an environment and image display function. Further, in the above example, stereoscopic viewing without glasses has been exemplified.However, the present invention is not limited to this, and for example, the left and right eye images alternately displayed by the liquid crystal shutter method are gradually combined with the next image described above. It's a thing to do.
  • FIG. 1 is a diagram showing a configuration of a three-dimensional stereoscopic image display device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a composite state of images according to the embodiment of the present invention.
  • FIG. 3 is a flowchart at the time of a fade-out operation according to the embodiment of the present invention.
  • Garden 4] is a diagram showing a display screen at the time of do-out processing according to the embodiment of the present invention.
  • Garden 5] is a flowchart at the time of do-in operation according to the embodiment of the present invention. It is a figure showing a display screen at the time of fade-out processing concerning an embodiment of the invention.
  • Garden 7] It is a flow chart at the time of a feed-out operation concerning an embodiment of the invention.
  • Garden 8] is a flowchart at the time of a do-in operation according to the embodiment of the present invention.
  • Garden 9] is a diagram showing a display screen at the time of the out-out processing according to the embodiment of the present invention.
  • FIG. 10 is a diagram showing a configuration of a three-dimensional stereoscopic image display device according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a method for synthesizing a CG image according to the embodiment of the present invention.
  • FIG. 12 is a diagram showing a method for generating image data of each viewpoint according to the embodiment of the present invention.
  • FIG. 13 is a diagram showing a method of generating image data of each viewpoint according to the embodiment of the present invention.
  • Garden 14] is a flowchart showing a process during a fade-out operation according to the embodiment of the present invention.
  • FIG. 16 is a diagram showing a configuration of a three-dimensional stereoscopic image display device according to an embodiment of the present invention.
  • FIG. 17 is a diagram illustrating a method for synthesizing an image according to the embodiment of the present invention.
  • FIG. 18 is a diagram showing a method of generating image data of each viewpoint according to the embodiment of the present invention.
  • Garden 19] is a flowchart showing a process during a fade-out operation according to the embodiment of the present invention.
  • FIG. 20 is a flowchart showing a process at the time of a fade-in operation according to the embodiment of the present invention.
  • FIG. 21 is a diagram showing a configuration of a three-dimensional stereoscopic image display device according to an embodiment of the present invention.
  • FIG. 22 is a diagram showing a composite state of images according to the embodiment of the present invention.
  • FIG. 23 is a diagram for explaining a generation process of a geometric figure according to the embodiment of the present invention.
  • FIG. 24 is a diagram for explaining image data compression processing according to the embodiment of the present invention.
  • Park 25] is a flowchart showing processing during a fade-in / fade-out operation according to the embodiment of the present invention.
  • FIG. 26 is a diagram showing a configuration of a three-dimensional stereoscopic image display device according to an embodiment of the present invention.
  • FIG. 29 is a diagram for describing a generation process of a geometric figure according to the embodiment of the present invention.
  • FIG. 30 is a block diagram showing an example of the architecture of a personal computer according to an embodiment of the present invention.
  • FIG. 31 is a block diagram showing a configuration example of a video card according to an embodiment of the present invention.
  • FIG. 32 is an explanatory diagram of image switching according to the embodiment of the present invention.
  • FIG. 33 is a diagram related to the embodiment of the present invention, and FIG. 33 (a) and FIG. 33 (b) are explanatory diagrams of image switching.

Abstract

【課題】 三次元画像表示の特殊性に鑑みた新たなフェードイン・フェードアウト機能等を提供する。【解決手段】 フェードアウト処理時、左眼用画像(L画像)を徐々に縮小させながら左方向にスライドさせる。また、右眼用画像(R画像)を徐々に縮小させながら右方向にスライドさせる。これにより、L画像とR画像間の視差が徐々に大きくなる。かかる画像を3Dフィルタ越しに見ると、静止画像上の表示対象物が次第に奥行き方向に引っ込んでいくように見える。さらに、L画像とR画像のサイズが次第に小さくなることにより、この引っ込み具合が増幅される。

Description

明 細 書
画像表示装置及びプログラム
技術分野
[0001] この発明は、観察者に立体視を行わせることができる画像表示装置及びプログラム に関し、例えば、フェードインまたはフェードアウト機能を付与する際に用いて好適な ものである。
背景技術
[0002] 立体視技術としては、従来よりパララックスバリアを用いる眼鏡無し立体視方法、偏光 眼鏡や液晶シャツタ眼鏡などを用いる眼鏡有り立体視方法などが知られている。また 、立体視させる映像についても、実写の映像だけでなぐコンピュータグラフィックスを 用レ、、仮想空間上に配置したオブジェクトを平面に投影して描画処理する 3D描画に よる映像がある。更には、前記描画処理を二視点において行なうことで、右眼映像と 左眼映像を作成することができる。また、 2次元映像信号から抽出された奥行き情報 と 2次元映像信号とに基づいて立体映像を生成する立体映像受信装置及び立体映 像システムが提案されている(特許文献 1参照)。 2次元映像と奥行き情報とからなる 映像ファイルを作成すれば、このファイルを開いたときに、立体映像を生成することが できる。また、二つの映像を 1チャンネルの映像として放送し、受信機側で立体視が 行なえる方法が提案されている(特許文献 2参照)。二つの映像からなる映像ファイル を作成すれば、このファイルを開いたときに、立体映像を生成することができる。
[0003] ところで、画像表示の分野では、いわゆるフェードイン'フェードアウトの機能がしばし ば採用されている。この機能は、画像やプログラムの切れ目に用いられることが多ぐ この機能によって視聴者の興味を駆り立てる等の特殊の表示効果が与えられる。
[0004] このフェードイン'フェードアウト機能は、二次元画像表示の分野においては、既に種 々の方式が検討 ·開発されている。たとえば、下記の特許文献 3には、徐々に拡大す る円形ワイプを用いて画像をフェードインさせる際に、円形ワイプの拡大を途中で一 且停止させ、これによりフェードイン時の表示効果をさらに高める技術が記載されて いる。 特許文献 1 :特開 2000 - 78611号公報
特許文献 2:特開平 10 - 174064号公報
特許文献 3 :特開平 7— 170451号公報
発明の開示
発明が解決しょうとする課題
[0005] し力 ながら、力かるフェードイン 'フェードアウト機能は、三次元画像表示の分野に おいては、これまであまり検討されていない。三次元画像表示における立体表示の 特殊性を利用したフェードイン 'フェードアウト機能を提供できれば、従来の二次元表 示におけるフェードイン 'フェードアウト機能を三次元画像表示にそのまま採用した場 合に比べ、視聴者の興味をさらに駆り立てることができる。三次元画像表示における 立体表示の特殊性を利用したフェードイン ·フェードアウト機能を提供できれば、より 効果的な画像遷移効果を提供できる。
[0006] そこで、本発明は、三次元画像表示の特殊性を利用した新たなフェードイン 'フエ一 ドアウト機能等を提供することを課題とするものである。
課題を解決するための手段
[0007] 本発明は、右眼用画像と左眼用画像によって生じる視差を変化させることによって、 フェードアウト時には表示対象物が遠ざかり、フェードイン時には表示対象物が近づ いてくるような表示効果を生ぜしめるものである。
[0008] 各請求項に係る発明の特徴はそれぞれ以下のとおりである。
[0009] 請求項 1の発明は、右眼用画像と左眼用画像とを表示画面上に表示する画像表示 装置において、前記表示画面上における前記右眼用画像と前記左目用画像の表示 を制御する表示制御手段を備え、この表示制御手段は、フェードアウト処理時に前 記右眼用画像と前記左目用画像が時間の経過とともに所定方向に離れるよう前記表 示画面上における前記右眼用画像と前記左目用画像の配置を制御する手段を含む ことを特徴とする。
[0010] 請求項 2の発明は、請求項 1に記載の画像表示装置において、前記表示制御手段 は、前記フェードアウト処理時に前記右眼用画像と左眼用画像が時間の経過とともに 正規の大きさから縮小するよう制御する手段をさらに含むことを特徴とする。 [0011] 請求項 3の発明は、請求項 1または 2に記載の画像表示装置において、前記フェード アウト処理時に前記左眼用画像の表示領域および前記右眼用画像の表示領域に空 き領域が生じたとき、この空き領域に次の左眼用画像または右眼用画像を割り当てる ことを特徴とする。
[0012] 請求項 4の発明は、右眼用画像と左眼用画像とを表示画面上に表示する画像表示 装置において、前記表示画面上における前記右眼用画像と前記左目用画像の表示 を制御する表示制御手段を備え、前記表示制御手段は、フェードイン処理時に前記 右眼用画像と前記左目用画像が時間の経過とともに所定方向から近づくよう前記表 示画面上における前記右眼用画像と前記左目用画像の配置を制御する手段を含む ことを特徴とする。
[0013] 請求項 5の発明は、請求項 4に記載の画像表示装置において、前記表示制御手段 は、前記フェードイン処理時に前記右眼用画像と左眼用画像が時間の経過とともに 正規の大きさへと拡大するよう制御する手段をさらに含むことを特徴とする。
[0014] 請求項 6の発明は、右眼用画像と左眼用画像とを表示画面上に表示する三次元立 体画像表示機能をコンピュータに付与するプログラムであって、前記表示画面上に おける前記右眼用画像と前記左目用画像の表示を制御する表示制御処理を含み、 前記表示制御処理は、フェードアウト処理時に前記右眼用画像と前記左目用画像が 時間の経過とともに所定方向に離れるよう前記表示画面上における前記右眼用画像 と前記左目用画像の配置を制御する処理を含むことを特徴とする。
[0015] 請求項 7の発明は、請求項 6に記載のプログラムにおいて、前記表示制御処理は、 前記フェードアウト処理時に前記右眼用画像と左眼用画像が時間の経過とともに正 規の大きさから縮小するよう制御する処理をさらに含むことを特徴とする。
[0016] 請求項 8の発明は、請求項 6または 7に記載のプログラムにおいて、前記フェードァゥ ト処理時に前記左眼用画像の表示領域および前記右眼用画像の表示領域に空き 領域が生じたとき、この空き領域に次の左眼用画像または右眼用画像を割り当てる 処理を含むことを特徴とする。
[0017] 請求項 9の発明は、右眼用画像と左眼用画像とを表示画面上に表示する三次元立 体画像表示機能をコンピュータに付与するプログラムであって、前記表示画面上に おける前記右眼用画像と前記左目用画像の表示を制御する表示制御処理を含み、 前記表示制御処理は、フェードイン処理時に前記右眼用画像と前記左目用画像が 時間の経過とともに所定方向から近づくよう前記表示画面上における前記右眼用画 像と前記左目用画像の配置を制御する処理を含むことを特徴とする。
[0018] 請求項 10の発明は、請求項 9に記載のプログラムにおいて、前記表示制御処理は、 前記フェードイン処理時に前記右眼用画像と左眼用画像が時間の経過とともに正規 の大きさへと拡大するよう制御する処理をさらに含むことを特徴とする。
[0019] また、本発明は、表示対象物がオブジェクトとして管理されている場合に、オブジェク ト毎に徐々に画面から消え去り、または画面上に浮き出てくるような遷移効果を提供 するものを含む。
[0020] すなわち、本発明は、表示対象物がオブジェクトとして管理されている原画像データ を立体画像として表示する画像表示装置であって、前記オブジェクトのうちフェードィ ンまたはフェードアウトの対象となるオブジェクトを指定するオブジェクト指定手段と、 指定されたオブジェクトに遷移効果を設定する遷移効果設定手段と、遷移効果が設 定されたオブジェクトおよびその他のオブジェクトを組み込んで立体画像データを生 成する立体画像データ生成手段と、生成された立体画像データを表示する表示手 段とを有することを特 ί数とするものである。
[0021] ここで、オブジェ外指定手段は、各オブジェ外の前後関係を判別し、この判別結果 に基づいてフェードインまたはフェードアウトの設定対象となるオブジェクトを指定す る手段を有する構成とすることもできる。これにより、たとえば、フェードアウト時に、最 も手前のオブジェクトから順番に消去することができる。
[0022] また、本発明における遷移効果設定手段は、フェードインまたはフェードアウトの対象 として指定されたオブジェクトに進行に応じた透過率を設定するよう構成することがで きる。このとき、本発明における立体画像データ生成手段は、設定された透過率に応 じて前記指定されたオブジェクトの表示画素を間引くと共に、間引き後に残った画素 に対してその背後にあるオブジェクトを坦め込むよう構成することができる。このように 構成すると、たとえばフェードアウト時に、消去対象のオブジェクトを徐々に消しなが ら、その背後にあるオブジェクトを徐々に浮き上がらせることができ、立体感と臨場感 のある遷移効果を提供できる。
[0023] また、上記の特徴に加え、遷移効果の進み具合に応じて、指定されたオブジェクトの 色を薄くするまたは濃くするようにすることもできる。これにより、フェードインまたはフ エードアウト時の臨場感をさらに向上させることができる。
[0024] なお、本発明は、上述した装置又は各手段の機能を、コンピュータに付与するプログ ラムとして表現することもできる。以下の発明は、それぞれ本発明をプログラムとして 捉えたものである。
[0025] 請求項 14の発明は、表示対象物がオブジェクトとして管理されている原画像データ を立体画像として表示する機能をコンピュータに付与するプログラムであって、前記 オブジェクトのうちフェードインまたはフェードアウトの対象となるオブジェクトを指定す るオブジェ外指定処理と、指定されたオブジェ外に遷移効果を設定する遷移効果 設定処理と、遷移効果が設定されたオブジェクトおよびその他のオブジェクトを組み 込んで立体画像データを生成する立体画像データ生成処理と、生成された立体画 像データを表示する表示処理とを有することを特徴とする。
[0026] 請求項 15の発明は、請求項 14のプログラムにおいて、前記オブジェクト指定処理は 、各オブジェクトの前後関係を判別し、この判別結果に基づいてフェードインまたはフ エードアウトの設定対象となるオブジェクトを指定する処理を含むことを特徴とする。
[0027] 請求項 16の発明は、請求項 14または 15のプログラムにおいて、前記遷移効果設定 処理は、前記指定されたオブジェクトに対して透過率を設定する処理を含み、前記 立体画像データ生成処理は、設定された透過率に応じて前記指定されたォブジェク トの表示画素を間引くと共に、間引き後に残った画素に対してその背後にあるォブジ ヱタトを埋め込む処理を含むことを特徴とする。
[0028] また、これらの処理に加え、遷移効果の進み具合に応じて、指定されたオブジェクト の色を薄くするまたは濃くする処理を含むようにすることもできる。これにより、フェード インまたはフェードアウト時の臨場感をさらに向上させることができる。
[0029] また、本発明は、表示平面を前後方向に擬似的に回転させ、これにより、現在表示 中の画像を表面から裏面へと消失させ、次に表示させる画像を裏面から表面へと出 現させることを含む。このとき、所定の回転状態にある表示平面を立体視用の視点か ら見たときの幾何図形情報を演算処理によって求め、あるいは、予め演算処理によつ て求めた各視点用の幾何図形情報を記憶手段から読み出し、かかる各視点からの 幾何図形に表示対象の画像(現在表示中の画像または次に表示する画像)を当て はめて合成し、一つの表示画像を構成するものである。
[0030] 力、かる表示画像を 3次元フィルタ一等を用いて見ると、擬似回転によって表示平面が 時々刻々と遷移すると共に、この表示平面上の画像が立体視される。よって、動きと 立体感を視聴者に同時に与えることができ、これらの相乗効果によって臨場感溢れ るフェードイン'フェードアウト動作を実現できる
[0031] 各請求項に係る発明の特徴はそれぞれ以下のとおりである。
[0032] 請求項 17の発明は、画像表示装置に関するものであって、表示平面を前後方向に 擬似的に回転させたとき、所定の回転状態にある前記表示平面を予め想定した視点 力 見たときに視覚される幾何図形情報を提供するための幾何図形提供手段と、各 視点用の画像を当該視点の前記幾何図形情報に応じてサイズ変更する画像サイズ 変更手段と、前記サイズ変更された各視点用画像を合成し表示用画像を生成する表 示用画像生成手段とを有することを特徴とする。
[0033] 請求項 18の発明は、請求項 17に記載の画像表示装置において、前記画像サイズ 変更手段は、前記各視点用の画像が 3次元立体表示用の画像データとして与えられ るとき、これら各視点用の画像データから 2次元表示用の画像データを構成し、この 2 次元表示用画像データに基づいて各視点用の画像を取得することを特徴とする。
[0034] 請求項 19の発明は、請求項 17または 18に記載の画像表示装置において、前記擬 似的な回転の角度が 90° に達するまでは、表示中の各視点の画像を対象として前 記画像サイズ変更手段による処理と表示用画像生成手段による処理を実行し、前記 擬似的な回転の角度が 90° 力 180° に達するまでは、次に表示される各視点の 画像を対象として前記画像サイズ変更手段による処理と表示用画像生成手段による 処理を実行することを特徴とする。
[0035] 請求項 20の発明は、請求項 17ないし 19の何れかに記載の画像表示装置において 、前記幾何図形提供手段は、各視点の幾何図形情報を前記回転角度に対応づけて 格納した記憶手段を備え、表示平面を前後方向に擬似的に回転させたときの前記各 視点の幾何図形情報を、前記記憶手段に格納された幾何図形情報に基づレ、て設定 することを特徴とする。
[0036] 請求項 21の発明は、画像表示機能をコンピュータに付与するプログラムであって、 表示平面を前後方向に擬似的に回転させたとき、所定の回転状態にある前記表示 平面を予め想定した視点から見たときに視覚される幾何図形情報を提供するための 幾何図形提供処理と、各視点用の画像を当該視点の前記幾何図形情報に応じてサ ィズ変更する画像サイズ変更処理と、前記サイズ変更された各視点用画像を合成し 表示用画像を生成する表示用画像生成処理とを有することを特徴とする。
[0037] 請求項 22の発明は、請求項 21に記載のプログラムにおいて、前記画像サイズ変更 処理は、前記各視点用の画像が 3次元立体表示用の画像データとして与えられると き、これら各視点用の画像データから 2次元表示用の画像データを構成し、この 2次 元表示用画像データに基づいて各視点用の画像を取得することを特徴とする。
[0038] 請求項 23の発明は、請求項 21または 22に記載のプログラムにおいて、前記擬似的 な回転の角度が 90° に達するまでは、表示中の各視点の画像を対象として前記画 像サイズ変更処理と表示用画像生成処理を実行し、前記擬似的な回転の角度が 90 。 から 180° に達するまでは、次に表示される各視点の画像を対象として前記画像 サイズ変更処理と表示用画像生成処理を実行することを特徴とする。
[0039] 請求項 24の発明は、請求項 21ないし 22の何れかに記載のプログラムにおいて、前 記幾何図形提供処理は、各視点の幾何図形情報を前記回転角度に対応づけて格 納したデータベースを含み、表示平面を前後方向に擬似的に回転させたときの前記 各視点の幾何図形情報を、前記データベースに格納された幾何図形情報に基づい て設定することを特徴とする。
[0040] なお、請求項 18又は 22における処理を一連の演算処理にて実行する場合、 2次元 表示用の画像データの生成過程を省略し、各視点用の画像が 3次元立体表示用の 画像データから直接各視点用の画像を取得するようにすることも可能である。
[0041] また、この発明の画像表示装置は、フェードイン'フェードアウトに相当する処理として 以下の処理も包含する。すなわち、この発明の画像表示装置は、映像データに基づ いてディスプレイを駆動する画像表示装置において、現在表示映像データの画素値 と次表示映像データの画素値とを指定された割合にて合成することにより合成映像 データを生成する手段と、立体視用映像から他の立体視用映像への切替、立体視 用映像から平面視用映像への切替、又は平面視用映像から立体視用映像への切替 に際し、前記現在表示映像データの画素値割合が所定時間かけて徐々に減少して 最終的に 0%となるように前記割合を指定していく表示切替制御手段と、を備えたこと を特徴とする。
[0042] また、この発明の画像表示装置は、映像データに基づいてディスプレイを駆動する画 像表示装置にぉレ、て、現在表示映像データの画素値を次表示映像データの画素値 に変更する手段と、立体視用映像から他の立体視用映像への切替、立体視用映像 から平面視用映像への切替、又は平面視用映像から立体視用映像への切替に際し 、前記現在表示映像データの画素数割合が所定時間かけて徐々に減少して最終的 に 0%となるように切替画素を指定していく表示切替制御手段と、を備えたことを特徴 とする。かかる構成において、前記表示切替制御手段は、画面上でライン状又はブ ロック状をなす領域がその幅又は個数を増大させるように前記切替画素を指定して レ、くように構成されてレ、てもよレ、。
[0043] これらの構成であれば、立体視用映像から他の立体視用映像への切替、立体視用 映像から平面視用映像への切替、又は平面視用映像から立体視用映像への切替が 瞬時的に行われるのではなぐ徐々に行われて視差の変化が緩やかになるので違和 感を軽減できる。
[0044] また、この発明のプログラムは、コンピュータを、映像データに基づいてディスプレイ を駆動する手段と、現在表示映像データの画素値と次表示映像データの画素値とを 指定された割合にて合成することにより合成映像データを生成する手段と、立体視用 映像から他の立体視用映像への切替、立体視用映像から平面視用映像への切替、 又は平面視用映像から立体視用映像への切替に際し、前記現在表示映像データの 画素値割合が所定時間かけて徐々に減少して最終的に 0%となるように前記割合を 指定してレ、く表示切替制御手段として機能させることを特徴とする。
[0045] また、この発明のプログラムは、コンピュータを、映像データに基づいてディスプレイ を駆動する映像表示手段と、現在表示映像データの画素値を次表示映像データの 画素値に変更する手段と、立体視用映像から他の立体視用映像への切替、立体視 用映像から平面視用映像への切替、又は平面視用映像から立体視用映像への切替 に際し、前記現在表示映像データの画素数割合が所定時間かけて徐々に減少して 最終的に 0%となるように切替画素を指定してレ、く表示切替制御手段として機能させ ることを特徴とする。また、かかる構成において、前記コンピュータを、画面上でライン 状又はブロック状をなす領域がその幅又は個数を増大させるように前記切替画素を 指定してレ、く手段として機能させるようになってレ、てもよレ、。
発明の効果
[0046] 以上、本発明によれば、三次元画像表示の特殊性を利用した新たなフェードイン 'フ エードアウト機能を提供することができる。また、本発明によれば、表示対象物がォブ ジェタトとして管理されている場合に、オブジェクト毎に徐々に画面から消え去り、また は画面上に浮き出てくるような遷移効果を与えながら、各オブジェクトに立体視効果 を付与することができる。力かるオブジェクトの遷移効果と立体視効果の相乗作用に より、臨場感溢れるフェードイン 'フェードアウト動作を実現できる。また、立体視用映 像から他の立体視用映像への切替、立体視用映像から平面視用映像への切替、又 は平面視用映像から立体視用映像への切替が徐々に行われ、視差の変化が緩や かになるので違和感を軽減できるという効果を奏する。
発明を実施するための最良の形態
[0047] 本発明の特徴は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、 以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明及び各 構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるもので はない。
[0048] 以下、本発明の実施の形態につき図面を参照して説明する。
[0049] まず、図 1にこの発明の実施の形態に係る画像表示装置の構成を示す。図示のとお り、画像表示装置は、入力装置 101、指令入力部 102、制御部 103、画像処理部 10 4、表示制御部 105、表示装置 106、記憶部 107、展開メモリ 108、グラフィックメモリ 109を備えている。 [0050] 入力装置 101は、マウス、キーボード等の入力手段を備え、再生画像の構成'編集 や、再生指令、画像送り指令、フェードイン 'フェードィアウト指令等の指令入力の際 に用いられる。指令入力部 102は、入力装置 101から入力された各種指令を制御部 103に送る。制御部 103は、指令入力部 102から転送された入力指令に応じて各部 を制御する。
[0051] 画像処理部 104は、制御部 103からの指令に応じて、展開メモリ 108に展開された 右眼用画像データと左目用画像データを処理し、一画面を構成する表示用画像デ ータを生成する。そして、生成した表示用画像データをグラフィックメモリ 109上にマ
[0052] 表示制御部 105は、制御部 103からの指令に応じて、グラフィックメモリ 109に格納さ れた画像データを表示装置 106に送る。表示装置 106は、表示制御部 105から受け 取った画像データを表示画面上に再生する。
[0053] 記憶部 107は、複数の画像ファイルを記憶するデータベースであり、各画像ファイル には、所定枚数の静止画画像データが格納されている。ここで、各静止画画像デー タは三次元立体画像表示を行うベぐ右眼用画像データと左眼用画像データから構 成されている。
[0054] 展開メモリ 108は、 RAM (Random Access Memory)にて構成されており、画像処理 部 104によって記憶部 107から読み出された再生対象の静止画画像データ(右眼用 画像データと左眼用画像データ)を一時記憶する際に用いられる。グラフィックメモリ 109は、 RAMにて構成されており、画像処理部 104にて生成された三次元立体表 示用の画像データを逐次記憶する。
[0055] 次に、上記画像表示装置の動作について説明する。まず、通常の再生動作につい て説明する。
[0056] 画像表示装置に対して所定ファイルの画像再生指令が入力されると、当該フアイノレ を構成する静止画画像データのうち先頭の静止画画像データ (右眼用画像データと 左眼用画像データ)が画像処理部 104によって読み出され展開メモリ 108上に展開 される。しかる後、画像処理部 104は、右眼用画像 (R画像)と左眼用画像 (L画像)の 画像がたとえば図 2に示す如くして画面上に配列されるように、右眼用画像データと 左目用画像データをグラフィックメモリ 109上にマッピングする。
[0057] なお、同図において、 Rは画面上における右眼用画像の表示領域(ピクセル)を示し 、 Lは画面上における左眼用画像の表示領域(ピクセル)を示す。かかる表示領域の 割り当ては、三次元フィルターの構成に応じて決定される。すなわち、三次元フィルタ 一を介して表示画像を見たときに、右眼用画像が視聴者の右眼に、また、左目用画 像が視聴者の左目に投影されるように、右眼用画像と左目用画像の表示領域 (ピク セル)が割り当てられる。
[0058] しかして、グラフィックメモリ 109上にマッピングされた画像データは、表示制御部 105 により表示装置 106に送られ、表示画面上に再生される。
[0059] その後、入力装置 101から静止画画像の送り指令が入力されると、当該ファイルを構 成する次の静止画の右眼用画像データと左眼用画像データが展開メモリ 108上に展 開され、上記と同様の処理が実行される。以下同様に、送り指令が入力される毎に次 の右眼用画像データと左眼用画像データが展開メモリ 108上に展開され、上記処理 が実行される。これにより、表示装置 10
6上に、当該ファイルを構成する静止画画像が順番に表示される。
[0060] 次に、フェードアウト処理時の動作について説明する。図 3に、力かるフェードアウト 指令入力時の処理フローを示す。なお、以下の説明において、 DR1および DL1は それぞれ再生表示中の右眼用画像データおよび左眼用画像データを示し、 DR2お よび DL2はそれぞれ次に再生表示される右眼用画像データおよび左眼用画像デー タを示す。
[0061] フェードアウト指令が入力されると、予め設定されたフェードアウト速度からずらし量 S Lが算出される(S101)。ここで、ずらし量 SLとは、右眼用画像および左眼用画像を 、表示画面中の位置からそれぞれ右方向、左方向にずらして再配置するときのずら し量のことをいう。このずらし量は、たとえばピクセル単位(SL = Nピクセル: Nは自然 数)で設定される。
[0062] このようにしてずらし量 SLが算出されると、ずらし量 SLだけ左方向にずらすようにし て、グラフィックメモリ 109上の左画像用データ領域に、左眼用画像データ DL1がマ ッビングされる(S102)。そして、マッピング後に残存した左眼用データ領域に、当該 残存領域に表示されるべき次の左眼用画像データ DL2がマッピングされる(S103)
[0063] このようにして、左眼用画像データのずらし処理が終了すると、同様に、右眼用画像 データのずらし処理が実行される。すなわち、ずらし量 SLだけ右方向にずらすように して、グラフィックメモリ 109上の右画像用データ領域に、右眼用画像データ DL1が マッピングされる(S104)。そして、マッピング後に残存した右眼用データ領域に、当 該残存領域に表示されるべき次の右眼用画像データ DL2がマッピングされる(S105
) o
[0064] しかして、グラフィックメモリ 109上のマッピング処理が終了すると、グラフィックメモリ 1 09上の画像データが表示装置 106に転送される。これにより、右眼用画像と左眼用 画像が通常時よりも左右方向に数ピクセルだけ離間し、さらにこの離間によって生じ た空き領域に次の右眼用画像と左眼用画像が坦め込まれた画像が、表示装置 106 上に表示される(S106)。
[0065] 上記 S101— S106の処理は、右眼用画像と左眼用画像が表示画面上から全て消え 去るまで実行される(S107)。なお、ずらし量 SLを固定とする場合、図 3の処理フロ 一は、 S107力ら S102に戻るよう変更される。図 3の処理フローでは、 S107力ら S10 1に戻ったときにずらし量 SLが再設定される。こうすることにより、よりアクティブなフエ ードアウト動作が実行可能となる。
[0066] たとえば、加速度的にずらし量を増加あるいは減少させれば、さらに高度なフェード アウト処理を実現できる。このような処理は、たとえば、時間が経過するとずらし量がど のように変化するかを、時間もしくは処理サイクルの回数とずらし量との関係を関数に よって表現しておくことで簡単に実現できる。
[0067] 図 4に上記処理時における画像表示例を示す。同図(a)はフェードアウト指令入力前 の表示状態を、同図(b)はフェードアウト指令が入力されたのち最初の処理サイクル (上記 S101 S106)が実行されたときの表示状態を、同図(c)はフェードアウト指令 が入力されたのち 2回目の処理サイクルが実行されたときの表示状態を、それぞれ合 成画像、左眼用画像 (L画像)および右眼用画像 (R画像)を対比しながら示すもので ある。なお、便宜上、同図の合成画像では、次の静止画の表示を省略してある。 [0068] 同図(b)に示す如ぐ最初の処理サイクルが実行されると、 L画像が左方向に数ピク セルだけスライドし右端の L画像表示領域に空き領域 (斜線ハッチ部分)が生じる。こ の領域には、次の L画像の該当部分が埋め込まれる。同様に、 R画像が右方向に数 ピクセルスライドし左端の R画像表示領域 (斜線ハッチ部分)に次の R画像の該当部 分が埋め込まれる。
[0069] この処理サイクルによって構成される同図(b)最上段の合成画像は、 L画像と R画像 の配置が、同図(a)の状態に比べ左右方向に離間している。このため、 L画像と R画 像間の視差が同図(a)のときよりも大きくなる。その結果、たとえば L画像と R画像上に おける同一対象物(同図では人影)力 同図(a)の表示時に比べ奥行き方向に引つ 込んだように認識されるようになる。
[0070] さらに、次の処理サイクルが実行されると、同図(c)に示すように、 L画像と R画像の配 置がさらに離間し、それに伴って、 L画像と R画像間の視差も大きくなる。その結果、 L 画像と R画像上における同一対象物は、さらに奥行き方向に引っ込んだように認識さ れる。
[0071] このように、上記図 3の処理フローによれば、表示中の静止画を奥行き方向に徐々に 引っ込ませながら、次の静止画が徐々に表示されるフェードアウト動作が実行される
[0072] なお、上記処理では、 L画像と R画像を左右方向にスライドさせたが、これは L画像と R画像に水平方向の視差が設定されている場合を前提としている。したがって、視差 方向がたとえば上下または対角線方向であれば、その方向にスライドさせることにな る。なお、 L画像と R画像を同時に同一方向に移動させた場合は、視差が維持された まま移動されるため、立体視そのものには影響を与えず、遷移効果の多様性のみが 高めること力できる。
[0073] 次に、フェードイン処理時の動作について説明する。なお、力、かるフェードイン動作 時の表示画面は、上記フェードアウト動作時とは逆に、次の左眼用画像 (L画像)と右 眼用画像 (R画像)が画面の左右から徐々に入り込んでくるというものである。
[0074] 図 5に、フェードイン指令入力時の処理フローを示す。なお、以下の説明において、 DR1および DL1はそれぞれ再生表示中の右眼用画像データおよび左眼用画像デ ータを示し、 DR2および DL2はそれぞれ次に再生表示される右眼用画像データお よび左眼用画像データを示す。
[0075] フェードイン指令が入力されると、予め設定されたフェードイン速度からずらし量 SL が算出される(S111)。ここで、ずらし量 SLとは、 R画像および L画像を、表示画面中 にそれぞれ右方向、左方向力、ら進入させるときの進入量のことをいう。このずらし量は 、たとえばピクセル単位(SL = Nピクセル: Nは自然数)で設定される。
[0076] このようにしてずらし量 SLが算出されると、このずらし量 SLに相当する空き領域が、 グラフィックメモリ 109上の左画像用データ領域の左端部に確保される(S112)。そし て、この空き領域に、次の左眼用画像データ DL2がマッピングされる(S113)。なお 、空き領域以外の左画像用データ領域には、先の左眼用画像データ DL1がそのま ま保持される。
[0077] このようにして、左眼用画像データの進入処理が終了すると、同様に、右眼用画像デ ータの進入処理が実行される。すなわち、上記ずらし量 SLに相当する空き領域がグ ラフィックメモリ 109上の右画像用データ領域の右端部に確保される(S114)。そして 、この空き領域に、次の左眼用画像データ DR2がマッピングされる(S115)。なお、 空き領域以外の右画像用データ領域には、先の右眼用画像データ DR1がそのまま 保持される。
[0078] しかして、グラフィックメモリ 109上のマッピング処理が終了すると、グラフィックメモリ 1 09上の画像データが表示装置 106に転送される。これにより、表示中の L画像と R画 像に対して次の L画像と R画像が左右方向から数ピクセルだけ進入した画像が、表 示装置 106上に表示される(S116)。
[0079] 上記 SI 11 SI 16の処理は、 R画像と L画像が表示画面上に全て表示されるまで実 行される(S117)。なお、ずらし量 SLを固定とする場合、図 5の処理フローは、 S117 力、ら S112に戻るよう変更される。図 5の処理フローでは、 S117力ら S111に戻ったと きに、ずらし量 SLが再設定される。こうすることにより、よりアクティブなフェードイン動 作が実行可能となる。
[0080] たとえば、加速度的にずらし量を増加あるいは減少させれば、さらに高度なフェード イン処理を実現できる。このような処理は、たとえば、時間が経過するとずらし量がど のように変化するかを、時間もしくは処理サイクルの回数とずらし量との関係を関数に よって表現しておくことで簡単に実現できる。
[0081] 力かる処理フローに従えば、視差が徐々に狭まるようにして次の L画像と R画像が表 示画面上に入り込んでくるものであるから、次の静止画を前方に徐々に飛び出させ ながら、次の静止画を徐々に大きく表示させるフェードイン動作を実行することができ る。
[0082] なお、上記処理では、 L画像と R画像を左右方向力 スライドさせた力 これは L画像 と R画像に水平方向の視差が設定されている場合を前提としている。したがって、視 差方向がたとえば上下または対角線方向であれば、その方向からスライドさせること になる。なお、 L画像と R画像を同時に同一方向に移動させた場合は、視差が維持さ れたまま移動されるため、立体視そのものには影響を与えず、遷移効果の多様性の みが高めることができる。
[0083] ところで、上記実施の形態においては、たとえば図 3のフェードアウト処理時に R画像 が右方向にスライドすると、このスライドによってはみ出した R画像の右端部分は画面 上に表示されない。同様に、 L画像が左方向にスライドすると、このスライドによっては み出した L画像の左端部分は画面上に表示されなレ、。したがって、フェードアウト時 に視聴者の右眼と左眼に同時に投影されるのは、一つの静止画を構成するパートの うち、はみ出した左端部分と右端部分を除いた中央部分のみとなる。
[0084] よって、フェードアウト時の静止画像がその中央部に特徴的な対象物を含む場合に は円滑なフェードアウト効果をあげることができる力 フェードアウト時の静止画像が その中央部からずれた位置に特徴的な対象物を含む場合には、フェードアウト時に その対象物が右眼と左眼の両方に同時に投影されなくなるため、上記フェードアウト 効果、すなわち、奥行き方向に対象物が引っぱり込まれるような表示効果が達成され 難くなる。
[0085] このことは、上記フェードイン処理においても同様で、次の静止画がその中央部に特 徴的な対象物を含まない場合には、効果的なフェードイン動作が実現されに《なる
[0086] そこで、以下の実施形態では、 L画像と R画像の全てが画面上に常に表示されるよう L画像と R画像を適正サイズに縮小した後、両画像を左右方向にスライドさせるように している。
[0087] 本実施の形態におけるフェードアウト時の画像表示例を図 6に示す。図示の如ぐ本 実施の形態では、フェードアウト時に所定の縮小率にて左眼用画像 (L画像)と右眼 用画像 (R画像)を縮小し、縮小後の各画像の境界が表示画面の境界に接するまで 縮小後の画像を左方向または右方向にスライドさせるようにしている。これにより、特 徴的な対象物を中央部に含まないような静止画に対しても、効果的なフェードアウト 動作を実現できる。また、縮小した上で離間させるものであるから、単に離間させる場 合に比べ、奥行き方向への引っ込み感をさらに増大させることができる。
[0088] 図 7に、力かるフェードアウト動作時の処理フローを示す。なお、以下の説明におい て、 DR1および DL1はそれぞれ再生表示中の右眼用画像データおよび左眼用画像 データを示し、 DR2および DL2はそれぞれ次に再生表示される右眼用画像データ および左眼用画像データを示す。
[0089] フェードアウト指令が入力されると、予め設定されたフェードアウト速度から縮小率尺と L画像、 R画像の配置位置が算出される(S201)。ここで、 L画像、 R画像の配置位置 は、上記の如ぐその左側境界および右側境界がそれぞれ表示画面の境界に接す る位置とされる。また、縮小率 Rは、表示中の L画像および R画像に対する縮小率とし て設定される。
[0090] このようにして、縮小率 Rと L画像、 R画像の配置位置が設定され
ると、次に、 S201にて算出された縮小率 Rを用いて、左眼用画像データ DL1と右眼 用画像データ DR1が縮小処理され、縮小後の左眼用画像データ DL1と右眼用画像 データ DR1が生成される(S202)。
[0091] し力、る後、縮小後の左眼用画像データ DL1が、グラフィックメモリ 109上の左画像用 データ領域のうち、上記 S201にて設定された L画像の配置位置に対応した領域に マッピングされる(S203)。そして、マッピング後に残存した左眼用データ領域に、当 該残存領域に表示されるべき次の左眼用画像データ DL2がマッピングされる(S204
[0092] このようにして、左眼用画像データのマッピング処理が終了すると、同様に、右眼用 画像データのマッピング処理が実行される。すなわち、縮小後の右眼用画像データ
DR1力 グラフィックメモリ 109上の右画像用データ領域のうち、上記 S201にて設定 された R画像の配置位置に対応した領域にマッピングされる(S205)。そして、マツピ ング後に残存した右眼用データ領域に、当該残存領域に表示されるべき次の右眼 用画像データ DR2がマッピングされる(S 206)。
[0093] しかして、両画像データのマッピング処理が終了すると、グラフィックメモリ 109上の画 像データが表示装置 106に転送される。これにより、図 6 (b)最上段に示すような合 成画像が表示装置 106上に表示される(S207)。
[0094] 上記 S201 S207の処理サイクノレは、予め決められたサイクル数だけ実行される(S 208)。これにより、図 6に示す如ぐ L画像と R画像が縮小されつつ次第に離間し、且 つ、余白部分に次の L画像と R画像が埋め込まれた合成画像が表示される。
[0095] 上記 S201 S207の処理サイクルが設定回数だけ繰り返されると、グラフィックメモリ 109上の左眼用データ領域と右眼用データ領域に、次の左眼用画像データ DL2と 右眼用画像データ DR2のみがマッピングされる(S209)。そして、この画像データが 表示装置 106に転送され、次の L画像と R画像のみからなる合成画像が表示装置 10 6上に表示される(S210)。
[0096] なお、縮小率 Rは、あら力じめ決められた値に固定してもよぐまた、フェードアウト効 果をよりアクティブに実行させる場合には、処理サイクル(上記 S201— S207)毎に 縮小率 Rを変更するようにしてもよい。また、縮小後の L画像および R画像の配置位 置は、上記の設定方法の他、縮小後の L画像および R画像の境界が表示画面の境 界から離れるに設定してもよい。
[0097] さらに、縮小率とずらし量の両方をそれぞれ可変に設定しても良い。縮小率の変化の 組み合わせと、ずらし量の変化の組み合わせにより、さらに多彩なフェードアウト処理 を実現できる。
[0098] なお、上記処理では、 L画像と R画像を左右方向にスライドさせたが、これは L画像と R画像に水平方向の視差が設定されている場合を前提としている。したがって、視差 方向がたとえば上下または対角線方向であれば、その方向にスライドさせることにな る。なお、 L画像と R画像を同時に同一方向に移動させた場合は、視差が維持された まま移動されるため、立体視そのものには影響を与えず、遷移効果の多様性のみが 高めること力 Sできる。
[0099] 図 8に、フェードイン指令入力時の処理フローを示す。なお、力かるフェードイン動作 時の表示画面は、上記図 7のフェードアウト動作時とは逆に、次の左眼用画像と右眼 用画像がそれぞれ左側境界と右側境界を表示画面の境界に接した状態で次第に拡 大してくるというものである。
[0100] フェードイン指令が入力されると、予め設定されたフェードイン速度から画像サイズ S と L画像、 R画像の配置位置が算出される(S211)。ここで、 L画像、 R画像の配置位 置は、上記の如ぐその左側境界および右側境界がそれぞれ表示画面の境界に接 する位置とされる。また、 L画像、 R画像の配置領域の大きさは、画像サイズ Sの大き さに応じたものに設定される。
[0101] このようにして画像サイズ Sと L画像、 R画像の配置位置が設定されると、次に、設定 された画像サイズ Sを用いて、次の左眼用画像データ DL2と右眼用画像データ DR2 が処理され、当該画像サイズ Sの左眼用画像データ DL2と右眼用画像データ DR2 が生成される(S212)。
[0102] しかる後、画像サイズ Sの左眼用画像データ DL2が、グラフィックメモリ 109上の左画 像用データ領域のうち、上記 S211にて設定された L画像の配置位置に対応した領 域にマッピングされる(S213)。なお、当該マッピング時に用いられた領域以外の左 画像用データ領域には、先の左眼用画像データ DL1がそのまま保持される。
[0103] このようにして、左眼用画像データの配置処理が終了すると、同様に、右眼用画像デ ータの配置処理が実行される。すなわち、画像サイズ Sの右眼用画像データ DR2が 、グラフィックメモリ 109上の右画像用データ領域のうち、上記 S211にて設定された R画像の配置位置に対応した領域にマッピングされる(S214)。なお、当該マツピン グ時に用レ、られた領域以外の右画像用データ領域には、先の右眼用画像データ D R1がそのまま保持される。
[0104] しかして、グラフィックメモリ 109に対するマッピング処理が終了すると、グラフィックメ モリ 109上の画像データが表示装置 106に転送される。これにより、次の L画像およ び R画像を所定サイズに縮小して画面の境界位置に組み込んだ合成画像が表示装 置 106上に表示される(S215)。
[0105] 上記 S211— S215の処理サイクノレは、表示画面上に次の L画像と R画像のみが表 示されるようになるまで繰り返される(S216)。それぞれの処理サイクルにて設定され る画像サイズ Sは、 1サイクル前の画像サイズ Sよりも所定の比率だけ拡大される。ま た、それに応じて、 L画像と R画像の配置領域も、 1サイクル前に比べ拡大される。
[0106] 従って、上記 S211 S215の処理サイクノレを,操り返す毎に、表示画面上における次 の L画像と R画像の大きさが次第に大きくなる。また、両画像の表示領域が左端部お よび右端部から中央部へと拡張し、両画像間の距離が次第に接近する。この結果、 両画像間の視差が次第に小さくなる。
[0107] このように、力かるフェードイン処理によれば、 L画像と R画像が次第に拡大しつつ、 両画像間の視差が次第に小さくなるから、上記図 5の処理フローの如く L画像と R画 像間の視差を単に減少させる場合に比べ、静止画像の前方への飛び出し感をさらに 増長させることができる。また、 L画像と R画像が画面からはみ出すことがないから、静 止画の中央部に特徴的な対象物が含まれていなくとも、効果的なフェードイン動作を 実現すること力できる。
[0108] さらに、拡大率とずらし量の両方をそれぞれ可変に設定しても良い。拡大率の変化の 組み合わせと、ずらし量の変化の組み合わせにより、さらに多彩なフェードイン処理 を実現できる。
[0109] なお、上記処理では、 L画像と R画像を左右方向力 スライドさせた力 これは L画像 と R画像に水平方向の視差が設定されている場合を前提としている。したがって、視 差方向がたとえば上下または対角線方向であれば、その方向力 スライドさせること になる。なお、 L画像と R画像を同時に同一方向に移動させた場合は、視差が維持さ れたまま移動されるため、立体視そのものには影響を与えず、遷移効果の多様性の みが高めることができる。
[0110] なお、以上は、 L画像と R画像の表示位置と縮小率および拡大率を徐々に変更させ ることで 3次元立体表示特有のフェードアウト、フェードイン処理を実現するものであ つたが、これまで 2次元表示の分野で用いられている処理手法、たとえばフェードァゥ ト、フェードイン時に、徐々に暗くするもしくは明るくする、あるいは、徐々に画像表示 用のピクセルを減少させるもしくは増加させるといった遷移処理を上記処理に組み合 わせることにより、さらに柔軟なフェードイン、フェードアウト処理を実現することができ る。
[0111] 以上説明したフェードアウト 'フェードイン処理ではずらし量を自由に設けたが、視差 が人間の眼間距離(およそ 65mm)を越えると立体視できないことからすれば、フエ一 ドアウト'フェードイン処理を全て立体視の範囲内で実行する場合には、左右の視差 が眼間距離を越えないようにずらし量を設定して、処理サイクルを実行する必要があ る。たとえば、前記眼間距離に相当するずらしを付けた位置からフェードイン処理を 開始するという工夫が必要となる。
[0112] しかし、縮小や拡大、および前記 2次元の遷移処理を併用させ、これらの処理を基準 にフェードアウト 'フェードイン処理を実行する場合は、十分に前記眼間距離内の視 差で 3次元立体表示のフェードアウト 'フェードイン処理を完了することができる。つま り、徐々に画像を縮小するフェードアウト処理において、画像が縮小して消えてしまえ ばフェードアウト処理は終了となるので、ずらし量で画像をずらす処理は付加的なも のと想定することができる場合には、必ずしも表示領域の端まで画像を移動させずに フェードアウト処理を終了させることもできる。
[0113] このようなフェードアウト処理は、眼間距離を予め設定しておき、処理サイクル毎のず らし量を計算する際に、全体の処理で眼間距離を越えないようにする、眼間距離を 越えるとその時点でずらし量をゼロとするなどの方法によって実現される。
[0114] ところで、上記実施の形態は、いわゆる 2眼用の画像表示装置に本発明を適用したも のであつたが、本発明は、これ以上の撮影視点数を持つ画像表示装置に対しても適 用可能である。
[0115] 一例として、 4眼用の画像表示装置に上記図 3のフェードアウト処理に係る発明を適 用した場合の画像表示例を図 9に示す。同図(a)はフェードアウト指令入力前におけ る各視点の画像表示状態を、同図(b)はフェードアウト指令が入力されたのち最初の 処理サイクルが実行されたときの各視点の画像表示状態を、同図(c)はフェードァゥ ト指令が入力されたのち 2回目の処理サイクルが実行されたときの各視点の画像表 示状態を示すものである。 [0116] 同図に示す如ぐ力かるフェードアウト動作時には、視点 1と視点 2の画像を左方向に スライドし、視点 3と視点 4の画像を右方向にスライドさせる。このとき、各視点におけ る 1サイクル毎のスライド量(Sl、 S2、 S3、 S4)を以下のように設定する。
[0117] S1 = S4 > S2 = S3 · · · (1) このように設定することにより、視点 1と視点 2の画像 間の距離 D 12、視点 2と視点 3の画像間の距離 D 23、視点 3と視点 4の画像間の距 離 D34は、処理サイクルを経るに従って徐々に大きくなる。よって、視聴者が、視点 1 と視点 2、視点 2と視点 3、視点 3と視点 4の何れの視点から表示画面を見ているかに 拘わらず、左眼に投影される画像と右眼に投影される画像間の視差は、フェードァゥ ト動作が進むに従って次第に大きくなる。その結果、上記図 3の処理フローと同様の フェードアウト効果が奏される。
[0118] なお、上記(1)のようにスライド量を設定すると、視点 1と視点 4の画像が視点 2と視点 3の画像よりも先に表示画面上から消滅することとなる。したがって、視聴者がたとえ ば視点 1と視点 2から表示画面を見ている場合には、視点 1の画像が先に消滅し、そ の後は有効なフェードアウト動作を実現できない。よって、力かる場合には、視点 1の 画像が消滅するタイミングにて視点 2の画像をも消滅させ、表示画面上には、次の視 点 1と視点 2の画像のみを表示させるようにすればよレ、。視点 3と視点 4の画像につい ても同様である。
[0119] フェードイン動作時には、図 9のフェードアウト動作時と逆の画像スライドを実行すれ ばよレ、。なお、上記のとおりフェードアウト時には視点 1と視点 4の画像が視点 2と視 点 3の画像よりも先に表示画面から消滅するので、これとは逆のフェードイン動作時 には、視点 2と視点 3の画像が視点 1と視点 4の画像に先行するように表示画面中に 進
入させる。
[0120] また、上記図 7のフェードアウト処理の如く画像サイズを徐々に縮小させる場合には、 上記図 9に示すようにスライド量を設定しながら、各処理サイクルにおける画像サイズ が徐々に小さくなるように画像処理を実行すればよレ、。このとき、各処理サイクルにお いて、たとえば視点 1と視点 4の画像の境界が表示画面の境界に接するように画像サ ィズを設定する。この場合、視点 2と視点 3の画像は、視点 1と視点 4の画像よりもスラ イドが遅れているため、その境界は、表示画面の境界から常に離れることになる。
[0121] このように画像処理を行うことにより、視聴者が、視点 1と視点 2、視点 2と視点 3、視点 3と視点 4の何れの視点から表示画像を見てレ、るかに拘わらず、左眼に投影される画 像と右眼に投影される画像間の視差がフェードアウト動作の進行に従って次第に大 きくなり、且つ、各視点の画像はフェードアウト動作が進むに従って次第に縮小され る。その結果、上記図 7の処理フローと同様のフェードアウト効果が奏される。
[0122] フェードイン動作時には、力かるフェードアウト動作時と逆の画像スライド処理を実行 すればよい。すなわち、各視点の画像 (フェードインさせる画像)を上記とは逆の方向 にスライドさせて表示画面中に進入させながら次第に拡大させればよい。
[0123] なお、これら 4視点画像のスライド処理は、上記 2視点画像に係る実施の形態と同様 、画像処理部 104による表示画像データの生成処理なレ、しグラフィックメモリ 109に 対するマッピング処理によって実行される。この場合、記憶部 107には各視点の画像 データが格納されている。そして、各視点の画像データを、グラフィックメモリ 109上 の各視点用データ領域に所定量だけずらしながら、そのまま、あるいは所定サイズに 縮小してマッピングする。これにより、上記 4視点画像のスライド処理が実行される。
[0124] 以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に 限定されるものではなぐ他に種々の変更が可能であることは言うまでもない。
[0125] たとえば、上記実施の形態では、フェードアウト後に表示される画像を、画像ファイル を構成する次の静止画像としたが、これ以外の背景画像とすることも勿論可能である
[0126] その他、本発明の実施の形態は、本発明の技術的思想の範囲内において、適宜、 種々の変更が可能である。
[0127] なお、本実施の形態に係る 3次元立体画像表示装置は、図 1の機能をパーソナルコ ンピュータ等に付与することによつても実現可能である。かかる場合、図 1の機能を実 行するためのプログラムが、ディスクの装着またはインターネット経由でパーソナルコ ンピュータにダウンロードされる。本願発明は、このような機能を付与するためのプロ グラムとしても抽象され得るものである。以下、本発明の実施の形態につき図面を参 照して説明する。 [0128] 図 10に、他の実施の形態に係る画像表示装置の構成を示す。なお、本実施の形態 では、素画像データは CG (Computer Graphics )データとし、この CGデータをあらか じめ設定した視点からトレースして 3次元画像データを生成するものとする。
[0129] 図示のとおり、画像表示装置は、入力装置 201、指令入力部 202、制御部 203、フォ 一マット解析部 204、遷移効果制御部 205、合成画像生成部 206、表示制御部 207 、表示装置 208、記憶部 209、展開メモリ 210、グラフィックメモリ 211を備えている。
[0130] 入力装置 201は、マウス、キーボード等の入力手段を備え、再生画像の構成'編集 や、再生指令、画像送り指令、フェードイン 'フェードアウト指令等の指令入力の際に 用いられる。指令入力部 202は、入力装置 201から入力された各種指令を制御部 2 03に送る。制御部 203は、指令入力部 202から転送された入力指令に応じて各部を 制御する。
[0131] フォーマット解析部 204は、再生対象画像の CGデータを解析し、当該画像中に含ま れるオブジェクトの数や各オブジェクトの配置位置、オブジェクト間の前後関係等を識 別する。そして、識別結果を遷移効果制御部 205および合成画像生成部 206に送る 。なお、フォーマット解析部 204における処理の詳細については追って説明する。
[0132] 遷移効果制御部 205は、入力装置 201からフェードイン 'フェードアウト指令が入力さ れたことに応じて、遷移効果処理を実行制御する。なお、遷移効果制御部 204にお ける処理の詳細については追って説明する。
[0133] 合成画像生成部 206は、展開メモリ 210に展開された CGデータ力 左眼用画像デ 一タと右眼用画像データを生成し、これをグラフィックメモリ 211にマッピングする。ま た、遷移効果制御部 205から遷移効果指令が入力されたとき、遷移効果が施された 左眼用画像データと右眼用画像データを生成し、これをグラフィックメモリ 211にマツ ビングする。なお、合成画像生成部 206における処理の詳細については追って説明 する。
[0134] 表示制御部 207は、制御部 203からの指令に応じて、グラフィックメモリ 211に格糸内さ れた画像データを表示装置 208に送る。表示装置 208は、表示制御部 207から受け 取った画像データを表示画面上に再生する。
[0135] 記憶部 209は、複数の画像ファイルを記憶するデータベースであり、各画像ファイル には、所定枚数の静止画画像データが格納されている。ここで、各静止画画像デー タは、本実施の形態では、 CGデータである。
[0136] 展開メモリ 210は、 RAM (Random Access Memory)にて構成されており、記憶部 20
9から読み出された静止画画像データを一時記憶する際に用いられる。グラフィックメ モリ 211は、 RAMにて構成されており、合成画像生成部 206にて生成された三次元 立体表示用の画像データを逐次記憶する。
[0137] 次に、フォーマット解析部 204におけるフォーマット解析処理および合成画像生成部
206における左眼用画像データおよび右眼用画像データの生成処理について説明 する。
[0138] まず、図 11を参照して、 CGデータによるオブジェクトの規定方法と、各オブジェクトを 3次元空間に配置する際の処理について説明する。なお、同図は 3つのオブジェクト A— Cを 3次元空間に配置する際の処理原理を示すものである。
[0139] オブジェクト A— Cは、図 11の上段に示す如ぐ 3次元座標軸上における輪郭と、この 輪郭表面の属性 (模様や色等)によって、それぞれ個別に規定されている。各ォブジ ェクトは、同図下段に示す如ぐ 3次元空間を規定する座標軸上に、各オブジェクトの 座標軸の原点を位置付けることによって、 3次元空間上に配置される。
[0140] なお、各オブジェクトの座標軸の原点が 3次元空間を規定する座標軸上のどの位置 に位置付けるかの情報は各オブジェクトの CGデータ中に含まれている。また、上記 各オブジェクトの輪郭と輪郭表面の属性に関する情報も CGデータ中に含まれている 。なお、上記以外の情報については、例えば X3D等の CG規格に示されており、ここ ではその説明を省略する。
[0141] 上記フォーマット解析部 204は、あら力、じめ決められた立体視用の視点から当該 3次 元空間を見たときの各オブジェクトの前後関係を、上記各オブジェ外を規定する CG データを解析して判別する。そして、この前後関係に関する情報を、当該画像中に含 まれるオブジェクトの数や各オブジェクトの配置位置に関する情報と共に、上記遷移 効果制御部 205と合成画像生成部 206に送る。
[0142] 通常再生時、合成画像生成部 206は、図 12に示す如ぐ当該 3次元空間を左眼用 視点 (L)および右眼用視点 (R)からトレースし、左眼用画像 (L画像)のデータと、右 眼用画像 (R画像)のデータを生成する。そして、左眼用画像 (L画像)と右眼用画像( R画像)の画像が、たとえば図 12上段中央の部分拡大図に示す如くして画面上に配 列されるように、左眼用画像データ (L用画像データ)と右目用画像データ (R用画像 データ)をグラフィックメモリ 211上にマッピングする。
[0143] なお、同図の部分拡大図中、 "R"は画面上における右眼用画像の表示領域(ピクセ ノレ)を示し、 "L"は画面上における左眼用画像の表示領域 (ピクセル)を示す。かかる 表示領域の割り当ては、三次元フィルターの構成に応じて決定される。すなわち、三 次元フィルターを介して表示画像を見たときに、 R画像が視聴者の右眼に、また、 L 画像が視聴者の左目に投影されるように、 R画像と L画像の表示領域 (ピクセル)が割 り当てられる。
[0144] フェードインまたはフェードアウト動作時、合成画像生成部 206は、遷移効果制御部 205から指示されたフェードインまたはフェードアウト対象のオブジェクトに透過処理 を施して、左眼用画像データと右目用画像データを生成する。
[0145] 図 13は、左眼用画像データの生成過程を示すものである。なお、同図(a)は球のォ ブジエタトに透過率が設定されていないときの状態を示し、同図(b)は球のオブジェク トが半透過に設定されているときの状態を示し、同図(c)は球のオブジェクトが全透過 に設定されてレ、るときの状態を示してレ、る。
[0146] 同図(a)では、球のオブジェクトに透過処理が施されないため、 L用画像データは通 常再生時と同じとなる。
[0147] 同図(b)では、球のオブジェクトが半透過であるため、球のオブジェクトの透過率に応 じて球とその背後をトレースして L用画像データが生成される。たとえば、球のォブジ ヱタトの透過率が 30%に設定されているとき、球の領域の L用画像データは、その 70 % (当該領域の画素を均等に間引く)がこの球をトレースして得られた画像データとな り、残りの 30%がこの球の背後にあるオブジェクトをトレースして得られた画像データ となる。なお、球の背後に他のオブジェクトが存在しないときは、背景画像の画像デ ータが用いられる。
[0148] 同図(c)では、球のオブジェクトが全透過であるため、トレース時、球のオブジェクトの 背後のみをトレースして L用画像データを生成する。 [0149] なお、 R用画像データも同様、球のオブジェクトの透過率に応じて球とその背後をトレ ースして R用画像データを生成する。また、その他のオブジェクトに透過率が設定さ れた場合も同様の処理により、 L用画像データと R用画像データを生成する。
[0150] 次に、上記画像表示装置の動作について説明する。まず、通常の再生動作につい て説明する。
[0151] 画像表示装置に対して所定ファイルの画像再生指令が入力されると、当該フアイノレ を構成する静止画画像データのうち先頭の静止画画像データ(CGデータ)が読み出 され展開メモリ 210上に展開される。しかる後、合成画像生成部 206は、読み出した 画像データから、上記の如くして、右眼用画像データと左眼用画像データを生成す る。そして、生成した右眼用画像データと左眼用画像データをグラフィックメモリ 211 上にマッピングする。
[0152] しかして、グラフィックメモリ 211上にマッピングされた画像データは、表示制御部 207 により表示装置 208に送られ、表示画面上に再生される。その後、入力装置 201から 静止画画像の送り指令が入力されると、当該ファイルを構成する次の静止画画像デ ータ(CGデータ)が展開メモリ 210上に展開され、上記と同様の処理が実行される。 以下同様に、送り指令が入力される毎に次の静止画画像データが展開メモリ 210上 に展開され、上記処理が実行される。これにより、表示装置 208上に、当該ファイルを 構成する静止画画像が順番に表示される。
[0153] 次に、フェードアウト処理時の動作について説明する。図 14に、力かるフェードアウト 処理時の処理フローを示す。フェードアウト指令が入力されると、まず、遷移効果制 御部 205は、フォーマット解析部 204から受け取った解析結果に基づいて、画面中 に存在するオブジェクトと、 L用視点および R用視点から見たときの各オブジェクトの 前後関係を抽出する (S301)。
そして、最も手前の位置にあるオブジェクトを消去対象として設定する(S302)。なお 、最も手前の位置にあるオブジェクト以外を消去対象として設定することもできる。
[0154] その後、遷移効果制御部 205は、消去対象のオブジェクトの透過率を設定し(S303 )、この透過率と、消去対象のオブジェクトの識別情報を合成画像生成部 206に送る 。これを受けて、合成画像生成部 206は、透過率と消去対象オブジェクトの識別情報 をもとに、上記図 13を参照して説明した如くして、 L用視点から当該 3次元空間をトレ ースし、 L用画像データを生成する(S304)。このとき、未出現のオブジェクトは、全て 、全透過としてトレースを行う。そして、生成した L用画像データをグラフィックメモリ 21 1上の L画像用データ領域にマッピングする(S305)。同様に、 R用視点から当該 3次 元空間をトレースして、 R用画像データを生成し(S306)、これを、グラフィックメモリ 2 11上の R画像用データ領域にマッピングする(S307)。
[0155] しかして、グラフィックメモリ 211上のマッピング処理が終了すると、グラフィックメモリ 2 11上の画像データが表示装置 208に転送され、これにより、 L視点画像と R視点画 像を合成した合成画像が表示装置 208上に再生表示される(S308)。しかる後、消 去対象のオブジェクトが完全に消去されたか (透過率 100%)が判別され、完全に消 去されていなければ、 S303に戻り、透過率を 1ステップ増大させて上記処理を繰り返 す。
[0156] 力力る S303— S308の処理は、消去対象のオブジェクトが完全に消去されるまで繰 り返し実行される(S309)。そして、消去対象のオブジェクトが完全に消去されると、 画面中の全てのオブジェクトを消去したかが判別され(S310)、 NOであれば、 S302 に戻り、新たなオブジェクトを消去対象に設定する。消去対象のオブジェクトは、たと えば、画面中に残っているオブジェクトの内、 L用視点および R用視点から見たときに 最も手前の位置にあるオブジェクトとされる。そして、画面中の全てのオブジェクトの 消去が完了すると、本フェードアウト処理が終了する(S310)。
[0157] 次に、フェードイン処理時の動作について説明する。なお、力かるフェードイン時の 処理は、上記フェードアウト処理時とは逆の手順を実行することによって実行される。
[0158] 図 15に、力かるフェードイン処理時の処理フローを示す。フェードイン指令が入力さ れると、まず、遷移効果制御部 205は、フォーマット解析部 204から受け取った解析 結果に基づいて、画面中に存在するオブジェクトと、 L用視点および R用視点から見 たときの各オブジェクトの前後関係を抽出する(S321)。そして、最も奥の位置にある オブジェクトを出現対象として設定する(S322)。なお、最も奥の位置にあるオブジェ 外以外を出現対象として設定することもできる。 [0159] その後、遷移効果制御部 205は、出現対象のオブジェクトの透過率を設定し(S323 )、この透過率と、出現対象のオブジェクトの識別情報を合成画像生成部 206に送る 。これを受けて、合成画像生成部 206は、透過率と出現対象オブジェクトの識別情報 をもとに、上記図 13を参照して説明した如くして、 L用視点から当該 3次元空間をトレ ースし、 L用画像データを生成する(S324)。そして、生成した L用画像データをダラ フィックメモリ 211上の L画像用データ領域にマッピングする(S325)。同様に、 R用 視点から当該 3次元空間をトレースして、 R用画像データを生成し (S326)、これを、 グラフィックメモリ 211上の R画像用データ領域にマッピングする(S327)。
[0160] しかして、グラフィックメモリ 211上のマッピング処理が終了すると、グラフィックメモリ 2 11上の画像データが表示装置 208に転送され、これにより、 L視点画像と R視点画 像を合成した合成画像が表示装置 208上に再生表示される(S328)。しかる後、消 去対象のオブジェクトが完全に出現したか (透過率 0%)が判別され、完全に出現し ていなければ、 S323に戻り、透過率を 1ステップ減少させて上記処理を繰り返す。
[0161] 力力る S323— S328の処理は、出現対象のオブジェクトが完全に出現するまで繰り 返し実行される(S329)。そして、出現対象のオブジェクトが完全に出現すると、画面 中の全てのオブジェクトが出現したかが判別され(S330)、 NOであれば、 S322に戻 り、新たなオブジェクトを出現対象に設定する。出現対象のオブジェクトは、たとえば 、画面中に未表示のオブジェクトの内、 L用視点および R用視点から見たときに最も 奥の位置にあるオブジェクトとされる。そして、画面中に全てのオブジェクトが出現す ると、本フェードイン処理が終了する(S330)。
[0162] 以上、本実施の形態によれば、オブジェクトを順番に消去または出現させながら、各 状態にあるオブジェクトを立体視できるので、臨場感溢れるフェードアウト'フェードィ ン動作を実現できる。
[0163] なお、上記実施の形態では、表示画素を間引いてオブジェクトを消去または出現さ せるようにしたが、これとは別に、または、これと共に、消去または出現対象のォブジ ヱタトの色を遷移効果の度合いに応じて薄くまたは濃くするようにしても良い。
[0164] 図 16に、他の実施の形態に係る画像表示装置の構成を示す。なお、本実施の形態 では、素画像データは MPEGデータとし、この素データには、背景画像と、この背景 画像に組み込まれるオブジェクトが、立体視用の視点毎に、予め準備され記憶部に 格納されているものとする。
[0165] 図示のとおり、画像表示装置は、入力装置 201、指令入力部 202、制御部 203、デ コード処理部 221、遷移効果制御部 222、合成画像生成部 223、表示制御部 207、 表示装置 208、記憶部 224、展開メモリ 210、グラフィックメモリ 211を備えている。こ のうち、デコード処理部 221、遷移効果制御部 222、合成画像生成部 223および記 憶部 224以外は上記の実施形態(図 10参照)における構成と同様である。
[0166] デコード処理部 221は、再生対象画像の MPEGデータをデコードし、デコード後の 画像データを展開メモリ 210に展開する。また、当該画像中に含まれるオブジェクトの 数や各オブジェ外の配置位置、オブジェ外間の前後関係等を抽出し、抽出結果を 遷移効果制御部 222及び合成画像生成部 223に送る。なお、デコード処理部 221 における処理の詳細については追って説明する。
[0167] 遷移効果制御部 222は、入力装置 201からフェードイン 'フェードアウト指令が入力さ れたことに応じて、遷移効果処理を実行制御する。なお、遷移効果制御部 222にお ける処理の詳細については追って説明する。
[0168] 合成画像生成部 223は、展開メモリ 210に展開された MPEGデータから左眼用画像 データと右眼用画像データを生成し、これをグラフィックメモリ 211にマッピングする。 また、遷移効果制御部 222から遷移効果指令が入力されたとき、遷移効果が施され た左眼用画像データと右眼用画像データを生成し、これをグラフィックメモリ 211にマ ッビングする。なお、合成画像生成部 223における処理の詳細については追って説 明する。
[0169] 記憶部 224は、複数の画像ファイルを記憶するデータベースであり、各画像ファイル には、所定枚数の静止画画像データが格納されている。ここで、各静止画画像デー タは、本実施の形態では、 MPEGデータであり、 L視点用の画像データと R視点用の 画像データから構成されている。なお、 L視点用の画像データと R視点用の画像デー タはそれぞれ背景とその上に組み込まれるオブジェクトに関するデータ(後述)から構 成されている。
[0170] 次に、デコード処理部 221におけるデコード処理および合成画像生成部 223におけ る左眼用画像データおよび右眼用画像データの生成処理について説明する。
[0171] まず、図 17を参照して、 MPEGデータによるオブジェクトの規定方法と、画像合成方 法について説明する。なお、同図は 3つのオブジェクト A— Cを合成する際の処理を 示すものである。
[0172] オブジェクト A Cには、図 17に示す如ぐオブジェクトよりもやや広めの領域(以下、 「オブジェクト領域」という)が設定されている。通常、オブジェクトを除いたオブジェクト 領域は透明とされる。すなわち、オブジェクトを除いたオブジェクト領域を透明とする ための制御情報がオブジェクト毎に付される。
[0173] 各オブジェクトには、この制御情報と共に、オブジェクト領域のサイズ情報、オブジェ 外の輪郭情報および当該オブジェ外の圧縮画像情報、オブジェ外輪郭外の領域 の属性情報 (透明、等)が付される。さらに、画面上におけるオブジェクト領域の配置 位置に関する情報と、オブジェ外の前後順位に関する情報が付される。
[0174] これらの情報は、各オブジェクトの MPEGデータ中に含まれている。なお、これら情 報およびこれら以外の情報のデータ構造 (フォーマット)については、 MPEG規格に 示されており、ここではその説明を省略する。
[0175] 上記デコード処理部 221は、記憶部 224から読み出した L視点用および R視点用の 画像データをデコードして、各視点用の背景画像データとオブジェクト画像データを 取得し、これを展開メモリ 210に展開する。同時に、上記輪郭情報、属性情報、配置 情報、前後順位情報等を抽出し、これを遷移効果制御部 222および合成画像生成 部 223に送る。
[0176] 通常再生時、合成画像生成部 223は、デコード処理部 221から受け取った輪郭情報 、属性情報、配置情報、前後順位情報をもとに、各視点の背景画像とオブジェクを合 成し (図 17参照)、左眼用画像データ (L用画像データ)と右目用画像データ (R用画 像データ)を生成する。そして、左眼用画像 (L画像)と右眼用画像 (R画像)の画像が 、上記第 1の実施形態と同様、たとえば図 12に示す如くして画面上に配列されるよう に、 L用画像データと R用画像データをグラフィックメモリ 211上にマッピングする。
[0177] フェードインまたはフェードアウト動作時、合成画像生成部 223は、遷移効果制御部
222から指示されたフェードインまたはフェードアウト対象のオブジェクトに対し透過 処理を施して、 L用画像データと R用画像データを生成し、グラフィックメモリ 211上に マッピングする。図 18に、 L用画像データと R用画像データのマッピング処理過程を 示す。なお、同図には、オブジェクト Bに対して透過処理 (透過率 50%)が設定されて レ、る場合を例示してある。
[0178] 同図に示す如ぐデコード処理部 221にて抽出されたオブジェクト Aとオブジェクト B の輪郭情報、配置情報および前後順位に関する情報をもとに、輪郭の重なり具合が 検出される。なお、同図では、オブジェクト Bの方が前方に位置している。上記の如く 、オブジェクト Bの輪郭外は透明に設定されているので、オブジェクト Bのオブジェクト 領域のうち、当該輪郭外の領域は、その背後にあるオブジェクト Aの画像データが優 先されグラフィックメモリ 211にマッピングされる。この輪郭外の領域にオブジェクト B の輪郭が配置されてレ、なければなければ、背景画像の画像データがグラフィックメモ リ 211にマッピングされる。
[0179] オブジェクト Aの輪郭とオブジェクト Bの輪郭の重なり部分は、 2画素に 1画素の割合 で、オブジェクト Bの画像データが優先されグラフィックメモリ 211上にマッピングされ る。残りの画素には、その背後にあるオブジェクト Aの画像データがマッピングされる
[0180] なお、オブジェクト Bの画像データが割り当てられる画素は、オブジェクト Bの透過率 に応じて設定される。たとえば、オブジェクト Bの透過率が 50%から 80%に変更され ると、オブジェクト Bの画像データを割り当てるための画素は、 5画素に 1画素の割合 に変更されることとなる。
[0181] 次に、上記画像表示装置
の動作について説明する。まず、通常の再生動作について説明する。
[0182] 画像表示装置に対して所定ファイルの画像再生指令が入力されると、当該フアイノレ を構成する静止画画像データのうち先頭の静止画画像データ (L視点用および R視 点用の MPEGデータ)が読み出されデコード処理部 221にてデコードされる。このデ コードによって得られた L視点用および R視点用の画像データ (背景画像とオブジェ タト)は、展開メモリ 210上に展開される。また、当該デコード時に抽出された各ォブ ジェ外の輪郭情報、属性情報、配置情報、前後順位情報が遷移効果制御部 222お よび合成画像生成部 223に送られる。
[0183] しかる後、合成画像生成部 223は、輪郭情報、属性情報、配置情報、前後順位情報 に基づレ、て、 L視点用および R視点用の背景画像データとオブジェクト画像データを 合成し、 L用画像データと R用画像データを生成する。そして、生成した L用画像デ ータと R用画像データをグラフィックメモリ 211上にマッピングする。
[0184] しかして、グラフィックメモリ 211上にマッピングされた画像データは、表示制御部 207 により表示装置 208に送られ、表示画面上に再生される。
[0185] その後、入力装置 201から静止画画像の送り指令が入力されると、当該ファイルを構 成する次の静止画画像データ(MPEGデータ)がデコードされ、上記と同様の処理が 実行される。以下同様に、送り指令が入力される毎に次の静止画画像データがデコ ードされ、上記処理が実行される。これにより、表示装置 208上に、当該ファイルを構 成する静止画画像が順番に表示される。
[0186] 次に、フェードアウト処理時の動作について説明する。図 19に、力かるフェードアウト 処理時の処理フローを示す。フェードアウト指令が入力されると、まず、遷移効果制 御部 222は、デコード処理部 221から受け取った抽出情報に基づいて、画面中に存 在するオブジェクトと、各オブジェクトの前後関係を抽出する(S401)。そして、最も手 前の位置にあるオブジェクトを消去対象として設定する(S402)。なお、最も手前の 位置にあるオブジェクト以外を消去対象として設定することもできる。
[0187] その後、遷移効果制御部 222は、消去対象のオブジェクトの透過率を設定し(S403 )、この透過率と、消去対象のオブジェクトの識別情報を合成画像生成部 223に送る 。これを受けて、合成画像生成部 223は、透過率と消去対象オブジェクトの識別情報 をもとに、上記の如くして、 L用画像データを生成する(S404)。そして、生成した L用 画像データをグラフィックメモリ 211上の L画像用データ領域にマッピングする(S405 )。同様に、 R用画像データを生成し(S406)、これを、グラフィックメモリ 211上の R画 像用データ領域にマッピングする(S407)。
[0188] しかして、グラフィックメモリ 211上のマッピング処理が終了すると、グラフィックメモリ 2 11上の画像データが表示装置 208に転送され、これにより、 L視点画像と R視点画 像を合成した合成画像が表示装置 208上に再生表示される(S408)。しかる後、消 去対象のオブジェクトが完全に消去されたか (透過率 100%)が判別され、完全に消 去されていなければ、 S403に戻り、透過率を 1ステップ増大させて上記処理を繰り返 す。
[0189] 力、力、る S403 S408の処理は、消去対象のオブジェクトが完全に消去されるまで繰 り返し実行される(S409)。そして、消去対象のオブジェクトが完全に消去されると、 画面中の全てのオブジェクトを消去したかが判別され(S410)、 NOであれば、 S402 に戻り、新たなオブジェクトを消去対象に設定する。消去対象のオブジェクトは、たと えば、画面中に残っているオブジェクトの内、最も手前の位置にあるオブジェクトとさ れる。そして、画面中の全てのオブジェクトの消去が完了すると、本フェードアウト処 理が終了する(S410)。
[0190] 次に、フェードイン処理時の動作について説明する。なお、力、かるフェードイン時の 処理は、上記フェードアウト処理時とは逆の手順を実行することによって実行される。
[0191] 図 20に、力かるフェードイン処理時の処理フローを示す。フェードイン指令が入力さ れると、まず、遷移効果制御部 222は、デコード処理部 221から受け取った抽出情報 に基づいて、画面中に組み込まれるオブジェクトと、各オブジェクトの前後関係を抽 出する(S421)。そして、最も奥の位置にあるオブジェクトを出現対象として設定する (S422)。なお、最も奥の位置にあるオブジェクト以外を出現対象として設定すること あでさる。
[0192] その後、遷移効果制御部 222は、出現対象のオブジェクトの透過率を設定し(S423 )、この透過率と、出現対象のオブジェクトの識別情報を合成画像生成部 223に送る 。これを受けて、合成画像生成部 223は、透過率と出現対象オブジェクトの識別情報 をもとに、上記の如くして、 L用画像データを生成する(S424)。このとき、未出現のォ ブジェクトは、全て、全透過とする。そして、生成した L用画像データをグラフィックメモ リ 211上の L画像用データ領域にマッピングする(S425)。同様に、 R用画像データ を生成し(S426)、これを、グラフィックメモリ 211上の R画像用データ領域にマツピン グする(S427)。
[0193] しかして、グラフィックメモリ 211上のマッピング処理が終了すると、グラフィックメモリ 2 11上の画像データが表示装置 208に転送され、これにより、 L視点画像と R視点画 像を合成した合成画像が表示装置 208上に再生表示される(S428)。しかる後、出 現対象のオブジェクトが完全に出現したか (透過率 0%)が判別され、完全に出現さ れていなければ、 S423に戻り、透過率を 1ステップ減少させて上記処理を繰り返す。
[0194] 力、力、る S423 S428の処理は、出現対象のオブジェクトが完全に出現するまで繰り 返し実行される(S429)。そして、出現対象のオブジェクトが完全に出現すると、画面 中に全てのオブジェクトが出現したかが判別され(S430)、 NOであれば、 S402に戻 り、新たなオブジェクトを出現対象に設定する。出現対象のオブジェクトは、たとえば 、画面中に未表示のオブジェクトの内、最も奥の位置にあるオブジェクトとされる。そし て、画面中に全てのオブジェクトが出現すると、本フェードイン処理が終了する(S43 0)。
[0195] 以上、本実施の形態によれば、オブジェクトを順番に消去または出現させながら、各 状態にあるオブジェクトを立体視できるので、臨場感溢れるフェードアウト 'フェードィ ン動作を実現できる。
[0196] なお、上記実施の形態では、表示画素を間引いてオブジェクトを消去または出現さ せるようにしたが、これとは別に、または、これと共に、消去または出現対象のォブジ ェタトの色を透過率に応じて薄くまたは濃くするようにしても良い。
[0197] ところで、上記実施の形態は、いわゆる 2眼用の画像表示装置に本発明を適用したも のであつたが、本発明は、これより多くの撮影視点数を持つ画像表示装置に対しても 適用可能である。かかる場合、図 10の構成に基づく実施形態では、視点を増加させ てトレース処理を実行し、また、図 16の構成に基づく実施形態では、静止画毎に視 点数に応じた MPEGデータを予め準備し記憶部 224に格納するよう変更されることと なる。
[0198] また、他に種々の変更が可能である。たとえば、上記実施の形態では、静止画フアイ ルを対象としてフェードイン'フェードアウトを行った力 動画ファイルを対象とすること も勿論可能である。動画ファイルの場合は、フレーム毎にオブジェクトの透過率を徐 々に変更させ、これにより画面からオブジェクトを消去させ、あるいは、画面上にォブ ジェタトを出現させるようにする。この処理は、動きの少ない画面表示に用いると効果 的である。その他、本発明の実施の形態は、本発明の技術的思想の範囲内におい て、適宜種々の変更が可能である。
[0199] なお、本実施の形態に係る 3次元立体画像表示装置は、各実施の形態における構 成例の機能をパーソナルコンピュータ等に付与することによつても実現可能である。 かかる場合、各構成例の機能を実行するためのプログラムが、ディスクの装着または インターネット経由でパーソナルコンピュータにダウンロードされる。本願発明は、この ような機能を付与するためのプログラムとしても抽象され得るものである。
[0200] 以下、本発明の他の実施の形態につき図面を参照して説明する。まず、図 21にこの 実施の形態に係る画像表示装置の構成を示す。なお、本実施の形態では、素画像 データは 2次元画像データとし、この 2次元画像データから 3次元画像データを生成 するものとする。
[0201] 図 21に示すとおり、画像表示装置は、入力装置 301、指令入力部 302、制御部 303 、遷移効果制御部 304、表示平面生成部 305、視差画像生成部 306、表示制御部 3 07、表示装置 308、記憶部 309、展開メモリ 310、グラフィックメモリ 311を備えている
[0202] 入力装置 301は、マウス、キーボード等の入力手段を備え、再生画像の構成'編集 や、再生指令、画像送り指令、フェードイン 'フェードアウト指令等の指令入力の際に 用いられる。指令入力部 302は、入力装置 301から入力された各種指令を制御部 3 03に送る。制御部 303は、指令入力部 302から転送された入力指令に応じて各部を 制御する。
[0203] 遷移効果制御部 304は、入力装置 301からフェードイン 'フェードアウト指令が入力さ れたことに応じて、表示平面回転処理を実行制御する。
[0204] 表示平面作成部 305は、遷移効果制御部 304から入力された回転角度に応じて左 眼視点および右眼視点から見たときの表示平面の幾何図形を求める。なお、表示平 面作成部 305における処理については追って詳述する。
[0205] 視差画像生成部 306は、展開メモリ 310に展開された 2次元画像データから左眼用 画像データと右眼用画像データを生成し、これをグラフィックメモリ 311にマッピング する。また、遷移効果制御部 304から遷移効果指令が入力されたとき、表示平面作 成部 305から入力された左眼用幾何図形と右眼用幾何図形に、左眼用画像と右眼 用画像が収まるように左眼用画像データと左眼用画像データを圧縮 (非線形又は線 形のレ、ずれでもよレ、)し、圧縮後の両画像データをグラフィックメモリ 311にマッピング する。なお、力、かる遷移効果時の処理については追って詳述する。
[0206] 表示制御部 307は、制御部 303からの指令に応じて、グラフィックメモリ 311に格糸内さ れた画像データを表示装置 308に送る。表示装置 308は、表示制御部 307から受け 取った画像データを表示画面上に再生する。
[0207] 記憶部 309は、複数の画像ファイルを記憶するデータベースであり、各画像ファイル には、所定枚数の静止画画像データが格納されている。ここで、各静止画画像デー タは、本実施の形態では、 2次元画像表示用のデータである。
[0208] 展開メモリ 310は、 RAM (Random Access Memory)にて構成されており、記憶部 30 9から読み出された静止画画像データを一時記憶する際に用いられる。グラフィックメ モリ 311は、 RAMにて構成されており、視差画像生成部 306にて生成された三次元 立体表示用の画像データを逐次記憶する。
[0209] 次に、上記画像表示装置の動作について説明する。まず、通常の再生動作につい て説明する。
[0210] 画像表示装置に対して所定ファイルの画像再生指令が入力されると、当該フアイノレ を構成する静止画画像データのうち先頭の静止画画像データが読み出され展開メモ リ 310上に展開される。しかる後、視差画像生成部 306は、読み出した画像データか ら右眼用画像データと左眼用画像データを生成し、右眼用画像 (R画像)と左眼用画 像 (L画像)の画像がたとえば図 22に示す如くして画面上に配列されるように、右眼 用画像データと左
目用画像データをグラフィックメモリ 311上にマッピングする。
[0211] なお、図 22において、 "R"は画面上における右眼用画像の表示領域(ピクセル)を示 し、 "L"は画面上における左眼用画像の表示領域 (ピクセル)を示す。かかる表示領 域の割り当ては、三次元フィルターの構成に応じて決定される。すなわち、三次元フ ィルターを介して表示画像を見たときに、 R画像が視聴者の右眼に、また、 L画像が 視聴者の左目に投影されるように、 R画像と L画像の表示領域(ピクセル)が割り当て られる。
[0212] しかして、グラフィックメモリ 311上にマッピングされた画像データは、表示制御部 307 により表示装置 308に送られ、表示画面上に再生される。
[0213] その後、入力装置 301から静止画画像の送り指令が入力されると、当該ファイルを構 成する次の静止画の静止画画像データが展開メモリ 310上に展開され、上記と同様 の処理が実行される。以下同様に、送り指令が入力される毎に次の静止画画像デー タが展開メモリ 310上に展開され、上記処理が実行される。これにより、表示装置 308 上に、当該ファイルを構成する静止画画像が順番に表示される。
[0214] 次に、フェードイン.フェードアウト処理時の動作について説明する。まず、フェードィ ン 'フェードアウト処理時に、上記表示平面作成部 305にて実行される幾何図形生成 処理について、図 23を参照して説明する。
[0215] かかる幾何図形生成処理は、図 23 (a)に示す如ぐ表示画面の正面で、且つ、表示 画面から予め決められた距離の位置に、左眼用視点 Lと右眼用視点 Rを想定し、この 状態から、図 23 (b)、(c)の如ぐ表示画面を角度 αずつ順次回転させ、各回転状態 にて左眼用視点 Lと右眼用視点 Rから見たときの表示平面の幾何図形を演算によつ て求めるものである。
[0216] 図 23に示す L画像用平面および R画像用平面は、それぞれ左眼用視点 Lおよび右 眼用視点 Rから表示平面を見たときの幾何図形の形状を模式的に示すものである。 図示の如ぐ L画像用平面と R画像用平面は、左眼用視点 Lと右眼用視点 Rの視差 の分、その形状が相違している。よって、 L画像用平面と R画像用平面にそれぞれ L 画像と R画像を当てはめることにより、左眼に投影される画像と左眼に投影される画 像に視差が生じ、当該回転状態にある画像が立体視として視覚されるようになる。
[0217] 次に、フェードイン 'フェードアウト処理時に、上記視差画像作成部 306にて実行され る視差画像合成処理について、図 24を参照して説明する。
[0218] かかる視差画像合成処理では、まず、原画像データ(2次元画像データ)を横方向に 1 /2圧縮して L用画像データと R用画像データを生成し、これを展開メモリ 310上に 展開する。次に、生成した L用画像データと R用画像データの画像がそれぞれ上記 画像平面作成部 305にて生成した L画像用平面と R画像用平面に収まるように、これ ら L用画像データと R用画像データをそれぞれ縦方向および横方向に圧縮 (または 伸長)する。そして、圧縮した L用画像データと R用画像データを、グラフィックメモリ 3 11上の L用画像データ領域および R用画像データ領域の対応位置にマッピングする
[0219] 図 24の中段は、原画像データ(同図上段)を横方向に 1Z2圧縮した状態を模式的 に示すもの、また、図 24の下段部分は、このようにして生成した L用画像データと R用 画像データを、それぞれ L画像用平面と R画像用平面に収まるようにして、グラフイツ クメモリ 311上にマッピングした状態を模式的に示すものである。
[0220] 図 24下段部分に示す如ぐ L画像用平面と R画像用平面は、表示平面上において 最大となるように設定される。すなわち、縦長さが最大の歹 1J (図 24では左から 4つ目の 歹 IJ)力 画像表示領域の縦長さと一致している。なお、実際には画面から飛び出す部 分の縦長さは画像表示領域の縦長さより長くなることは無いので、切れて表示させる こともある。ただし、元サイズ(図 23に従って算出される L画像用平面と R画像用平面 のサイズ)に対する L画像用平面と R画像用平面の倍率は同一である。すなわち、図 24の L画像用平面と R画像用平面を作成する際に、図 23の L画像用平面と R画像用 平面のサイズの対応関係は維持される。言い換えれば、 L画像用平面と R画像用平 面のそれぞれで縦長さが最大の列を画像表示領域の縦長さと一致させるのではなく 、全体で縦長さが最大の行を画像表示領域の縦長さと一致させる。また、 L画像用平 面と R画像用平面は縦横方向の中心(回転軸)が互いに一致するように設定される。
[0221] なお、圧縮した L用画像データと R用画像データをグラフィックメモリ 311上にマツピン グしたときにグラフィックメモリ 311上に生じる空き領域には、背景画像データ(例えば 、単一色のデータ)がマッピングされる。
[0222] 図 25に、力かるフェードイン.フェードアウト指令入力時の処理フローを示す。フエ一 ドイン'フェードアウト指令が入力されると、まず、現在再生対象となっている静止画の 2次元画像データが横方向に 1/2に圧縮されて L用画像データと R用画像データと が生成され、展開メモリ 310上に展開される(S501)。また、次に再生される静止画の 2次元画像データが記憶部 309から読み出され、これを横方向に 1/2圧縮して L用 画像データと R用画像データが生成され、展開メモリ 310上に展開される(S502)。
[0223] しかる後、遷移効果制御部 304から表示平面の回転角度が表示平面生成部 305に 入力され (S503)、これに応じた L画像用平面と R画像用平面 (幾何図形情報)が表 示平面生成部 305に算出される(S504)。なお、表示平面の回転角度は、最初の処 理サイクルでは単位回転角ひとし、その後、処理サイクルが進むにつれ回転角ひず つ増加するよう設定される。このとき、単位回転角ひは、フェードイン'フェードアウトの 速度を適宜設定できる場合には、この速度に応じたものとなる。また、処理サイクル毎 に回転角度を変化させるようにしてもよい。これにより、フェードイン 'フェードアウト時 の表示効果をさらに向上させることも可能となる。
[0224] しかして、 L画像用平面と R画像用平面が設定されると、次に、回転角が 90° を越え ているかが判定される(S505)。ここで、回転角度が 90° 未満であれば、表示平面 の回転が表面から裏面へと移行していないため、 L画像用平面と R画像用平面に表 示すべき画像として現在再生中の L用画像データと R用画像データが設定される(S 506)。他方、 90° を越えていれば、表示画面の回転が表面力 裏面へと移行して いるため、 L画像用平面と R画像用平面に表示すべき画像として次に再生される L用 画像データと R用画像データが設定される(S507)。なお、回転角度が 90° のときに は、何れの画像も設定されない。このとき、 L画像用平面と R画像用平面は共に存在 しなレ、ものとされる。
[0225] このようにして表示すべき画像データの選択がなされると、次に、選択された L用画像 データと R用画像データが、それぞれ L画像用平面と R画像用平面に収まるように例 えば非線形圧縮される(S508)。そして、圧縮された L用画像データがグラフィックメ モリ 311上の L画像用データ領域にマッピングされ(S509)、マッピング後に残存した L画像用データ領域に背景画像データ(例えば、単一色)がマッピングされる(S510 )。同様に、圧縮された R用画像データがグラフィックメモリ 311上の R画像用データ 領域にマッピングされ (S511)、マッピング後に残存した R用画像データ領域に背景 画像データがマッピングされる(S 512)。
[0226] しかして、グラフィックメモリ 311上のマッピング処理が終了すると、グラフィックメモリ 3 11上の画像データが表示装置 308に転送される。これにより、所定量だけ擬似的に 回転した表示平面上に右眼用画像と左眼用画像が坦め込まれ、さらにこれ以外の空 き領域に背景画像が埋め込まれた画像が、表示装置 308上に表示される(S513)。
[0227] 上記 S503 S513の処理は、表示画面の擬似的回転が 180° になるまで、すなわ ち、当該表示画面が表面から裏面にひっくり返るまで実行される(S507)。これにより 、先の静止画が次の静止画に入れ替わり、当該フェードイン 'フェードアウト動作が完 了する。
[0228] 以上、本実施の形態によれば、表示平面を擬似的に回転させながら、この回転状態 にある表示平面上の画像を立体視できるので、臨場感溢れるフェードイン'フェード アウト動作を実現できる。
[0229] なお、上記実施の形態では、表示平面を横方向に擬似的回転させるようにしたが、こ れ以外に、上下方向、左右方向、あるいはこれらの組み合わせ等、種々の方向に回 転させ得る。この場合、表示平面作成部 305は、それぞれの回転状態にある表示平 面に対し、図 23の演算処理原理にて演算処理を施し、各回転状態における L画像 用平面と R画像用平面を算出する。
[0230] また、上記実施の形態では、表示平面作成部 305にて L画像用平面と R画像用平面 を算出するようにしたが、回転方向と回転角度が固定されている場合には、各回転角 度に応じた L画像用平面と R画像用平面を予め算出して格納しておき、フェードイン' フェードアウト処理時には、当該処理サイクルの回転角度に応じた L画像用平面と R 画像用平面を読み出して、これを利用するようにしても良い。
[0231] 図 26にかかる場合の画像表示装置の構成例を示す。当該構成例では、回転角度に 応じた L画像用平面と R画像用平面を格納した幾何平面情報記憶部 305aが配され ている。また、表示平面作成部 305は、遷移効果制御部 304から入力された回転角 度に応じた L画像用平面と R画像用平面を幾何平面情報記憶部 305aから読み出し 、これを視差画像生成部 306に送る。
[0232] 図 27に、力かる場合のフェードイン.フェードアウト処理フローを示す。本処理フロー は、上記図 25の処理フロー中、 S504力 520に変更されてレ、る。その他の処理は、 上記図 25の処理フローと同様である。
[0233] ところで、上記実施の形態では、記憶部 309に記憶された静止画データを 2次元デ ータとしたが、これに代えて、三次元の静止画データ (左眼用画像データと右眼用画 像データ)を記憶部 309に格納する形態とすることもできる。この場合、図 21の構成 中、展開メモリ 310には再生対象の静止画に応じた L画像データと R画像データが記 憶部 309から読み出され展開される。この場合の構成においては、通常再生時にお ける視差画像生成部 310の機能が上記実施形態とは相違する。すなわち、この構成 では、通常再生時、展開メモリ 310に展開された L画像データと R画像データがダラ フィックメモリ 311上の対応領域にそのままマッピングされるため、上記実施の形態に て視差画像生成部 306が通常再生時に実行していた、 2次元画像データから L画像 データと R画像データを生成する処理が省略されることとなる。
[0234] なお、上記三次元の静止画データを用いる構成例においてフェードイン'フェードァ ゥト動作を実行する場合、展開メモリ 310に展開された L画像データと R画像データを そのまま L画像用平面と R画像用平面に収まるように例えば非線形圧縮処理し、これ をグラフィックメモリ 311上にマッピングするよう構成することもできる。しかし、これらし 画像データと R画像データは、もともと立体画像の表示に応じた視差を有するもので あるから、これをそのまま L画像用平面と R画像用平面に当てはめると、元々の視差 による影響が再生画像に現れ、立体視に歪みが生じてしまう。
[0235] この歪みは、視差画像生成部 306に元々の視差を解消する機能を付与することによ り抑制できる。具体的には、展開メモリ 310に展開されている L画像データと R画像デ ータからー且 2次元画像データを生成し、この 2次元画像データを上記実施の形態と 同様に処理して、 L用画像データと R用画像データを再構成する。
[0236] 図 28に、
力、かる場合のフェードイン'フェードアウト処理フローを示す。本処理フローでは、上 記図 25の処理フローにおける S501と S502力 SS530と S531に変更されてレヽる。
[0237] すなわち、上記図 25の処理フローでは、 S501と S502にて 2次元画像データ力ら L 用画像データと R用画像データを生成し展開メモリ 310上に展開していた力 図 28 のの処理フローでは、まず、 S530で次の立体静止画の L画像データと R画像データ を展開メモリ 310上に展開し (現在再生中の L画像データと R画像データは、通常再 生時に、既に展開メモリ 310上に展開されている)、その後、ステップ S531にて、現 在再生中の L画像データおよび R画像データと次に再生する L画像データおよび R 画像データとから、現在再生中の静止画に対する L用画像データおよび R用画像デ ータと、次に再生する L用画像データおよび R用画像データを再構成している。その 他の処理は、上記図 25の処理フローと同様である。
[0238] なお、 S531での再構成処理は、上記のとおり、 L画像データと R画像データから一 旦 2次元画像データを生成し、この 2次元画像データを上記実施の形態と同様に処 理して L用画像データと R用画像データを再構成する手法が採られ得るが、この手法 を一連の演算処理にて実行する場合、 2次元画像データの生成過程を省略し、 L画 像データと R画像データから直接 L用画像データと R用画像データを再構成するよう にすることも可能である。
[0239] 図 28の処理フローに従えば、元々 L画像データと R画像データに含まれていた立体 視上の視差を解消できるため、上記実施の形態と同様、臨場感溢れるフェードイン · フェードアウト動作を実現できる。
[0240] ところで、上記実施の形態は、いわゆる 2眼用の画像表示装置に本発明を適用したも のであつたが、本発明は、これ以上の撮影視点数を持つ画像表示装置に対しても適 用可能である。
[0241] すなわち、図 23に示した形態では、 L用視点と R用視点のから見た 2つの幾何図形 を生成するようにしたが、視点数が 2視点を越える場合には、各視点を表示画面の正 面に想定した上で、図 23と同様にして、各視点から見た幾何図形を算出し、各視点 の画像データが対応する幾何図形に収まるように非線形圧縮してグラフィックメモリ上 にマッピングすれば良い。図 29に、 4眼用の画像表示装置に本発明を適用した場合 の幾何図形の生成例を示す。図 29 (a)は、表示平面が未回転のときに各視点から表 示平面を見たときの幾何図形を模式的に示すものであり、図 29 (b)は、表示平面が 所定量だけ回転したときに各視点から表示平面を見たときの幾何図形を模式的に示 すものである。
[0242] また、他に種々の変更が可能である。たとえば、上記実施の形態では、背景画像を 単一色としたが、これ以外の背景画像とすることも勿論可能である。また、上記実施 の形態では、 L画像用平面と R画像用平面が表示平面上において最大となるよう、グ ラフィックメモリ 311上の L画像用データ領域と R画像用データ領域を割り当てたが、 グラフィックメモリ 311上の L画像用データ領域と R画像用データ領域を割り当て方法 はこれに限定されるものではなぐたとえば、回転角が 90° に達するまで (表面から 裏面に切り替わるまで)は L画像用平面と R画像用平面が表示画面上において徐々 に小さくなり、回転角が 90° 力も 180° に達するまでは L画像用平面と R画像用平面 が表示画面上において徐々に大きくなるよう、グラフィックメモリ 311上の L画像用デ ータ領域と R画像用データ領域を割り当てるようにしても良レ、。
[0243] また、上記実施の形態は、フェードイン 'フェードアウト時の表示技術に本発明を適用 したものであつたが、フェードイン'フェードアウト以外の表示技術に適用することも可 能である。例えば、表示平面を 3次元空間上で擬似回転させ、あるいは、表示平面を 3次元空間上に斜めに擬似固定して、画像表示に特殊効果を与える場合に、本発明 を適用することも可能である。
[0244] その他、本発明の実施の形態は、本発明の技術的思想の範囲内において、適宜、 種々の変更が可能である。また、本実施の形態に係る 3次元立体画像表示装置は、 各実施の形態における構成例の機能をパーソナルコンピュータ等に付与することに よっても実現可能である。かかる場合、各構成例の機能を実行するためのプログラム 力 ディスクの装着またはインターネット経由でパーソナルコンピュータにダウンロード される。本願発明は、このような機能を付与するためのプログラムとしても抽象され得 るものである。
[0245] 以下、この発明の他の実施形態の画像表示装置を図 30乃至図 33に基づいて説明 していく。
[0246] 図 30にパーソナルコンピュータ(画像表示装置)のアーキテクチャの一例を示す。 C PU1はシステムコントロール機能を持つノースブリッジ 2と PCIバスや ISAバスなどの インタフェース機能を持つサウスブリッジ 3に接続される。ノースブリッジ 2には、メモリ 4や、 AGP (Accelerated Graphics Port)を介してビデオカード 5が接続される。 そして、サウスブリッジ 3には、 USB (Universal Serial Bus)インタフェース 6、ノヽ ードディスクドライブ(HDD) 7、及び CD— ROM装置 8等が接続される。
[0247] 図 31に一般的なビデオカード 5を示す。 VRAM (ビデオメモリ)コントローラ 5bは AG Pを介して CPU1からの命令で描画データの VRAM5aへの書き込み '読み込みの 制御を行う。 DAC (D/A変換器) 5cは VRAMコントローラ 5bからのディジタル映像 データをアナログ映像信号に変換し、この映像信号をビデオバッファ 5dを介してパソ コン用モニタ 12に供給する。かかる映像表示処理 (描画処理)において、右眼映像と 左眼映像とを生成し、これらを交互に縦ストライプ状に描画する立体映像表示処理が 行える。
[0248] パーソナルコンピュータは、ネット接続環境を備え、インターネット上のサーバなどとし て構成される送信側装置からファイル (例えば、文書ファイル、メール、 HTMLフアイ ノレ、 XMLファイルなど)を受信することができる。また、パーソナルコンピュータは、例 えば前記モニタ 12に液晶バリアを備えることにより、平面視映像の表示及び立体視 映像の表示の両方が行なえるようになっている。立体視映像が、例えば、右眼映像と 左眼映像とを交互に縦ストライプ状に配置したものであれば、 CPU1の制御により、 液晶バリアにおいて、縦ストライプ状の遮光領域が形成される。また、画面上の一部 領域(ファイル再生のウィンドウ部分、或いは、 HTMLファイルのなかの一部映像部 分)において立体視映像を表示することとなるのであれば、前記 CPU1によって前記 ウィンドウや一部映像部分の表示座標及び大きさに基づいて前記縦ストライプ状の 遮光領域の大きさ及び形成位置が制御することが可能である。液晶バリアに限らず、 通常のバリア (バリアストライプが所定ピッチで固定的に形成されている)を用いても 構わない。また、パーソナルコンピュータはワードプロセッサソフトウェアやブラウザソ フトウエア(ビューァ)を搭載しており、ファイルを開いてモニタ 12に映像を表示するこ とができる。
[0249] 次に、パーソナルコンピュータ(ビューァ)による立体視用映像から他の立体視用映 像への切替、立体視用映像から平面視用映像への切替、又は平面視用映像から立 体視用映像への切替時における処理を図 32及び図 33に基づいて説明していく。な お、これらの映像切替は、例えば画像ファイルのスライドショーを実行するときなどに 生じる。これまで説明した他の実施形態もスライドショーに用いることができる。 [0250] パーソナルコンピュータには、当該コンピュータを、現在表示映像データの画素値と 次表示映像データの画素値とを指定された割合にて合成することにより合成映像デ ータを生成すると共に、立体視用映像から他の立体視用映像への切替、立体視用 映像から平面視用映像への切替、又は平面視用映像から立体視用映像への切替に 際し、前記現在表示映像データの画素値割合が所定時間かけて徐々に減少して最 終的に 0%となるように前記割合を指定してレ、くプログラムが搭載されており、当該プ ログラムに基づいて CPU1が処理を実行する。
[0251] CPU1は、合成映像データの生成においては、例えば現在表示映像データの R (赤 )画素値を R1とし、次表示映像データの R画素値を R2とし、 R1の割合をM%とする と、合成 R画素値を、 R= (Rl X M/100 +R2 X (1—M/lOO) )とレ、つた演算により 生成する。 VRAMコントローラ 5bは CPU1からの命令で合成 R画素値等(描画デー タ)を VRAM5aへの書き込み、また表示のために読み出す制御を行う。合成 R画素 値等の VRAM5aへの書き込みは、例えば、画面上の上水平ラインに相当する領域 力 順に下水平ラインへとなる領域に行えばよいが、これに限定されるものではない
[0252] CPU1は前記プログラムに基づいて、画像切替の当初において例えば、前記 Mとし て 95%を設定して前記演算を行い、 0. 1秒後に前記 Mとして 5%減じた 90%を設定 して同演算を行い、更に 0. 1秒後に前記 Mとして 5%減じた 85%を設定して同演算 を行うというように、処理を繰り返していく。この場合、 1. 9秒後に完全な形で次表示 映像がモニタに表示されることになる。図 32は画像切り替わりの様子を平面視用映 像(2D)から立体視用映像(3D)への切替を例に模式的に示してレ、る。上記の処理 では、現在表示映像が徐々に透けて (透明化して)次表示映像が表示されていくよう に見えることになる。
[0253] なお、各画素ごとに現在表示映像データの画素値を次表示映像データの画素値に 変更することとし、この変更画素をランダムに或いは所定画素数おきに選択していく ことでも、擬似的に現在表示映像が徐々に透けて (透明化して)、次表示映像が表示 されてレ、くように見えることになる。また、前記変更画素を例えば画面上の上水平ライ ンに相当する領域力 順に下水平ラインへとなるように選択すれば、いわゆるワイプ 的に次表示映像が表示されるように見えることになる。このような表示切替において は、 CPU1は、現在表示映像データの画素数割合が所定時間(例えば、 3秒)かけて 徐々に減少して最終的に 0%となるように切替画素を指定して描画する処理を行え ばよい。
[0254] また、 CPU1は、図 33に示しているように、画面上でライン状又はブロック状をなす領 域がその幅又は個数を増大させるように前記切替画素を指定して描画する処理を実 行するようにしてもよい。
[0255] 図 33 (a)では、画面上で所定間隔で並ぶ縦ラインとなる複数領域について VRAM5 a上の対応アドレスの画素値を次表示映像の画素値に書き換える。そして、縦ライン 幅が横に拡大していくように、 VRAM5a上の対応アドレスの画素値を次表示映像の 画素値に書き換える処理を行い、現在表示映像の領域が所定時間かけて徐々に減 少して最終的に 0%となるようにしている。
[0256] 図 33 (b)では、画面上で中央となる領域について VRAM5a上の対応アドレスの画 素値を次表示映像の画素値に書き換える。そして、前記領域が縦横に拡大していく ように、 VRAM5a上の対応アドレスの画素値を次表示映像の画素値に書き換える処 理を行い、現在表示映像の領域が所定時間かけて徐々に減少して最終的に 0%とな るようにしている。
[0257] 図 33 (c)では、画面上で千鳥状配置となる所定縦長さの複数領域について VRAM 5a上の対応アドレスの画素値を次表示映像の画素値に書き換える。そして、各領域 が横に拡大していくように、 VRAM5a上の対応アドレスの画素値を次表示映像の画 素値に書き換える処理を行い、現在表示映像の領域が所定時間かけて徐々に減少 して最終的に 0%となるようにしている。
[0258] 図 33 (d)では、画面上で乱数配置となるブロック状の領域について VRAM5a上の 対応アドレスの画素値を次表示映像の画素値に書き換える。そし
て、前記領域が乱数配置で増加していくように、 VRAM5a上の対応アドレスの画素 値を次表示映像の画素値に書き換える処理を行い、現在表示映像の領域が所定時 間かけて徐々に減少して最終的に 0%となるようにしている。
[0259] 図 33 (e)では、画面上で左端となる縦ライン領域について VRAM5a上の対応アドレ スの画素値を次表示映像の画素値に書き換える。そして、縦ライン幅が右横に拡大 していくように、 VRAM5a上の対応アドレスの画素値を次表示映像の画素値に書き 換える処理を行い、現在表示映像の領域が所定時間かけて徐々に減少して最終的 に 0%となるようにしている。
[0260] なお、上記の例では、パーソナルコンピュータを例示した力 これに限るものではなく 、画像表示装置は、データ放送 (BMLファイル)を受信して画像表示できるディジタ ル放送受信装置や、ネット接続環境及び画像表示機能を備える携帯電話などとして も構成できる。また、上記の例では、眼鏡無しによる立体視を例示したが、これに限る ものではなく、例えば、液晶シャツタ方式で交互に表示される左右眼画像について前 述した次画像との合成を徐々に行うこととしてもよレ、ものである。
図面の簡単な説明
[0261] [図 1]この発明の実施の形態に係る 3次元立体画像表示装置の構成を示す図である
[図 2]この発明の実施の形態に係る画像の合成状態を示す図である。
[図 3]この発明の実施の形態に係るフェードアウト動作時のフローチャートである。 園 4]この発明の実施の形態に係るフ: -ドアウト処理時の表示画面を示す図である 園 5]この発明の実施の形態に係るフ: -ドイン動作時のフローチャートである 園 6]この発明の実施の形態に係るフェードアウト処理時の表示画面を示す図である 園 7]この発明の実施の形態に係るフ: -ドアウト動作時のフローチャートである。 園 8]この発明の実施の形態に係るフ: -ドイン動作時のフローチャートである。 園 9]この発明の実施の形態に係るフ: -ドアウト処理時の表示画面を示す図である
[図 10]この発明の実施形態に係る 3次元立体画像表示装置の構成を示す図である。 園 11]この発明の実施形態に係る CG画像の合成方法を説明する図である。
園 12]この発明の実施形態に係る各視点の画像データの生成方法を示す図である。 園 13]この発明の実施形態に係る各視点の画像データの生成方法を示す図である。 園 14]この発明の実施形態に係るフェードアウト動作時の処理を示したフローチヤ一 トである。
園 15]この発明の実施形態に係るフェードイン動作時の処理を示したフローチャート である。
[図 16]この発明の実施形態に係る 3次元立体画像表示装置の構成を示す図である。 園 17]この発明の実施形態に係る画像の合成方法を説明する図である。
園 18]この発明の実施形態に係る各視点の画像データの生成方法を示す図である。 園 19]この発明の実施形態に係るフェードアウト動作時の処理を示したフローチヤ一 トである。
園 20]この発明の実施形態に係るフェードイン動作時の処理を示したフローチャート である。
[図 21]この発明の実施形態に係る 3次元立体画像表示装置の構成を示す図である。
[図 22]この発明の実施形態に係る画像の合成状態を示す図である。
園 23]この発明の実施形態に係る幾何図形の生成処理を説明するための図である。
[図 24]この発明の実施形態に係る画像データの圧縮処理を説明するための図である 園 25]この発明の実施の形態に係るフェードイン'フェードアウト動作時の処理を示 したフローチャートである。
[図 26]この発明の実施の形態に係る 3次元立体画像表示装置の構成を示す図であ る。
園 27]この発明の実施の形態に係るフェードイン 'フェードアウト動作時の処理を示し たフローチャートである。
園 28]この発明の実施の形態に係るフェードイン 'フェードアウト動作時の処理を示し たフローチャートである。
園 29]この発明の実施の形態に係る幾何図形の生成処理を説明するための図であ る。
[図 30]この発明の実施の形態に係るパーソナルコンピュータのアーキテクチャ例を示 したブロック図である。 園 31]この発明の実施の形態に係るビデオカードの構成例を示したブロック図である
[図 32]この発明の実施の形態に係る画像切替の説明図である。
[図 33]この発明の実施の形態に係る図であって、同図(a)乃至同図(b)は各々画像 切替の説明図である。

Claims

請求の範囲
[1] 右眼用画像と左眼用画像とを表示画面上に表示する画像表示装置において、 前 記表示画面上における前記右眼用画像と前記左目用画像の表示を制御する表示制 御手段を備え、 前記表示制御手段は、フェードアウト処理時に前記右眼用画像と 前記左目用画像が時間の経過とともに所定方向に離れるよう前記表示画面上にお ける前記右眼用画像と前記左目用画像の配置を制御する手段を含む、ことを特徴と する画像表示装置。
[2] 請求項 1において、 前記表示制御手段は、前記フェードアウト処理時に前記右眼 用画像と左眼用画像が時間の経過とともに正規の大きさから縮小するよう制御する手 段をさらに含む、ことを特徴とする画像表示装置。
[3] 請求項 1または 2において、 前記フェードアウト処理時に前記左眼用画像の表示領 域および前記右眼用画像の表示領域に空き領域が生じたとき、この空き領域に次の 左眼用画像または右眼用画像を割り当てる、ことを特徴とする画像表示装置。
[4] 右眼用画像と左眼用画像とを表示画面上に表示する画像表示装置において、 前 記表示画面上における前記右眼用画像と前記左目用画像の表示を制御する表示制 御手段を備え、 前記表示制御手段は、フェードイン処理時に前記右眼用画像と前 記左目用画像が時間の経過とともに所定方向から近づくよう前記表示画面上におけ る前記右眼用画像と前記左目用画像の配置を制御する手段を含む、ことを特徴とす
[5] 請求項 4において、 前記表示制御手段は、前記フェードイン処理時に前記右眼用 画像と左眼用画像が時間の経過とともに正規の大きさへと拡大するよう制御する手段 をさらに含むことを特徴とする画像表示装置。
[6] 右眼用画像と左眼用画像とを表示画面上に表示する三次元立体画像表示機能をコ ンピュータに付与するプログラムであって、 前記表示画面上における前記右眼用画 像と前記左目用画像の表示を制御する表示制御処理を含み、 前記表示制御処理 は、フェードアウト処理時に前記右眼用画像と前記左目用画像が時間の経過とともに 所定方向に離れるよう前記表示画面上における前記右眼用画像と前記左目用画像 の配置を制御する処理を含む、ことを特徴とす;
[7] 請求項 6において、 前記表示制御処理は、前記フェードアウト処理時に前記右眼 用画像と左眼用画像が時間の経過とともに正規の大きさから縮小するよう制御する処 理をさらに含む、ことを特徴とするプログラム。
[8] 請求項 6または 7において、 前記フェードアウト処理時に前記左眼用画像の表示領 域および前記右眼用画像の表示領域に空き領域が生じたとき、この空き領域に次の 左眼用画像または右眼用画像を割り当てる処理を含む、ことを特徴
[9] 右眼用画像と左眼用画像とを表示画面上に表示する三次元立体画像表示機能をコ ンピュータに付与するプログラムであって、 前記表示画面上における前記右眼用画 像と前記左目用画像の表示を制御する表示制御処理を含み、 前記表示制御処理 は、フェードイン処理時に前記右眼用画像と前記左目用画像が時間の経過とともに 所定方向から近づくよう前記表示画面上における前記右眼用画像と前記左目用画 像の配置を制御する処理を含む、ことを特徴とするプログラム。
[10] 請求項 9において、 前記表示制御処理は、前記フェードイン処理時に前記右眼用 画像と左眼用画像が時間の経過とともに正規の大きさへと拡大するよう制御する処理 をさらに含むことを特徴とするプログラム。
[11] 表示対象物がオブジェクトとして管理されている原画像データを立体画像として表示 する画像表示装置であって、 前記オブジェクトのうちフェードインまたはフェードァゥ トの対象となるオブジェクトを指定するオブジェクト指定手段と、 指定されたオブジェ タトに遷移効果を設定する遷移効果設定手段と、 遷移効果が設定されたオブジェク トおよびその他のオブジェクトを組み込んで立体画像データを生成する立体画像デ ータ生成手段と、 生成された立体画像データを表示する表示手段と、を有すること を特徴とする画像表示装置。
[12] 請求項 11において、 前記オブジェ外指定手段は、各オブジェ外の前後関係を判 別し、この判別結果に基づレ、てフェードインまたはフェードアウトの設定対象となるォ ブジエ外を指定する手段を有する、ことを特徴とする画像表示装置。
[13] 請求項 11または 12において、 前記遷移効果設定手段は、前記指定されたォブジ ェクトに対して透過率を設定する手段を有し、 前記立体画像データ生成手段は、設 定された透過率に応じて前記指定されたオブジェクトの表示画素を間引くと共に、間 引き後に残った画素に対してその背後にあるオブジェクトを坦め込む手段を有する、 ことを特徴とする画像表示装置。
[14] 表示対象物がオブジェクトとして管理されている原画像データを立体画像として表示 する機能をコンピュータに付与するプログラムであって、 前記オブジェクトのうちフエ ードインまたはフェードアウトの対象となるオブジェクトを指定するオブジェクト指定処 理と、 指定されたオブジェクトに遷移効果を設定する遷移効果設定処理と、 遷移 効果が設定されたオブジェクトおよびその他のオブジェクトを組み込んで立体画像デ ータを生成する立体画像データ生成処理と、 生成された立体画像データを表示す る表示処理と、を有することを特徴とするプログラム。
[15] 請求項 14において、 前記オブジェクト指定処理は、各オブジェクトの前後関係を判 別し、この判別結果に基づレ、てフェードインまたはフェードアウトの設定対象となるォ ブジェクトを指定する処理を含む、ことを特徴とするプログラム。
[16] 請求項 14または 15において、 前記遷移効果設定処理は、前記指定されたォブジ ェクトに対して透過率を設定する処理を含み、 前記立体画像データ生成処理は、 設定された透過率に応じて前記指定されたオブジェクトの表示画素を間引くと共に、 間弓 [き後に残った画素に対してその背後にあるオブジェクトを坦め込む処理を含む、 ことを特徴とするプログラム。
[17] 表示平面を前後方向に擬似的に回転させたとき、所定の回転状態にある前記表示 平面を予め想定した視点から見たときに視覚される幾何図形情報を提供するための 幾何図形提供手段と、 各視点用の画像を当該視点の前記幾何図形に応じてサイ ズ変更する画像サイズ変更手段と、 前記サイズ変更された各視点用画像を合成し 表示用画像を生成する表示用画像生成手段と、を有することを特徴とする画像表示
[18] 請求項 17において、 前記画像サイズ変更手段は、 前記各視点用の画像が 3次元 立体表示用の画像データとして与えられるとき、これら各視点用の画像データから 2 次元表示用の画像データを構成し、この 2次元表示用画像データに基づいて各視点 用の画像を取得する、ことを特徴とする画像表示装置。
[19] 請求項 17または 18において、 前記擬似的な回転の角度が 90° に達するまでは、 表示中の各視点の画像を対象として前記画像サイズ変更手段による処理と表示用 画像生成手段による処理を実行し、前記擬似的な回転の角度が 90° 力 180° に 達するまでは、次に表示される各視点の画像を対象として前記画像サイズ変更手段 による処理と表示用画像生成手段による処理を実行する、ことを特徴とする画像表示
[20] 請求項 17ないし 19の何れかにおいて、 前記幾何図形提供手段は、各視点の幾何 図形情報を前記回転角度に対応づけて格納
した記憶手段を備え、表示平面を前後方向に擬似的に回転させたときの前記各視点 の幾何図形情報を、前記記憶手段に格納された幾何図形情報に基づいて設定する 、ことを特徴とする画像表示装置。
[21] 画像表示機能をコンピュータに付与するプログラムであって、 表示平面を前後方向 に擬似的に回転させたとき、所定の回転状態にある前記表示平面を予め想定した視 点から見たときに視覚される幾何図形情報を提供するための幾何図形提供処理と、 各視点用の画像を当該視点の前記幾何図形に応じてサイズ変更する画像サイズ 変更処理と、 前記サイズ変更された各視点用画像を合成し表示用画面を生成する 表示用画像生成処理と、を有することを特徴とするプログラム。
[22] 請求項 21において、 画像サイズ変更処理は、 前記各視点用の画像が 3次元立体 表示用の画像データとして与えられるとき、これら各視点用の画像データから 2次元 表示用の画像データを構成し、この 2次元表示用画像データに基づいて各視点用の 画像を取得する、ことを特徴とするプログラム。
[23] 請求項 21または 22において、 前記擬似的な回転の角度が 90° に達するまでは、 表示中の各視点の画像を対象として前記画像サイズ変更処理と表示用画像生成処 理を実行し、前記擬似的な回転の角度が 90° 力 180° に達するまでは、次に表 示される各視点の画像を対象として前記画像サイズ変更処理と表示用画像生成処 理を実行する、ことを特徴とするプログラム。
[24] 請求項 21ないし 23の何れかにおいて、 幾何図形提供処理は、各視点の幾何図形 情報を前記回転角度に対応づけて格納したデータベースを含み、表示平面を前後 方向に擬似的に回転させたときの前記各視点の幾何図形情報を、前記データべ一 スに格納された幾何図形情報に基づいて設定する、ことを特徴とするプログラム。
[25] 映像データに基づいてディスプレイを駆動する画像表示装置において、現在表示映 像データの画素値と次表示映像データの画素値とを指定された割合にて合成するこ とにより合成映像データを生成する手段と、立体視用映像から他の立体視用映像へ の切替、立体視用映像から平面視用映像への切替、又は平面視用映像から立体視 用映像への切替に際し、前記現在表示映像データの画素値割合が所定時間かけて 徐々に減少して最終的に 0%となるように前記割合を指定してレ、く表示切替制御手 段と、を備えたことを特徴とする画像表示装置。
[26] 映像データに基づいてディスプレイを駆動する画像表示装置において、現在表示映 像データの画素値を次表示映像データの画素値に変更する手段と、立体視用映像 から他の立体視用映像への切替、立体視用映像から平面視用映像への切替、又は 平面視用映像から立体視用映像への切替に際し、前記現在表示映像データの画素 数割合が所定時間かけて徐々に減少して最終的に 0%となるように切替画素を指定 していく表示切替制御手段と、を備えたことを特徴とする画像表示装置。
[27] 請求項 26に記載の画像表示装置において、前記表示切替制御手段は、画面上でラ イン状又はブロック状をなす領域がその幅又は個数を増大させるように前記切替画 素を指定していくように構成されたことを特徴とする画像表示装置。
[28] コンピュータを、映像データに基づいてディスプレイを駆動する映像表示手段と、現 在表示映像データの画素値と次表示映像データの画素値とを指定された割合にて 合成することにより合成映像データを生成する手段と、立体視用映像から他の立体 視用映像への切替、立体視用映像から平面視用映像への切替、又は平面視用映像 から立体視用映像への切替に際し、前記現在表示映像データの画素値割合が所定 時間かけて徐々に減少して最終的に 0%となるように前記割合を指定してレ、く表示切 替制御手段として機能させるプログラム。
[29] コンピュータを、映像データに基づいてディスプレイを駆動する映像表示手段と、現 在表示映像データの画素値を次表示映像データの画素値に変更する手段と、立体 視用映像から他の立体視用映像への切替、立体視用映像から平面視用映像への切 替、又は平面視用映像から立体視用映像への切替に際し、前記現在表示映像デー タの画素数割合が所定時間かけて徐々に減少して最終的に 0%となるように切替画 素を指定していく表示切替制御手段として機能させるプログラム。
[30] 請求項 29に記載のプログラムにおいて、コンピュータを、画面上でライン状又はブロ ック状をなす領域がその幅又は個数を増大させるように前記切替画素を指定していく 手段として機能させることを特徴とするプログラム。
PCT/JP2004/007185 2003-05-27 2004-05-26 画像表示装置及びプログラム WO2004107764A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04745337A EP1628490A1 (en) 2003-05-27 2004-05-26 Image display device and program
US10/557,804 US20070236493A1 (en) 2003-05-27 2004-05-26 Image Display Apparatus and Program

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2003-149881 2003-05-27
JP2003149881A JP2004356772A (ja) 2003-05-27 2003-05-27 三次元立体画像表示装置およびコンピュータに三次元立体画像表示機能を付与するプログラム
JP2003-164599 2003-06-10
JP2003165043A JP2005004341A (ja) 2003-06-10 2003-06-10 画像表示装置およびコンピュータに画像表示機能を付与するプログラム
JP2003-165043 2003-06-10
JP2003164599A JP2005005828A (ja) 2003-06-10 2003-06-10 画像表示装置およびコンピュータに画像表示機能を付与するプログラム
JP2003336222A JP2005109568A (ja) 2003-09-26 2003-09-26 映像表示装置及びプログラム
JP2003-336222 2003-09-26

Publications (1)

Publication Number Publication Date
WO2004107764A1 true WO2004107764A1 (ja) 2004-12-09

Family

ID=33494212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007185 WO2004107764A1 (ja) 2003-05-27 2004-05-26 画像表示装置及びプログラム

Country Status (3)

Country Link
US (1) US20070236493A1 (ja)
EP (1) EP1628490A1 (ja)
WO (1) WO2004107764A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259452A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2011259453A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
WO2012056722A1 (ja) * 2010-10-29 2012-05-03 富士フイルム株式会社 立体視画像表示装置および方法並びにプログラム
JP2012199927A (ja) * 2012-04-16 2012-10-18 Nikon Corp 画像再生装置

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
AU2005203074A1 (en) * 2005-07-14 2007-02-01 Canon Information Systems Research Australia Pty Ltd Image browser
US20070145680A1 (en) * 2005-12-15 2007-06-28 Outland Research, Llc Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance
KR101100212B1 (ko) 2006-04-21 2011-12-28 엘지전자 주식회사 방송 신호 전송 방법, 방송 신호 재생 방법, 방송 신호전송 장치 및 방송 신호 수신 장치
KR101319535B1 (ko) * 2006-12-26 2013-10-21 삼성전자주식회사 영상신호 처리장치 및 그 제어방법
TWI331872B (en) * 2006-12-29 2010-10-11 Quanta Comp Inc Method for displaying stereoscopic image
KR101546828B1 (ko) * 2008-06-10 2015-08-24 엘지전자 주식회사 디스플레이 장치
KR100991804B1 (ko) * 2008-06-10 2010-11-04 유한회사 마스터이미지쓰리디아시아 이동 기기용 입체영상생성칩 및 이를 이용한입체영상표시방법
KR101563626B1 (ko) * 2008-11-18 2015-10-27 삼성전자 주식회사 디스플레이장치 및 그 제어방법
RU2512135C2 (ru) * 2008-11-18 2014-04-10 Панасоник Корпорэйшн Устройство воспроизведения, способ воспроизведения и программа для стереоскопического воспроизведения
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP5515301B2 (ja) * 2009-01-21 2014-06-11 株式会社ニコン 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体
CA2750211C (en) * 2009-03-19 2015-06-16 Lg Electronics Inc. Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
US20110063298A1 (en) * 2009-09-15 2011-03-17 Samir Hulyalkar Method and system for rendering 3d graphics based on 3d display capabilities
DE102009048834A1 (de) * 2009-10-09 2011-04-14 Volkswagen Ag Verfahren und Anzeigeeinrichtung zum Anzeigen von Informationen
US8736673B2 (en) * 2009-12-31 2014-05-27 Stmicroelectronics, Inc. Method and apparatus for viewing 3D video using a stereoscopic viewing device
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
WO2011105048A1 (ja) * 2010-02-23 2011-09-01 パナソニック株式会社 コンピュータ・グラフィックス映像合成装置と方法、及び表示装置
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP5872185B2 (ja) * 2010-05-27 2016-03-01 任天堂株式会社 携帯型電子機器
CN102474650B (zh) 2010-05-28 2014-12-17 松下电器产业株式会社 立体观察影像的再现装置、集成电路、再现方法
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
EP2395765B1 (en) 2010-06-14 2016-08-24 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5577931B2 (ja) * 2010-08-06 2014-08-27 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR20120015165A (ko) * 2010-08-11 2012-02-21 엘지전자 주식회사 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기
WO2012048252A1 (en) 2010-10-07 2012-04-12 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US20120120051A1 (en) * 2010-11-16 2012-05-17 Shu-Ming Liu Method and system for displaying stereoscopic images
US9017163B2 (en) 2010-11-24 2015-04-28 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
US9070219B2 (en) 2010-11-24 2015-06-30 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
US9041743B2 (en) * 2010-11-24 2015-05-26 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
EP2464126A1 (en) * 2010-12-10 2012-06-13 Advanced Digital Broadcast S.A. A system and a method for transforming a 3D video sequence to a 2D video sequence
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
JP2012174237A (ja) * 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
US9118970B2 (en) 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
JP2012257105A (ja) * 2011-06-09 2012-12-27 Olympus Corp 立体画像取得装置
JP2013005238A (ja) * 2011-06-16 2013-01-07 Sony Corp 3次元画像処理装置及び3次元画像処理方法、表示装置、並びにコンピューター・プログラム
US8994796B2 (en) 2011-07-06 2015-03-31 Fujifilm Corporation Stereo image display apparatus and stereo image display method
JP5577305B2 (ja) * 2011-08-05 2014-08-20 株式会社ソニー・コンピュータエンタテインメント 画像処理装置
US9465226B2 (en) 2011-08-09 2016-10-11 Sony Computer Entertainment Inc. Automatic shutdown of 3D based on glasses orientation
EP2590417A1 (en) * 2011-11-01 2013-05-08 Acer Incorporated Stereoscopic image display apparatus
KR101872864B1 (ko) 2011-12-19 2018-06-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
WO2013102790A2 (en) * 2012-01-04 2013-07-11 Thomson Licensing Processing 3d image sequences cross reference to related applications
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US10769852B2 (en) 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
JP2014203017A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
KR102176474B1 (ko) 2014-01-06 2020-11-09 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 영상표시방법
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US11175802B2 (en) * 2018-09-21 2021-11-16 Sap Se Configuration object deletion manager

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212798A (ja) * 1994-01-18 1995-08-11 Sharp Corp 両眼テレビジョン装置
JPH09289638A (ja) * 1996-04-23 1997-11-04 Nec Corp 3次元画像符号化復号方式
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JPH11331700A (ja) * 1998-05-15 1999-11-30 Sony Corp 画像処理装置および画像処理方法
JP2002073003A (ja) * 2000-08-28 2002-03-12 Namco Ltd 立体視画像生成装置及び情報記憶媒体
JP2002152590A (ja) * 2000-11-10 2002-05-24 Canon Inc 画像処理装置、画像処理システム、画像表示方法、及び記憶媒体
JP2003158750A (ja) * 2001-11-21 2003-05-30 Mitsubishi Electric Corp フェーダ装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4694404A (en) * 1984-01-12 1987-09-15 Key Bank N.A. High-speed image generation of complex solid objects using octree encoding
US5353391A (en) * 1991-05-06 1994-10-04 Apple Computer, Inc. Method apparatus for transitioning between sequences of images
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
US6177953B1 (en) * 1997-06-26 2001-01-23 Eastman Kodak Company Integral images with a transition set of images
US6300956B1 (en) * 1998-03-17 2001-10-09 Pixar Animation Stochastic level of detail in computer animation
US7102643B2 (en) * 2001-11-09 2006-09-05 Vibe Solutions Group, Inc. Method and apparatus for controlling the visual presentation of data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212798A (ja) * 1994-01-18 1995-08-11 Sharp Corp 両眼テレビジョン装置
JPH09289638A (ja) * 1996-04-23 1997-11-04 Nec Corp 3次元画像符号化復号方式
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JPH11331700A (ja) * 1998-05-15 1999-11-30 Sony Corp 画像処理装置および画像処理方法
JP2002073003A (ja) * 2000-08-28 2002-03-12 Namco Ltd 立体視画像生成装置及び情報記憶媒体
JP2002152590A (ja) * 2000-11-10 2002-05-24 Canon Inc 画像処理装置、画像処理システム、画像表示方法、及び記憶媒体
JP2003158750A (ja) * 2001-11-21 2003-05-30 Mitsubishi Electric Corp フェーダ装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012056722A1 (ja) * 2010-10-29 2012-05-03 富士フイルム株式会社 立体視画像表示装置および方法並びにプログラム
JP2011259452A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2011259453A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2012199927A (ja) * 2012-04-16 2012-10-18 Nikon Corp 画像再生装置

Also Published As

Publication number Publication date
EP1628490A1 (en) 2006-02-22
US20070236493A1 (en) 2007-10-11

Similar Documents

Publication Publication Date Title
WO2004107764A1 (ja) 画像表示装置及びプログラム
JP4214976B2 (ja) 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP5160741B2 (ja) 3dグラフィック処理装置及びこれを利用した立体映像表示装置
JP3420504B2 (ja) 情報処理方法
JP4982862B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006165795A (ja) 画像形成装置およびその方法
KR100967296B1 (ko) 그래픽 인터페이스 및 스테레오스코픽 디스플레이용 그래픽데이터를 래스터라이즈하는 방법
US8866887B2 (en) Computer graphics video synthesizing device and method, and display device
WO2009155688A1 (en) Method for seeing ordinary video in 3d on handheld media players without 3d glasses or lenticular optics
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
US11589027B2 (en) Methods, systems, and media for generating and rendering immersive video content
JP2005109568A (ja) 映像表示装置及びプログラム
KR102059732B1 (ko) 디지털 비디오 렌더링
JP2006178900A (ja) 立体画像生成装置
US20180249145A1 (en) Reducing View Transitions Artifacts In Automultiscopic Displays
KR100436904B1 (ko) 2차원이미지에 대한 입체영상생성방법
KR100381817B1 (ko) 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
US20120280985A1 (en) Image producing apparatus, image producing system, storage medium having stored thereon image producing program and image producing method
JP2004356789A (ja) 立体映像表示装置及びプログラム
JP5328852B2 (ja) 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
WO2015120032A1 (en) Reducing view transition artifacts in automultiscopic displays
TW202240547A (zh) 採用傾斜多視像影像匯聚平面的多視像顯示系統和方法
JP2009064355A (ja) プログラム、情報記憶媒体及び画像生成システム
JPH11184453A (ja) 表示装置及びその制御方法、コンピュータ可読メモリ
JP2005004341A (ja) 画像表示装置およびコンピュータに画像表示機能を付与するプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004745337

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20048143387

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2004745337

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10557804

Country of ref document: US

Ref document number: 2007236493

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10557804

Country of ref document: US