WO2012063911A1 - 3dコンテンツ表示装置、および3dコンテンツ表示方法 - Google Patents
3dコンテンツ表示装置、および3dコンテンツ表示方法 Download PDFInfo
- Publication number
- WO2012063911A1 WO2012063911A1 PCT/JP2011/075964 JP2011075964W WO2012063911A1 WO 2012063911 A1 WO2012063911 A1 WO 2012063911A1 JP 2011075964 W JP2011075964 W JP 2011075964W WO 2012063911 A1 WO2012063911 A1 WO 2012063911A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- content
- cpu
- light source
- screen
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/006—Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes
Definitions
- the present invention relates to a 3D content display device and a 3D content display method for displaying 3D content such as a still image and a moving image.
- a 3D content display device capable of displaying a 3D still image or a 3D moving image in a three-dimensional manner is known.
- a map display device includes a lid provided with a display screen, and a main body rotatably connected to the lid.
- the screen angle (relative angle) formed by the display screen is acquired from the angle detection unit, and based on the acquired screen angle, the projection angle that is the angle of the viewpoint for capturing the 3D object is obtained in the space including the 3D object.
- a projection angle calculation unit that calculates in accordance with a predetermined angle calculation rule; a 3D drawing unit that projects the 3D object based on the calculated projection angle and generates screen display data for display on the display screen; It is characterized by having.
- Patent Document 2 discloses a three-dimensional measuring apparatus.
- edges on left and right images from a stereo camera are extracted by an edge extraction unit, and a plurality of similar edges such as being equidistant are grouped by an edge grouping unit.
- the corresponding areas of the two videos are set by the corresponding area setting unit.
- the corresponding region correlator extracts edge arrangement information and performs comparison, calculates similarity, finds a high-accuracy corresponding position in subpixel units for the pair with high similarity, From the result, the distance calculation unit calculates the distance. Therefore, by evaluating the positional deviation between the edge sets of the left and right images together with the similarity of the edge arrangement, it is possible to obtain the robustness with high accuracy and to minimize the number of places where the corresponding point search process is performed.
- 3D content display devices are required to provide viewers with a greater sense of realism by displaying 3D video.
- the first output device for displaying 3D content in 3D on the first screen, the 3D content in 3D on the first screen on the first output device, and the first
- a 3D content display device comprising a processor for outputting a shadow video corresponding to 3D content on a second screen different from the above screen.
- the first output device is a first display having a first screen.
- the first output device is a first projector that outputs 3D content on the first screen.
- the 3D content display device further includes a second display having a second screen.
- the 3D content display device further includes a first sensor for detecting a positional relationship between the first screen and the second screen.
- the processor calculates a shadow image of the 3D content based on the 3D content displayed on the first screen, the position of the virtual light source, and the positional relationship.
- the processor displays a shadow image on the second projector via the communication interface.
- the 3D content display device further includes a second sensor that detects a positional relationship between the first screen and the second projector.
- the processor calculates a shadow image of the 3D content based on the 3D content displayed on the first screen, the position of the virtual light source, and the positional relationship.
- the 3D content display device further includes a posture sensor that detects the posture of the first output device.
- the processor calculates a shadow image based on the attitude of the first output device.
- a 3D content display method in a 3D content display device including a first output device and a processor is provided.
- the processor acquires 3D content
- the processor calculates a shadow image of the 3D content
- the processor 3D displays the 3D content on the first screen on the first output device. And displaying a shadow image corresponding to the 3D content on a second screen different from the first screen.
- a 3D content display device and a 3D content display method capable of realizing a greater presence than before are provided.
- FIG. 1 It is an image figure which shows the external appearance of the computer 100 which concerns on this Embodiment. It is a block diagram which shows the hardware constitutions of the computer 100 concerning this Embodiment. It is a block diagram which shows the function structure of the computer 100 which concerns on this Embodiment.
- 2 is an image diagram showing that a computer 100 according to the present embodiment displays a shadow of a 3D video based on the position of a virtual light source 10.
- FIG. It is an image figure which shows the method of projecting a 3D object on the 2D display 132 based on the position of a virtual light source. It is an image figure which shows the state from which the angle of 3D display 131 (1st housing
- FIG. 6 is an image diagram when the position of a virtual light source is set to the position of projector 300.
- FIG. 6 is an image diagram when the position of a virtual light source is set to a position different from the position of projector 300.
- FIG. It is a block diagram which shows the hardware constitutions of the computer 200 concerning this Embodiment. It is a block diagram which shows the function structure of the computer 200 concerning this Embodiment.
- a notebook personal computer 100 (hereinafter simply referred to as the computer 100) will be described as a representative example of the “content display device”.
- the content display device is another information device having a display such as an electronic notebook, a game machine, a PND (Personal Navigation Device), a PDA (Personal Data Assistance), an electronic dictionary, an electronic BOOK, a television, a monitor, and a portable player. It may be. Further, it may be another information device having a projector that projects an image on a screen or a wall.
- the computer 100 displays a 3D display capable of displaying a 3D still image or a 3D moving image in 3D, and a shadow corresponding to the 3D still image or the 3D moving image.
- the display here may be, for example, a projection type projector that projects an image on a screen or the like.
- the 2D display referred to here is positioned as a display capable of displaying in 2D, and the 2D display may have a 3D display function.
- a mode in which the second display is a projector will be described.
- a projector that displays 3D content as a 3D display.
- a 3D display and a 2D display can be realized by a projector for use in a movie theater or a home theater.
- the positional relationship between the projection plane on which the 3D content is displayed and the projection plane on which the 2D shadow image is displayed can be set in advance by a user or an administrator. No sensor or attitude sensor is required.
- FIG. 1 is an image diagram showing an external appearance of a computer 100 according to the present embodiment.
- a computer 100 includes a first casing 101 and a second casing 102 connected to the first casing 101 via a hinge.
- the first housing 101 has a 3D display 131 that can display content in 3D.
- the second housing 102 includes a 2D display 132 that can display 2D content.
- the 3D display 131 displays a plurality of objects in 3D based on a signal from a CPU (Central Processing Unit) 100 (see FIG. 2) described later.
- a CPU Central Processing Unit
- the 2D display 132 displays a shadow corresponding to the projection amount (unevenness) of the display image on the 3D display 131.
- the CPU 110 calculates the pop-out amount at each point of the display image on the 3D display 131.
- CPU110 calculates the image
- CPU110 displays the shadow of 3D content on the 2D display 132 based on projection data.
- the computer 100 displays the shadow corresponding to the unevenness of the video displayed in 3D on the 3D display 131 on the 2D display 132. Since the shadow according to the pop-up of the video enters the field of view, the user can obtain a greater sense of realism than before.
- FIG. 2 is a block diagram showing a hardware configuration of the computer 100 according to the present embodiment.
- a computer 100 includes a CPU 110, a memory 120, a 3D display 131, a 2D display 132, an input device 140, a memory interface 160, a communication interface 170, an angle, and the like.
- a sensor 180 and a position / orientation sensor 190 are included.
- the 3D display 131 displays various information in 3D under the control of the CPU 110.
- the CPU 110 displays the video in 3D on the 3D display 131 based on the video data for the right eye and the video data for the left eye.
- the CPU 110 may generate right-eye video data and left-eye video data based on data representing a 3D stereoscopic model.
- the 2D display 132 displays various information in 2D by being controlled by the CPU 110.
- the CPU 110 generates projection data representing the shadow of the object displayed on the 3D display 131.
- the CPU 110 displays a shadow image on the 2D display 132.
- the input device 140 includes a tablet for detecting a touch operation by a user's finger or stylus pen.
- the tablet is laid on the surface of the 3D display 131 and / or the 2D display 132.
- the input device 140 includes a determination key, a numeric keypad, a QWERTY keyboard, a pointing device, a recognition device that accepts voice and video input, and the like that are arranged on the surface of the computer 100 or connected by wire or wirelessly.
- the CPU 110 can accept a command from the user via the input device 140.
- the CPU 110 reads data stored in the external storage medium 161 via the memory interface 160 and stores the data in the memory 120. Conversely, the CPU 110 reads data from the memory 120 and stores the data in the external storage medium 161 via the memory interface 160.
- CD-ROM Compact Disc-Read Only Memory
- DVD-ROM Digital Versatile Disk-Read Only Memory
- Blu-rayDisc USB (Universal Serial Bus) memory
- memory card FD ( Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Non-volatile storage media such as Programmable Read-Only Memory).
- the communication interface 170 is realized by an antenna or a connector.
- the communication interface 170 exchanges data with other devices by wired communication or wireless communication.
- the CPU 110 receives a program, 3D content data, and the like from another device via the communication interface 170, and transmits data to the other device.
- the angle sensor 180 detects an angle between the first casing 101 and the second casing 102.
- the angle sensor 180 inputs the detected angle to the CPU 110.
- the position / orientation sensor 190 detects the position and orientation of the first casing 101.
- the position / orientation sensor 190 is realized by an acceleration sensor, an angular velocity sensor, an orientation sensor, image recognition, GPS, and the like, and inputs the position and orientation of the first housing 101 to the CPU 110.
- the memory 120 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), a hard disk, and the like.
- the memory 120 may be a USB (Universal Serial Bus) memory, CD-ROM (Compact Disc-Read Only Memory), DVD-ROM (Digital Versatile Disk-Read Only Memory), Blu-ray Disc, USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card ( It is also realized by a medium for storing a program in a nonvolatile manner, such as an optical card, mask ROM, EPROM, or EEPROM (Electronically Erasable Programmable Read-Only Memory).
- the memory 120 stores a program executed by the CPU 110, data generated by executing the program by the CPU 110, data input via the input device 140, and the like.
- the memory 120 stores a control program executed by the CPU 110, 3D video data, and the like.
- the 3D video data includes 3D still image data for displaying a 3D still image, 3D moving image data for displaying a 3D moving image, and model data indicating a 3D model.
- CPU 110 executes various programs stored in memory 120. Functions (such as the functional blocks in FIG. 3) and processes (such as the processes illustrated in FIG. 12) in the computer 100 are realized by each hardware and software executed by the CPU 110.
- Such software may be stored in the memory 120 in advance.
- the software may be stored in the above-described storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.
- Such software is read from the storage medium by using the memory interface 160 or downloaded by using the communication interface 170 and temporarily stored in the memory 120.
- the CPU 110 stores the software in the form of an executable program in the memory 120 and then executes the program.
- the program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
- the CPU 110 displays the video in 3D on the 3D display 131 based on the 3D video data stored in the memory 120.
- the CPU 110 displays on the 3D display 131 so that the unevenness of the object can be recognized. In other words, it seems to the user that the object exists in front of or behind the 3D display 131.
- the CPU 110 causes the 2D display 132 to display a shadow corresponding to the unevenness of the display image on the 3D display 131. For example, the CPU 110 calculates the pop-up amount of the display image on the 3D display 131. CPU110 calculates the image
- FIG. 3 is a block diagram showing a functional configuration of the computer 100 according to the present embodiment.
- FIG. 4 is an image diagram showing that the computer 100 according to the present embodiment displays a shadow of the 3D video based on the position of the virtual light source 10.
- a computer 100 includes a 3D video data acquisition unit 111, a 3D coordinate data calculation unit 112, a virtual light source data acquisition unit 113, a projection data calculation unit 114, a video data synchronization unit 115, a drawing Part 116. As shown in FIG. 2, the computer 100 also includes a 3D display 131 and a 2D display 132.
- the 3D video data acquisition unit 111, the 3D coordinate data calculation unit 112, the virtual light source data acquisition unit 113, the projection data calculation unit 114, the video data synchronization unit 115, and the drawing unit 116 are realized by the CPU 110 and the memory 120. Function. More specifically, each function of the CPU 110 is a function realized when the CPU 110 executes a control program stored in the memory 120 or the like and controls each hardware shown in FIG.
- the 3D video data acquisition unit 111 may be a video processing engine or hardware. It may be realized by a wear circuit.
- the 3D video data acquisition unit 111 reads 3D video data (right-eye video and left-eye video) from the memory 120.
- the 3D video data acquisition unit 111 passes the 3D video data to the 3D coordinate data calculation unit 112.
- the 3D coordinate data calculation unit 112 calculates 3D coordinate data based on the right-eye video and the left-eye video. That is, the 3D coordinate data calculation unit 112 can calculate the pop-out amount of each point constituting the 3D video based on the right-eye video and the left-eye video. For example, the 3D coordinate data calculation unit 112 can calculate 3D coordinate data based on the method described in Japanese Patent Application Laid-Open No. 2009-186228.
- the 3D coordinate data calculation unit 112 calculates 3D coordinate data through matrix calculation such as scaling and rotation when acquiring a video including 3D coordinate data (3D model data) like a virtual video. be able to.
- the virtual light source data acquisition unit 113 acquires the position of the virtual light source 10 from the memory 120. Alternatively, the virtual light source data acquisition unit 113 acquires the position of the virtual light source 10 from the user via the input device 140.
- the projection data calculation unit 114 calculates projection data when it is assumed that the 3D object is projected onto the 2D display 132 by the virtual light source based on the calculated 3D coordinate data and the position of the virtual light source 10.
- FIG. 5 is an image diagram showing a method of projecting a 3D object onto the 2D display 132 based on the position of the virtual light source.
- the displayable area of the 2D display 132 When only the displayable area of the 2D display 132 is expressed, for example, when the display area is a square, it can be expressed by four inequalities for indicating which side of each side is the display area (Expression 1).
- A intersects with a plane E parallel to D.
- a (e) be a two-dimensional figure where A and E intersect.
- a point Oe where the straight line ls intersects the plane E is represented by (e * s1 / ⁇ , e * s2 / ⁇ , e * s3 / ⁇ ). All points inside the area of A (e) can be expressed by vectors from Oe. Let these vector groups be Va (e).
- the projection of A from S to D can be expressed by a set ⁇ ad of all A (e) regions created by e satisfying emin ⁇ e ⁇ emax in Equation 2.
- the projection displayed on the 2D display 132 can be represented by a vector group satisfying the inequality determined by Expression 1 in ⁇ ad. From the above, the projection of A on the 2D display 132 from the light source S can be calculated.
- Equation 2 Va (e), so that the calculation is simplified.
- the video data synchronization unit 115 causes the 3D display 131 and the 2D display 132 to simultaneously display the 3D video data and the projection data through the drawing unit 116.
- the projection data calculation unit 114 may output the calculated projection to the drawing unit 116 after performing processing such as enlargement or reduction, expansion or contraction in one direction, or parallel movement.
- processing such as enlargement or reduction, expansion or contraction in one direction, or parallel movement.
- the calculation can be simplified by assuming that the virtual light source is on the same plane as the 3D display 131.
- the 2D display 132 is perpendicular to the incident light. Since the projection data is calculated assuming that the projection data displayed on the 2D display 132 is an orthographic projection that can be calculated simply by setting the x component or y component of the 3D object to 0, the calculation is further simplified. It is possible to do.
- the appropriate projection size and position can be adjusted by performing processing such as enlargement or reduction, expansion / contraction in one direction, or parallel movement on the calculated projection,
- the virtual light source 10 can be moved.
- FIG. 6 is an image diagram illustrating a state in which the angle between the 3D display 131 (first housing 101) and the 2D display 132 (second housing 102) has changed.
- the projection data calculation unit 114 realized by the CPU 110 determines the angle between the 3D display 131 (first casing 101) and the 2D display 132 (second casing 102) from the angle sensor 180. To get.
- the projection data calculation unit 114 generates projection data based on the angle and the position of the virtual light source 10.
- the drawing unit 116 displays the projection data on the 2D display 132.
- the absolute position of the virtual light source 10 does not change even if the position or orientation of the computer 100 changes. That is, when the position and / or orientation of the computer 100 changes, the shadow image displayed on the 2D display 132 also changes.
- the position / orientation sensor 190 is an essential element for the computer 100.
- FIG. 7 is an image diagram showing a state in which the position and posture of the computer 100 have changed.
- the CPU 110 acquires the position and orientation of the computer 100 from the position and orientation sensor 190.
- the CPU 110 generates projection data based on the position and orientation of the computer 100 and the position of the virtual light source 10.
- the CPU 110 displays the projection data on the 2D display 132.
- the CPU 110 of the computer 100 accepts the setting of the position and size of the virtual light source from the user via the input device 140.
- the CPU 110 displays the 2D display 132 on the area inside the shadow, the color of the shadow outline area, and the area away from the shadow. Control so that the color is different.
- FIG. 8 is an image diagram showing a case where the virtual light source 11 has a predetermined volume.
- CPU 110 emits bright light (first luminance) in an area where virtual light source 11 is not hidden at all by the projected image, and an area where part of virtual light source 11 is hidden by the projected image is gray.
- the light (second luminance lower than the first luminance) is emitted, and the area where the virtual light source 11 is completely hidden by the projected image emits black light (third luminance lower than the second luminance).
- the 2D display 132 is controlled.
- the second luminance indicates a luminance range.
- the second luminance does not have to be the same in all gray light areas as long as it is in a range between the first luminance and the third luminance.
- the gradation may gradually change from white to black from the boundary with the first luminance to the boundary with the third luminance.
- FIG. 9 is an image diagram showing a state in which the brightness of the virtual light source 12 is changed.
- the drawing unit 116 realized by the CPU 110 sets the luminance corresponding to the brightness of the virtual light source 12 in the 2D display 132 in an area other than the shadow area.
- FIG. 10 is an image diagram showing a state in which the positions of the two virtual light sources 13A and 13B are set.
- CPU 110 emits bright light (first luminance) in the area where no virtual light source is hidden by the projected image, and the area where only one virtual light source is hidden by the projected image is gray. Emits light (second luminance lower than the first luminance), and black light (third luminance lower than the second luminance) emits black light in the area where both virtual light sources are hidden by the projected image,
- the 2D display 132 is controlled.
- FIG. 11 is an image diagram showing a state in which the color of the virtual light source 14 is changed.
- CPU 110 causes 2D display 132 to display a shadow and an area other than the shadow with luminance, saturation, and hue corresponding to the color of virtual light source 14.
- 2D display 132 causes 2D display 132 to display a shadow and an area other than the shadow with luminance, saturation, and hue corresponding to the color of virtual light source 14.
- 2D display 132 causes 2D display 132 to display a shadow and an area other than the shadow with luminance, saturation, and hue corresponding to the color of virtual light source 14.
- 2D display 132 causes 2D display 132 to display a shadow and an area other than the shadow with luminance, saturation, and hue corresponding to the color of virtual light source 14.
- 2D display 132 causes 2D display 132 to display a shadow and an area other than the shadow with luminance, saturation, and hue corresponding to the color of virtual light source 14.
- 2D display 132 causes 2D display 132 to display a shadow
- FIG. 12 is a flowchart showing a processing procedure of content display processing in computer 100 according to the present embodiment.
- the projection data calculation unit 114 projects only a portion (object) protruding forward of the 3D display 131 onto the 2D display 132.
- CPU 110 of computer 100 reads the attribute of the virtual light source from memory 120 (step S102). For example, the CPU 110 acquires the position, size, brightness, color, and the like of each virtual light source.
- CPU 110 reads video data for 3D display (3D content data) from memory 120 in accordance with an instruction for designating content from the user (step S104). Alternatively, the CPU 110 acquires 3D content data from the outside via the communication interface 170 or a TV antenna. More specifically, the video data for 3D display includes video data for the right eye and video data for the left eye.
- CPU110 calculates 3D coordinate data based on video data (step S106). More specifically, for example, as described in Japanese Patent Application Laid-Open No. 2009-186228, the CPU 110 performs a matrix operation such as scaling and rotation on only a portion of the video data that appears to protrude from the 3D display 131. 3D coordinate data corresponding to the state of the device is calculated.
- CPU110 produces
- the CPU 110 generates projection data assuming that the virtual light source is on the same plane as the 3D display 131.
- the CPU 110 may perform processing such as enlargement or reduction, expansion / contraction in one direction, or parallel movement on the calculated projection data.
- the video data synchronization unit 115 realized by the CPU 110 synchronizes the output of the video data and the projection data (step S110).
- the drawing unit 116 realized by the CPU 110 displays a 3D video on the 3D display 131 based on the video data for the right eye and the video data for the left eye (step S112). At the same time, the CPU 110 causes the 2D display 132 to display a shadow image corresponding to the 3D image.
- CPU 110 determines whether or not to continue reproduction (step S114).
- CPU 110 determines whether or not an instruction for changing the attribute of the virtual light source is received from the user via input device 140 when reproduction is to be continued (YES in step S 114) (step S 116).
- CPU110 repeats the process from step S102, when the command for changing the attribute of a virtual light source is received (when it is YES in step S116).
- CPU110 repeats the process from step S104, when the command for changing the attribute of a virtual light source is not received (when it is NO in step S116).
- the projection data calculation unit 114 calculates projection data for an object that appears to be located behind the 3D display 131. That is, a case where the virtual light source is located behind the plane of the 3D display 131 will be described.
- CPU110 performs the following processes in step S104, S106, and S108.
- step S104 the CPU 110 reads video data for 3D display (3D content data) from the memory 120 in accordance with a command for designating content from the user (step S104).
- the CPU 110 acquires 3D content data from the outside via the communication interface 170 or a TV antenna.
- the CPU 110 may generate right-eye video data and left-eye video data based on the 3D model data.
- step S106 the CPU 110 calculates 3D coordinate data based on the 3D model data. More specifically, for example, as described in Japanese Patent Application Laid-Open No. 2009-186228, the CPU 110 performs processing on all 3D model data (including a portion that appears to be located behind the surface of the 3D display 131). Then, 3D coordinate data corresponding to the state of the apparatus is calculated by matrix operations such as scaling and rotation.
- the CPU 110 generates projection data indicating a shadow image to be displayed on the 2D display 132 based on the 3D coordinate data and the attribute of the virtual light source (step S108). As described above, the CPU 110 may perform processing such as enlargement or reduction, expansion / contraction in one direction, or parallel movement on the calculated projection data.
- the computer 100 according to the first embodiment described above has two displays. Then, the computer 100 displays the shadow corresponding to the video on the 2D display 132 while displaying the video on the 3D display 131 in 3D. On the other hand, the computer 100 according to the present embodiment causes the external projector 300 to output a shadow corresponding to the video while displaying the video on the 3D display 231 in 3D.
- the computer 200 will be described as a representative example of the “content display device”.
- the content display device may be another information device having a display such as an electronic notebook, a game machine, a PND, a PDA, an electronic dictionary, and an electronic BOOK.
- the computer 200 includes a 3D display capable of displaying a 3D still image and a 3D moving image in 3D. As described above, a number of methods for displaying still images and moving images in 3D display have been proposed.
- FIG. 13 is an image diagram when the position of the virtual light source is set to the position of the projector 300.
- FIG. 14 is an image diagram when the position of the virtual light source is set to a position different from the position of the projector 300.
- computer 200 has 3D display 231 capable of displaying content in 3D.
- the 3D display 231 displays a plurality of objects in 3D based on a signal from a CPU 210 (see FIG. 15) described later.
- a CPU 210 see FIG. 15
- the user of the computer 200 according to the present embodiment appears to be protruding from the 3D display 231.
- the computer 200 is configured to be capable of data communication with the projector 300.
- the projector 300 displays a shadow corresponding to the projected amount (unevenness) of the display image on the 3D display 231.
- the CPU 210 calculates the pop-out amount at each point of the display image on the 3D display 231.
- the CPU 210 calculates, as projection data, an image obtained by projecting the protruding portion onto the projection surface of the projector 300 (a screen different from the 3D display 231).
- CPU 210 causes projector 300 to display a shadow of 3D content based on the projection data.
- the computer 200 causes the projector 300 to project a shadow corresponding to the unevenness of the image displayed in 3D on the 3D display 231. Since the shadow according to the pop-up of the video enters the field of view, the user can obtain a greater sense of realism than before.
- the computer 200 may assume that the virtual light source is located at the position of the projector 300.
- the computer 200 may calculate the shadow of the video displayed on the 3D display 231 on the assumption that the virtual light source is located on the surface of the 3D display 231. More specifically, the computer 200 may assume that the virtual light source is located at the light spot between the perpendicular line dropped from the projector 300 on the surface of the 3D display 231 and the surface of the 3D display 231.
- the 3D display and the projector may be an integrated type that fits in the same housing.
- FIG. 15 is a block diagram showing a hardware configuration of computer 200 according to the present embodiment.
- a computer 200 includes a CPU 210, a memory 220, a 3D display 231, an input device 240, a memory interface 260, a communication interface 270, an angle sensor 280, a position Posture sensor 290.
- the 3D display 231 displays various information in 3D under the control of the CPU 210.
- the CPU 210 displays the video in 3D on the 3D display 231 based on the video data for the right eye and the video data for the left eye.
- the CPU 210 may generate right-eye video data and left-eye video data based on data representing a 3D stereoscopic model.
- the input device 240 includes a tablet for detecting a touch operation with a user's finger or stylus pen.
- the tablet is laid on the surface of the 3D display 231 and / or the projector 300.
- the input device 240 includes a determination key, a numeric keypad, and a QWERTY keyboard arranged on the surface of the computer 200.
- the CPU 210 can accept a command from the user via the input device 140.
- the CPU 210 reads data stored in the external storage medium 261 via the memory interface 260 and stores the data in the memory 220. Conversely, the CPU 210 reads data from the memory 220 and stores the data in the external storage medium 261 via the memory interface 260.
- CD-ROM Compact Disc-Read Only Memory
- DVD-ROM Digital Versatile Disk-Read Only Memory
- Blu-ray Disc USB (Universal Serial Bus) memory
- memory card FD (Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically) Erasable Programmable Read-Only Memory) and other media that store the program in a non-volatile manner.
- the communication interface 270 is realized by an antenna or a connector.
- the communication interface 170 exchanges data with other devices by wired communication or wireless communication.
- the CPU 210 receives a program, 3D content data, and the like from another device via the communication interface 270, and transmits data to the other device.
- the CPU 210 causes the projector 300 to output a shadow image by transmitting projection data to the projector 300 described later via the communication interface 270.
- the angle sensor 280 is realized by an infrared sensor, an acceleration sensor, an angular velocity sensor, an orientation sensor, image recognition, and the like, and detects an angle between the 3D display 231 and the projector 300 (or the projection surface of the projector 300). In the present embodiment, it is assumed that the irradiation direction of projector 300 is perpendicular to the projection plane of projector 300. The angle sensor 280 inputs the detected angle to the CPU 210.
- the position / orientation sensor 290 detects the position and orientation of the 3D display 231.
- the position / orientation sensor 290 inputs the position and orientation of the 3D display 231 to the CPU 210.
- the memory 220 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), a hard disk, and the like.
- the memory 220 may be a USB (Universal Serial Bus) memory, CD-ROM (Compact Disc-Read Only Memory), DVD-ROM (Digital Versatile Disk-Read Only Memory), USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card)
- the memory 220 stores a program executed by the CPU 210, data generated by execution of the program by the CPU 210, data input through the input device 240, and the like.
- the memory 220 stores a control program executed by the CPU 210, 3D video data, and the like.
- the 3D video data includes 3D still image data for displaying a 3D still image, 3D moving image data for displaying a 3D moving image, and model data indicating a 3D model.
- CPU 210 executes various programs stored in memory 220. Functions (such as the functional blocks in FIG. 16) and processes (such as those illustrated in FIG. 12) in the computer 200 are realized by each hardware and software executed by the CPU 210. Such software may be stored in the memory 220 in advance. The software may be stored in the above-described storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.
- Such software is read from the storage medium by using the memory interface 260 or downloaded by using the communication interface 270 and temporarily stored in the memory 220.
- the CPU 210 stores the software in the form of an executable program in the memory 220 and then executes the program.
- the program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
- the CPU 210 displays the video in 3D on the 3D display 231 based on the 3D video data stored in the memory 220.
- the CPU 210 displays the object on the 3D display 231 so that the unevenness can be recognized. In other words, it seems to the user that the object exists in front of or behind the 3D display 231.
- the projector 300 displays various information in 2D by being controlled by the CPU 210.
- the CPU 210 generates projection data representing the shadow of the object displayed on the 3D display 231.
- CPU 210 causes projector 300 to display a shadow image.
- the CPU 210 causes the projector 300 to display a shadow corresponding to the unevenness of the display image on the 3D display 231. For example, the CPU 210 calculates the pop-up amount of the display image on the 3D display 231. CPU 210 calculates an image obtained by projecting the protruding portion onto the projection surface of projector 300 as a shadow. CPU 210 transmits the protruding portion to projector 300. CPU 210 causes projector 300 to display a shadow.
- FIG. 16 is a block diagram showing a functional configuration of the computer 200 according to the present embodiment.
- a computer 200 includes a 3D video data acquisition unit 211, a 3D coordinate data calculation unit 212, a virtual light source data acquisition unit 213, a projection data calculation unit 214, a video data synchronization unit 215, a drawing Part 216.
- the computer 200 also includes a 3D display 231 as shown in FIGS.
- the computer 200 can communicate with the projector 300.
- the 3D video data acquisition unit 211, the 3D coordinate data calculation unit 212, the virtual light source data acquisition unit 213, the projection data calculation unit 214, the video data synchronization unit 215, and the drawing unit 216 are realized by the CPU 210 and the memory 220. Function. More specifically, each function of the CPU 210 is a function realized by the CPU 210 executing a control program stored in the memory 220 or the like to control each hardware shown in FIG.
- the 3D video data acquisition unit 211, the 3D coordinate data calculation unit 212, the virtual light source data acquisition unit 213, the projection data calculation unit 214, the video data synchronization unit 215, and the drawing unit 216 may be a video processing engine or hardware. It may be realized by a wear circuit.
- the 3D video data acquisition unit 211, the 3D coordinate data calculation unit 212, the virtual light source data acquisition unit 213, and the projection data calculation unit 214 are the 3D video data acquisition unit 111 and the 3D coordinate data calculation unit according to Embodiment 1, respectively. 112, the virtual light source data acquisition unit 113, and the projection data calculation unit 114 are the same, and the description thereof will not be repeated here.
- the video data synchronization unit 215 causes the 3D display 231 and the projector 300 to output the 3D video data and the projection data simultaneously through the drawing unit 216.
- the angle between the 3D display 231 and the projector 300 may be acquired by using the angle sensor 280 or the like.
- the CPU 210 generates projection data based on the angle.
- CPU 210 causes projector 300 to display projection data.
- the position and orientation sensor 290 is an essential element for the computer 200.
- CPU 210 obtains the position and orientation of computer 200 from position and orientation sensor 290.
- the CPU 210 generates projection data based on the position and orientation.
- CPU 210 causes projector 300 to display projection data.
- the CPU 210 of the computer 200 accepts the setting of the position and size of the virtual light source from the user via the input device 240.
- the CPU 210 causes the projector 300 to change the color of the shadow inner area, the color of the shadow outline area, and the area away from the shadow. Control so that the color is different.
- the CPU 210 emits bright light (first luminance) in an area where the virtual light source is not completely hidden by the projected video, and gray light (from the first luminance) is an area where a part of the virtual light source is hidden by the projected video.
- the projector 300 is controlled such that the area where the virtual light source is completely hidden by the projected image emits black light (third luminance lower than the second luminance).
- the CPU 210 of the computer 200 receives the brightness of the virtual light source 12 from the user via the input device 140.
- the drawing unit 116 realized by the CPU 210 sets the brightness corresponding to the brightness of the virtual light source in the projector 300 in an area other than the shadow area.
- the CPU 210 of the computer 200 receives the number of virtual light sources and the position of each virtual light source from the user via the input device 240.
- the CPU 210 emits bright light (first luminance) in the area where no virtual light source is hidden by the projected video, and gray light (from the first luminance) is hidden in the area where only one virtual light source is hidden by the projected video.
- the projector 300 is controlled so that the area where both of the virtual light sources are hidden by the projected image emits black light (third luminance lower than the second luminance).
- the CPU 210 of the computer 200 receives the color of the virtual light source 14 from the user via the input device 240.
- the CPU 210 causes the projector 300 to display a shadow and an area other than the shadow with luminance corresponding to the color of the virtual light source.
- step S110 the video data synchronization unit 215 realized by the CPU 210 synchronizes the output of the video data and the projection data.
- step S112 the rendering unit 216 realized by the CPU 210 displays a 3D video on the 3D display 231 based on the video data for the right eye and the video data for the left eye. At the same time, the CPU 210 causes the projector 300 to display a shadow image corresponding to the 3D image.
- the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
- the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
- Virtual light source 100 computer, 101 first housing, 102 second housing, 110 CPU, 111 video data acquisition unit, 112 coordinate data calculation unit, 113 virtual light source data Acquisition unit, 114 projection data calculation unit, 115 video data synchronization unit, 116 drawing unit, 120 memory, 131 3D display, 132 2D display, 140 input device, 160 memory interface, 161 storage medium, 170 communication interface, 180 angle sensor, 190 Position / attitude sensor, 200 computer, 211 video data acquisition unit, 212 coordinate data calculation unit, 213 virtual light source data acquisition unit, 214 projection data calculation unit, 215 video data synchronization unit, 216 drawing unit, 20 memory, 231 3D display, 240 input device, 260 a memory interface, 261 storage medium, 270 communication interface, 280 an angle sensor, 290 position and orientation sensor 300 projector.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法が提供される。3Dコンテンツ表示装置(100,200)は、第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置(131,231)と、第1の出力装置(131,231)に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するためのプロセッサ(110,210)とを備える。
Description
本発明は、静止画像や動画像などの3Dのコンテンツを表示するための3Dコンテンツ表示装置および3Dコンテンツ表示方法に関する。
3Dの静止画像や3Dの動画像を立体的に表示することが可能な3Dコンテンツ表示装置が知られている。
たとえば、特開2010-3260号公報(特許文献1)には、地図表示装置が開示されている。特開2010-3260号公報(特許文献1)によると、地図表示装置は、表示画面が設けられている蓋体と、蓋体と回動可能に接続されている本体とを備えており、本体に対して表示画面が成す画面角度(相対角度)を角度検出部より取得し、取得した画面角度に基づいて、3Dオブジェクトが含まれる空間において、該3Dオブジェクトを捉える視点の角度である投影角度を、所定の角度算出規則にしたがって算出する投影角度算出部と、算出された投影角度に基づいて、上記3Dオブジェクトを投影し、上記表示画面に表示するための画面表示データを生成する3D描画部とを備えていることを特徴としている。
また、特開2009-186228号公報(特許文献2)には、3次元計測装置が開示されている。特開2009-186228号公報(特許文献2)によると、ステレオカメラからの左右映像上のエッジをエッジ抽出部で抽出し、等距離にある等で類似した複数のエッジをエッジグルーピング部でグループ化してエッジ集合を定義した上、2つの映像の対応領域を対応領域設定部で設定する。その領域内で対応領域相関部が、エッジ配列情報を抽出して比較を行い、類似度を演算して、その類似度の高いペアに対してサブピクセル単位の高精度な対応位置を求め、その結果から、距離計算部が距離を演算する。したがって、左右映像のエッジ集合同士の位置ズレをエッジ配置の類似性とともに評価することで、ロバストかつ精度良く求めることができるとともに、対応点探索処理を行う箇所を最小限にすることができる。
3Dコンテンツ表示装置は、3D映像を表示することによって、視聴者がより大きな臨場感を得られることが求められている。
したがって、従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法が必要とされている。
一実施の形態に従うと、第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置と、第1の出力装置に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するためのプロセッサとを備える、3Dコンテンツ表示装置が提供される。
好ましくは、第1の出力装置は、第1の画面を有する第1のディスプレイである。
好ましくは、第1の出力装置は、第1の画面に3Dコンテンツを出力する第1のプロジェクタである。
好ましくは、第1の出力装置は、第1の画面に3Dコンテンツを出力する第1のプロジェクタである。
好ましくは、3Dコンテンツ表示装置は、第2の画面を有する第2のディスプレイをさらに備える。
好ましくは、3Dコンテンツ表示装置は、第1の画面と第2の画面との位置関係を検出するための第1のセンサをさらに備える。プロセッサは、第1の画面に表示される3Dコンテンツと、仮想光源の位置と、位置関係と、に基づいて、3Dコンテンツの影の映像を計算する。
好ましくは、プロセッサは、通信インターフェイスを介して、影の映像を第2のプロジェクタに表示させる。
好ましくは、3Dコンテンツ表示装置は、第1の画面と第2のプロジェクタとの位置関係を検出する第2のセンサをさらに備える。プロセッサは、第1の画面に表示される3Dコンテンツと、仮想光源の位置と、位置関係と、に基づいて、3Dコンテンツの影の映像を計算する。
好ましくは、3Dコンテンツ表示装置は、第1の出力装置の姿勢を検出する姿勢センサをさらに備える。プロセッサは、第1の出力装置の姿勢に基づいて、影の映像を計算する。
他の実施の形態に従うと、第1の出力装置とプロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法が提供される。3Dコンテンツ表示方法は、プロセッサが、3Dコンテンツを取得するステップと、プロセッサが、3Dコンテンツの影の映像を計算するステップと、プロセッサが、第1の出力装置に第1の画面に3Dコンテンツを3Dで表示させるとともに、第1の画面とは異なる第2の画面に、3Dコンテンツに対応する影の映像を出力するステップとを備える。
ある局面に従うと、従来よりも大きな臨場感を実現することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法が提供される。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[実施の形態1]
本実施の形態においては、ノート型のパーソナルコンピュータ100(以下では、単にコンピュータ100という。)を「コンテンツ表示装置」の代表例として説明を行う。ただし、コンテンツ表示装置は、電子ノート、ゲーム機、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、電子辞書、電子BOOK、テレビ、モニター、ポータブルプレーヤなどのようなディスプレイを有する他の情報機器であってもよい。また、スクリーンや壁等に映像を投影するプロジェクタを有する他の情報機器であってもよい。
[実施の形態1]
本実施の形態においては、ノート型のパーソナルコンピュータ100(以下では、単にコンピュータ100という。)を「コンテンツ表示装置」の代表例として説明を行う。ただし、コンテンツ表示装置は、電子ノート、ゲーム機、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、電子辞書、電子BOOK、テレビ、モニター、ポータブルプレーヤなどのようなディスプレイを有する他の情報機器であってもよい。また、スクリーンや壁等に映像を投影するプロジェクタを有する他の情報機器であってもよい。
そして、本実施の形態に係るコンピュータ100は、3Dの静止画像や3Dの動画像を3Dで表示することが可能な3Dディスプレイと、3Dの静止画像や3Dの動画像に対応する影を表示するための2Dディスプレイとを含む。ここで言うディスプレイは、たとえば、スクリーン等に映像を映し出す投影型のプロジェクタであってもよい。また、ここで言う2Dディスプレイとは、2Dでの表示が可能なディスプレイという位置づけであり、2Dディスプレイが3D表示機能を有していても良い。
より詳細には、後述する実施の形態2では、第2のディスプレイがプロジェクタである形態について説明する。実施の形態2と同様に、3Dディスプレイとして、3Dコンテンツを表示するプロジェクタを利用することも可能である。たとえば、映画館での利用やホームシアターでの利用のために、3Dディスプレイと2Dディスプレイとをプロジェクタによって実現することも可能である。この場合には、予め3Dコンテンツが表示される投影面と2Dの影の映像が表示される投影面との位置関係を、ユーザや管理人が予め設定しておくことができるため、後述する角度センサや姿勢センサは不要である。
現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。たとえば、メガネを用いる方式として、液晶アクティブシャッターメガネ方式、カラーフィルタ方式および偏向板方式が挙げられる。また、メガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。本実施の形態に係る3Dの表示方式は、上記の方式に限定されるものではない。
<コンピュータ100の動作概要>
以下では、本実施の形態に係るコンピュータ100の動作概要について説明する。図1は、本実施の形態に係るコンピュータ100の外観を示すイメージ図である。
以下では、本実施の形態に係るコンピュータ100の動作概要について説明する。図1は、本実施の形態に係るコンピュータ100の外観を示すイメージ図である。
図1を参照して、本実施の形態に係るコンピュータ100は、第1の筐体101と、第1の筐体101とヒンジを介して接続される第2の筐体102とを含む。第1の筐体101は、コンテンツを3D表示することができる3Dディスプレイ131を有する。第2の筐体102は、コンテンツを2D表示することができる2Dディスプレイ132を有する。
3Dディスプレイ131は、後述するCPU(Central Processing Unit)100(図2を参照。)からの信号に基づいて、複数のオブジェクトを3D表示する。換言すれば、オブジェクトが3D表示されている場合、本実施の形態に係るコンピュータ100のユーザは、当該オブジェクトが3Dディスプレイ131から飛び出しているように見える。
2Dディスプレイ132は、3Dディスプレイ131における表示映像の飛び出し量(凹凸)に対応する影を表示する。たとえば、CPU110は、3Dディスプレイ131における表示映像の各点における飛び出し量を計算する。CPU110は、飛び出した部分を2Dディスプレイ132に射影した映像を射影データとして計算する。CPU110は、射影データに基づいて、2Dディスプレイ132に3Dコンテンツの影を表示させる。
以上のように、本実施の形態に係るコンピュータ100は、3Dディスプレイ131に3D表示される映像の凹凸に対応する影を2Dディスプレイ132に表示する。ユーザは、映像の飛び出しに応じた影が視界に入るため、従来よりも大きな臨場感が得られるようになる。
以下、このような機能を実現するためのコンピュータ100の構成について詳述する。
<コンピュータ100のハードウェア構成>
本実施の形態に係るコンピュータ100のハードウェア構成について説明する。図2は、本実施の形態に係るコンピュータ100のハードウェア構成を示すブロック図である。
<コンピュータ100のハードウェア構成>
本実施の形態に係るコンピュータ100のハードウェア構成について説明する。図2は、本実施の形態に係るコンピュータ100のハードウェア構成を示すブロック図である。
図2に示すように、本実施の形態に係るコンピュータ100は、CPU110と、メモリ120と、3Dディスプレイ131と、2Dディスプレイ132と、入力デバイス140と、メモリインターフェイス160と、通信インターフェイス170と、角度センサ180と、位置姿勢センサ190とを含む。
3Dディスプレイ131は、CPU110に制御されることによって、様々な情報を3Dで表示する。たとえば、CPU110は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ131に映像を3Dで表示させる。CPU110は、3Dの立体モデルを表わすデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
2Dディスプレイ132は、CPU110によって制御されることによって、様々な情報を2Dで表示する。たとえば、CPU110は、3Dディスプレイ131に表示されているオブジェクトの影を表す射影データを生成する。CPU110は、2Dディスプレイ132に影の映像を表示させる。
入力デバイス140は、ユーザの指やスタイラスペンによるタッチ操作を検出するためのタブレットを含む。タブレットは、3Dディスプレイ131および/あるいは2Dディスプレイ132の表面に敷設される。入力デバイス140は、コンピュータ100の表面に配置されるあるいは有線ないし無線で接続される、決定キーやテンキーやQWERTYキーボード、ポインティングデバイス、音声や映像による入力を受け付ける認識デバイス等を含む。CPU110は、入力デバイス140を介して、ユーザからの命令を受け付けることができる。
CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
なお、記憶媒体161としては、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、Blu-rayDisc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス170は、アンテナやコネクタによって実現される。通信インターフェイス170は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU110は、通信インターフェイス170を介して、他の装置からプログラムや3Dコンテンツデータなどを受信したり、他の装置にデータを送信したりする。
角度センサ180は、第1の筐体101と第2の筐体102との間の角度を検出する。角度センサ180は、検出した角度をCPU110に入力する。
位置姿勢センサ190は、第1の筐体101の位置や姿勢を検出する。位置姿勢センサ190は、加速度センサ、角速度センサ、方位センサ、画像認識、GPSなどによって実現され、第1の筐体101の位置や姿勢を、CPU110に入力する。
メモリ120は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。あるいは、メモリ120は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、Blu-ray Disc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力デバイス140を介して入力されたデータなどを記憶する。
メモリ120は、CPU110によって実行される制御プログラムや、3Dの映像データなどを記憶する。3Dの映像データは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データ、3Dモデルを示すモデルデータを含む。
CPU110は、メモリ120に記憶されている各種のプログラムを実行する。コンピュータ100における機能(図3の機能ブロックなど)や処理(図12に示す処理など)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
このようなソフトウェアは、メモリインターフェイス160を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス170を利用することによってダウンロードされて、メモリ120に一旦格納される。CPU110は、ソフトウェアを実行可能なプログラムの形式でメモリ120に格納してから、当該プログラムを実行する。
ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
CPU110は、メモリ120に格納されている3D映像データに基づいて、3Dディスプレイ131に映像を3Dで表示させる。CPU110は、3Dディスプレイ131にオブジェクトの凹凸が認識できるように表示させる。換言すれば、ユーザには、オブジェクトが3Dディスプレイ131の手前や奥に存在するように見える。
本実施の形態に係るCPU110は、3Dディスプレイ131における表示映像の凹凸に対応する影を、2Dディスプレイ132に表示させる。たとえば、CPU110は、3Dディスプレイ131における表示映像の飛び出し量を計算する。CPU110は、飛び出した部分を2Dディスプレイ132に射影した映像を影として計算する。CPU110は、2Dディスプレイ132に影を表示させる。
<コンピュータ100の機能構成>
次に、本実施の形態に係るコンピュータ100の機能構成について説明する。図3は、本実施の形態に係るコンピュータ100の機能構成を示すブロック図である。図4は、本実施の形態に係るコンピュータ100が仮想光源10の位置に基づいて3D映像の影を表示することを示すイメージ図である。
次に、本実施の形態に係るコンピュータ100の機能構成について説明する。図3は、本実施の形態に係るコンピュータ100の機能構成を示すブロック図である。図4は、本実施の形態に係るコンピュータ100が仮想光源10の位置に基づいて3D映像の影を表示することを示すイメージ図である。
図3を参照して、コンピュータ100は、3D映像データ取得部111と、3D座標データ算出部112と、仮想光源データ取得部113と、射影データ算出部114と、映像データ同期部115と、描画部116とを含む。コンピュータ100は、図2にも示したように、3Dディスプレイ131と2Dディスプレイ132とも含む。
3D映像データ取得部111と、3D座標データ算出部112と、仮想光源データ取得部113と、射影データ算出部114と、映像データ同期部115と、描画部116とは、CPU110およびメモリ120によって実現される機能である。より詳細には、CPU110が有する各機能は、CPU110がメモリ120などに記憶される制御プログラムを実行して、図2に示される各ハードウェアを制御することによって実現される機能である。
ただし、3D映像データ取得部111、3D座標データ算出部112、仮想光源データ取得部113、射影データ算出部114、映像データ同期部115、描画部116の一部または全部が、映像処理エンジンまたはハードウェア回路によって実現されてもよい。
3D映像データ取得部111は、メモリ120から3D映像データ(右目用映像と左目用映像)を読み出す。3D映像データ取得部111は、3D映像データを3D座標データ算出部112に受け渡す。
図3および図4を参照して、3D座標データ算出部112は、右目用映像と左目用映像とに基づいて、3Dの座標データを算出する。すなわち、3D座標データ算出部112は、右目用映像と左目用映像とに基づいて、3D映像を構成する各点の飛び出し量を計算することができる。たとえば、3D座標データ算出部112は、特開2009-186228号公報に記載の方法に基づいて、3D座標データを算出することができる。
あるいは、3D座標データ算出部112は、バーチャル映像のように、3D座標データ(3Dモデルデータ)を含む映像を取得した場合は、スケーリングや回転等の行列計算を介して、3D座標データを算出することができる。
仮想光源データ取得部113は、メモリ120から仮想光源10の位置を取得する。あるいは、仮想光源データ取得部113は、入力デバイス140を介して、ユーザから仮想光源10の位置を取得する。
射影データ算出部114は、算出された3D座標データと、仮想光源10の位置とに基づいて、3Dオブジェクトが仮想光源によって2Dディスプレイ132に射影されたと仮定した場合の射影データを算出する。
ここで、射影データ算出部114における処理を詳しく説明する。図5は、仮想光源の位置に基づいて3Dオブジェクトを2Dディスプレイ132に射影する方法を示すイメージ図である。
図5を参照して、3Dオブジェクトの各々をAn(ただしn=1,2,・・・N)とし、仮想光源をS(s1,s2,s3)とし、2Dディスプレイ132が存在する平面をD(ax+by+cz=d、a,b,c,dは定数)とする。なお、点O(0,0,0)は、3Dディスプレイ131の頂点の一つとする。
この時、SとOとを結ぶ直線lsは、
x/s1=y/s2=z/s3
で表される。この式と平面Dを示す式とに基づいて、α=a*s1+b*s2+c*s3とすると、SからDへのOの写像Odは(d*s1/α,d*s2/α,d*s3/α)で表される。
x/s1=y/s2=z/s3
で表される。この式と平面Dを示す式とに基づいて、α=a*s1+b*s2+c*s3とすると、SからDへのOの写像Odは(d*s1/α,d*s2/α,d*s3/α)で表される。
2Dディスプレイ132の表示可能な領域だけを表す場合は、例えば表示領域が四角形の場合は、それぞれの辺のどちら側が表示領域かを表すための4つの不等式で表す事ができる(式1)。
次に、SからDに対するAnの射影の算出方法について説明する。
Aは、Dと平行な平面Eと交わるものとする。この時、平面Eは、ax+bx+cz=e(ただし、emin≦e≦emax)で表される。AとEが交わった部分である2次元の図形をA(e)とする。また、直線lsと平面Eとが交わる点Oeは、(e*s1/α,e*s2/α,e*s3/α)で表される。A(e)の領域内部の点は全てOeからのベクトルで表現する事ができる。これらのベクトル群をVa(e)とする。
Aは、Dと平行な平面Eと交わるものとする。この時、平面Eは、ax+bx+cz=e(ただし、emin≦e≦emax)で表される。AとEが交わった部分である2次元の図形をA(e)とする。また、直線lsと平面Eとが交わる点Oeは、(e*s1/α,e*s2/α,e*s3/α)で表される。A(e)の領域内部の点は全てOeからのベクトルで表現する事ができる。これらのベクトル群をVa(e)とする。
SからDまでの距離と、SからEまでの距離の比は、SからOdまでの距離と、SからOeまでの距離の比に等しいので、以下の式が成り立つ。
d*s1/α-s1:e*s1/α-s1=d-α:e-α
よって、SからDに対するA(e)の射影は、Odからのベクトル群{(d-α)/(e-α)}*Va(e)として表される(式2)。
d*s1/α-s1:e*s1/α-s1=d-α:e-α
よって、SからDに対するA(e)の射影は、Odからのベクトル群{(d-α)/(e-α)}*Va(e)として表される(式2)。
SからDに対するAの射影は、式2においてemin≦e≦emaxを満たすeにより作られる全てのA(e)の領域の集合φadで表す事ができる。2Dディスプレイ132に表示される射影は、φadの内、式1によって決定される不等式を満たすベクトル群により表す事ができる。以上より、光源Sから2Dディスプレイ132に対する、Aの射影を算出する事ができる。
特に光源Sが無限遠点にある場合は、d-α=e-αとなり、式2はVa(e)と表されるため、計算が簡略化される。
さらに、SとOdとを結ぶ直線が平面Dと垂直であり、a,b,cの内、2つの値が0である場合、平面Dは、ax=d、または、by=d、または、cz=d、と表される。式2のVa(e)は、平面D上の座標(0,0)からのベクトル群とみなされるので、さらに計算が簡略化される。このように計算を簡略化することにより、基本的な機能を損なわずに処理速度の遅い装置においても、リアルタイムに射影算出できる可能性を高めることができる。
図3および図4に戻って、映像データ同期部115は、描画部116を通って、3D映像データと射影データとを同時に3Dディスプレイ131と2Dディスプレイ132とに表示させる。ただし、3D静止画像を表示する場合や、射影データを作成する時間が人間がずれを感じないくらい短い場合などは、3D映像データと射影データとを同期させるための機能を設ける必要はない。
なお、射影データ算出部114は、算出された射影に対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってから、描画部116に出力してもよい。これらの処理により、臨場感を与えるための適切な表示サイズ・表示位置を調節したり、擬似的に仮想光源を移動させたりするための計算を簡略化にできる。たとえば、算出された射影を縮小し、無限遠点にある仮想光源により生成される正射影よりも小さくした場合は、影が2Dディスプレイ132よりも遠くにあるかのような印象を与える事もできる。
たとえば、3Dディスプレイ131よりも手前にある座標にある(飛び出して見える)オブジェクトのみを射影する場合、仮想光源が3Dディスプレイ131と同じ面にあるものと仮定することによって計算を簡略化できる。
さらに、仮想光源が3Dディスプレイ131と同じ面にあり且つ無限遠点にあり、仮想光源からの入射光が3Dディスプレイ131のx軸又はy軸と平行である場合、2Dディスプレイ132が入射光に垂直であると仮定して射影データを計算することにより、2Dディスプレイ132に表示される射影は3Dオブジェクトのx成分又はy成分を0にするだけで算出できる正射影となるので、さらに計算を簡略化する事が可能である。
また、これらの場合においても、算出された射影に対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行う事により、適切な表示サイズおよび表示位置を調節したり、擬似的に仮想光源10を移動させたりする事ができる。
このように構成することによって、本実施の形態においては、3Dディスプレイ131(第1の筐体101)に対する仮想光源10の相対位置が一定である場合、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度が変化すると、2Dディスプレイ132に表示される影の映像も変化する。図6は、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度が変化した状態を示すイメージ図である。
図6を参照して、CPU110によって実現される射影データ算出部114は、角度センサ180から、3Dディスプレイ131(第1の筐体101)と2Dディスプレイ132(第2の筐体102)との角度を取得する。射影データ算出部114は、当該角度と仮想光源10の位置とに基づいて、射影データを生成する。描画部116は、射影データを2Dディスプレイ132に表示させる。
あるいは、コンピュータ100の位置や姿勢が変化しても、仮想光源10の絶対位置が変化しない構成にすることもできる。すなわち、コンピュータ100の位置および/姿勢が変化すると、2Dディスプレイ132に表示される影の映像も変化する。この場合には、図2に示すように、コンピュータ100にとって、位置姿勢センサ190が必須の要素になる。
図7は、コンピュータ100の位置と姿勢とが変化した状態を示すイメージ図である。図7を参照して、CPU110は、位置姿勢センサ190から、コンピュータ100の位置と姿勢とを取得する。CPU110は、コンピュータ100の位置と姿勢と仮想光源10の位置とに基づいて、射影データを生成する。CPU110は、射影データを2Dディスプレイ132に表示させる。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の位置や大きさの設定を受け付けることが好ましい。仮想光源の半径が設定できる場合、換言すれば、仮想光源が体積を有する場合、CPU110は、2Dディスプレイ132を、影の内側エリアの色と、影の輪郭エリアの色と、影から離れたエリアの色とが異なるように制御する。図8は、仮想光源11が所定の体積を有する場合を示すイメージ図である。
図8を参照して、CPU110は、飛び出した映像によって仮想光源11が全く隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって仮想光源11の一部が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源11が完全に隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、2Dディスプレイ132を制御する。なお、第2の輝度は輝度の範囲を指すものである。第2の輝度は、第1の輝度と第3の輝度の間の範囲であれば灰色の光のエリア全てにおいて同じ輝度である必要はない。例えば、第1の輝度との境界から第3の輝度との境界にかけて徐々に白から黒に変化するグラデーションとなるように設定してもよい。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の明るさを受け付けることが好ましい。図9は、仮想光源12の明るさを変化させた状態を示すイメージ図である。図9を参照して、CPU110によって実現される描画部116は、2Dディスプレイ132のうち、仮想光源12の明るさに対応する輝度を、影エリア以外のエリアに設定する。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の個数と各々の仮想光源の位置とを受け付けることが好ましい。図10は、2つの仮想光源13A,13Bの位置を設定した状態を示すイメージ図である。図10を参照して、CPU110は、飛び出した映像によって1つも仮想光源が隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって1つだけの仮想光源が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が2つとも隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、2Dディスプレイ132を制御する。
さらに、コンピュータ100のCPU110は、入力デバイス140を介して、ユーザから仮想光源の色を受け付けることが好ましい。図11は、仮想光源14の色を変化させた状態を示すイメージ図である。図11を参照して、CPU110は、2Dディスプレイ132に、仮想光源14の色に対応する輝度・彩度・色相で影および影以外のエリアを表示させる。、輝度・彩度・色相の代わりに、色空間を表す他の尺度を使用してもよい。
<コンピュータ100におけるコンテンツ表示処理>
次に、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理について説明する。図12は、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理の処理手順を示すフローチャートである。以下では、射影データ算出部114が、3Dディスプレイ131よりも手前に飛び出している部分(オブジェクト)のみを2Dディスプレイ132に射影する場合について説明する。
次に、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理について説明する。図12は、本実施の形態に係るコンピュータ100におけるコンテンツ表示処理の処理手順を示すフローチャートである。以下では、射影データ算出部114が、3Dディスプレイ131よりも手前に飛び出している部分(オブジェクト)のみを2Dディスプレイ132に射影する場合について説明する。
図12を参照して、まず、コンピュータ100のCPU110は、メモリ120から仮想光源の属性を読み出す(ステップS102)。たとえば、CPU110は、各々の仮想光源の位置、大きさ、明るさ、色などを取得する。
CPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリ120から3D表示用の映像データ(3Dコンテンツデータ)を読み出す(ステップS104)。あるいは、CPU110は、通信インターフェイス170やTVアンテナなどを介して、外部から3Dコンテンツデータを取得する。より詳細には、3D表示用の映像データは、右目用の映像データと左目用の映像データとを含む。
CPU110は、映像データに基づいて、3D座標データを算出する(ステップS106)。より詳細には、たとえば、特開2009-186228号公報に記載のように、CPU110は、映像データのうちの3Dディスプレイ131から飛び出して見える部分のみに対して、スケーリングや回転等の行列演算によって、装置の状態に対応した3D座標データを計算する。
CPU110は、3D座標データと、仮想光源の属性とに基づいて、2Dディスプレイ132に表示されるべき影の映像を示す射影データを生成する(ステップS108)。通常の設定においては、CPU110は、仮想光源が3Dディスプレイ131と同じ平面にあるものとして、射影データを生成する。上述したように、CPU110は、算出された射影データに対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってもよい。
CPU110によって実現される映像データ同期部115は、映像データと射影データの出力の同期を取る(ステップS110)。
CPU110によって実現される描画部116は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ131に3D映像を表示させる(ステップS112)。同時に、CPU110は、2Dディスプレイ132に3D映像に対応する影の映像を表示させる。
CPU110は、再生を継続すべきか否かを判断する(ステップS114)。CPU110は、再生停止命令を受け付けた場合または動画が終了した場合(ステップS114においてNOである場合)、コンテンツ表示処理を終了する。
CPU110は、再生を継続すべき場合(ステップS114においてYESである場合)、入力デバイス140を介してユーザから仮想光源の属性を変更するための命令を受け付けたか否かを判断する(ステップS116)。CPU110は、仮想光源の属性を変更するための命令を受け付けた場合(ステップS116においてYESである場合)、ステップS102からの処理を繰り返す。CPU110は、仮想光源の属性を変更するための命令を受け付けなかった場合(ステップS116においてNOである場合)、ステップS104からの処理を繰り返す。
なお、射影データ算出部114が、3Dディスプレイ131よりも奥に位置するように見えるオブジェクトについても射影データを算出する場合について説明する。すなわち、3Dディスプレイ131の平面よりも奥に仮想光源が位置する場合について説明する。CPU110は、ステップS104、S106,S108において、以下のような処理を実行する。
ステップS104においては、CPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリ120から3D表示用の映像データ(3Dコンテンツデータ)を読み出す(ステップS104)。あるいは、CPU110は、通信インターフェイス170やTVアンテナなどを介して、外部から3Dコンテンツデータを取得する。たとえば、CPU110は、3Dモデルデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
ステップS106においては、CPU110は、3Dモデルデータに基づいて、3D座標データを算出する。より詳細には、たとえば、特開2009-186228号公報に記載のように、CPU110は、3Dモデルデータの全て(3Dディスプレイ131の表面よりも奥に位置するように見える部分を含む)に対して、スケーリングや回転等の行列演算によって、装置の状態に対応した3D座標データを計算する。
CPU110は、3D座標データと、仮想光源の属性とに基づいて、2Dディスプレイ132に表示されるべき影の画像を示す射影データを生成する(ステップS108)。上述したように、CPU110は、算出された射影データに対して、拡大または縮小または一方向への伸縮または平行移動等の処理を行ってもよい。
[実施の形態2]
次に、本発明の実施の形態2について説明する。上述の実施の形態1に係るコンピュータ100は、2つのディスプレイを有するものであった。そして、コンピュータ100は、3Dディスプレイ131に映像を3Dで表示しつつ、2Dディスプレイ132に当該映像に対応する影を表示するものであった。一方、本実施の形態に係るコンピュータ100は、3Dディスプレイ231に映像を3Dで表示しつつ、外部のプロジェクタ300に当該映像に対応する影を出力させるものである。
次に、本発明の実施の形態2について説明する。上述の実施の形態1に係るコンピュータ100は、2つのディスプレイを有するものであった。そして、コンピュータ100は、3Dディスプレイ131に映像を3Dで表示しつつ、2Dディスプレイ132に当該映像に対応する影を表示するものであった。一方、本実施の形態に係るコンピュータ100は、3Dディスプレイ231に映像を3Dで表示しつつ、外部のプロジェクタ300に当該映像に対応する影を出力させるものである。
本実施の形態においては、コンピュータ200を「コンテンツ表示装置」の代表例として説明を行う。ただし、コンテンツ表示装置は、電子ノート、ゲーム機、PND、PDA、電子辞書、電子BOOKなどのようなディスプレイを有する他の情報機器であってもよい。
そして、本実施の形態に係るコンピュータ200は、3Dの静止画像や3Dの動画像を3Dで表示することが可能な3Dディスプレイを含む。上述したように、現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。
<コンピュータ200の動作概要>
以下では、本実施の形態に係るコンピュータ200の動作概要について説明する。図13は、仮想光源の位置をプロジェクタ300の位置に設定した場合のイメージ図である。図14は、仮想光源の位置をプロジェクタ300の位置とは異なる位置に設定した場合のイメージ図である。
以下では、本実施の形態に係るコンピュータ200の動作概要について説明する。図13は、仮想光源の位置をプロジェクタ300の位置に設定した場合のイメージ図である。図14は、仮想光源の位置をプロジェクタ300の位置とは異なる位置に設定した場合のイメージ図である。
図13および図14を参照して、本実施の形態に係るコンピュータ200は、コンテンツを3D表示することができる3Dディスプレイ231を有する。3Dディスプレイ231は、後述するCPU210(図15を参照。)からの信号に基づいて、複数のオブジェクトを3D表示する。換言すれば、オブジェクトが3D表示されている場合、本実施の形態に係るコンピュータ200のユーザは、当該オブジェクトが3Dディスプレイ231から飛び出しているように見える。
コンピュータ200は、プロジェクタ300とデータ通信可能に構成されている。プロジェクタ300は、3Dディスプレイ231における表示映像の飛び出した量(凹凸)に対応する影を表示する。たとえば、CPU210は、3Dディスプレイ231における表示映像の各点における飛び出し量を計算する。CPU210は、飛び出した部分をプロジェクタ300の投影面(3Dディスプレイ231とは異なる画面)に射影した映像を射影データとして計算する。CPU210は、射影データに基づいて、プロジェクタ300に3Dコンテンツの影を表示させる。
以上のように、本実施の形態に係るコンピュータ200は、3Dディスプレイ231に3D表示される映像の凹凸に対応する影をプロジェクタ300に投影させる。ユーザは、映像の飛び出しに応じた影が視界に入るため、従来よりも大きな臨場感が得られるようになる。
なお、図13に示すように、コンピュータ200は、プロジェクタ300の位置に仮想光源が位置するものと仮定してもよい。あるいは、図14に示すように、コンピュータ200は、3Dディスプレイ231の面上に仮想光源が位置するものと仮定して、3Dディスプレイ231に表示される映像の影を計算してもよい。より詳細には、コンピュータ200は、プロジェクタ300から3Dディスプレイ231の面上に降ろした垂線と3Dディスプレイ231の面との光点に仮想光源が位置するものと仮定してもよい。また、3Dディスプレイとプロジェクタは同じ筺体に収まる一体型であってもよい。
以下、このような機能を実現するためのコンピュータ200の構成について詳述する。
<コンピュータ200のハードウェア構成>
本実施の形態に係るコンピュータ200のハードウェア構成について説明する。図15は、本実施の形態に係るコンピュータ200のハードウェア構成を示すブロック図である。
<コンピュータ200のハードウェア構成>
本実施の形態に係るコンピュータ200のハードウェア構成について説明する。図15は、本実施の形態に係るコンピュータ200のハードウェア構成を示すブロック図である。
図15に示すように、本実施の形態に係るコンピュータ200は、CPU210と、メモリ220と、3Dディスプレイ231と、入力デバイス240と、メモリインターフェイス260と、通信インターフェイス270と、角度センサ280と、位置姿勢センサ290とを含む。
3Dディスプレイ231は、CPU210に制御されることによって、様々な情報を3Dで表示する。たとえば、CPU210は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ231に映像を3Dで表示させる。CPU210は、3Dの立体モデルを表わすデータに基づいて、右目用の映像データと左目用の映像データとを生成してもよい。
入力デバイス240は、ユーザの指やスタイラスペンによるタッチ操作を検出するためのタブレットを含む。タブレットは、3Dディスプレイ231および/あるいはプロジェクタ300の表面に敷設される。入力デバイス240は、コンピュータ200の表面に配置される決定キーやテンキーやQWERTYキーボードを含む。CPU210は、入力デバイス140を介して、ユーザからの命令を受け付けることができる。
CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。
なお、記憶媒体261としては、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、Blu-ray Disc、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス270は、アンテナやコネクタによって実現される。通信インターフェイス170は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。CPU210は、通信インターフェイス270を介して、他の装置からプログラムや3Dコンテンツデータなどを受信したり、他の装置にデータを送信したりする。
CPU210は、通信インターフェイス270を介して、後述するプロジェクタ300に射影データを送信することによって、プロジェクタ300に影の映像を出力させる。
角度センサ280は、赤外線センサ、加速度センサ、角速度センサ、方位センサ、画像認識などによって実現され、3Dディスプレイ231とプロジェクタ300(あるいはプロジェクタ300の投影面)との間の角度を検出する。なお、本実施の形態においては、プロジェクタ300の照射方向がプロジェクタ300の投影面に対して垂直であるものと仮定している。角度センサ280は、検出した角度をCPU210に入力する。
位置姿勢センサ290は、3Dディスプレイ231の位置や姿勢を検出する。位置姿勢センサ290は、3Dディスプレイ231の位置や姿勢を、CPU210に入力する。
メモリ220は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。あるいは、メモリ220は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。メモリ220は、CPU210によって実行されるプログラムや、CPU210によるプログラムの実行により生成されたデータ、入力デバイス240を介して入力されたデータなどを記憶する。
メモリ220は、CPU210によって実行される制御プログラムや、3Dの映像データなどを記憶する。3Dの映像データは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データ、3Dモデルを示すモデルデータを含む。
CPU210は、メモリ220に記憶されている各種のプログラムを実行する。コンピュータ200における機能(図16の機能ブロックなど)や処理(図12に示す処理など)は、各ハードウェアおよびCPU210により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
このようなソフトウェアは、メモリインターフェイス260を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス270を利用することによってダウンロードされて、メモリ220に一旦格納される。CPU210は、ソフトウェアを実行可能なプログラムの形式でメモリ220に格納してから、当該プログラムを実行する。
ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
CPU210は、メモリ220に格納されている3D映像データに基づいて、3Dディスプレイ231に映像を3Dで表示させる。CPU210は、3Dディスプレイ231にオブジェクトを凹凸が認識できるように表示させる。換言すれば、ユーザには、オブジェクトが3Dディスプレイ231の手前や奥に存在するように見える。
プロジェクタ300は、CPU210によって制御されることによって、様々な情報を2Dで表示する。たとえば、CPU210は、3Dディスプレイ231に表示されているオブジェクトの影を表す射影データを生成する。CPU210は、プロジェクタ300に影の映像を表示させる。
本実施の形態に係るCPU210は、3Dディスプレイ231における表示映像の凹凸に対応する影を、プロジェクタ300に表示させる。たとえば、CPU210は、3Dディスプレイ231における表示映像の飛び出し量を計算する。CPU210は、飛び出した部分をプロジェクタ300の投影面に射影した映像を影として計算する。CPU210は、飛び出した部分をプロジェクタ300に送信する。CPU210は、プロジェクタ300に影を表示させる。
<コンピュータ200の機能構成>
次に、本実施の形態に係るコンピュータ200の機能構成について説明する。図16は、本実施の形態に係るコンピュータ200の機能構成を示すブロック図である。
次に、本実施の形態に係るコンピュータ200の機能構成について説明する。図16は、本実施の形態に係るコンピュータ200の機能構成を示すブロック図である。
図16を参照して、コンピュータ200は、3D映像データ取得部211と、3D座標データ算出部212と、仮想光源データ取得部213と、射影データ算出部214と、映像データ同期部215と、描画部216とを含む。コンピュータ200は、図13~15にも示したように、3Dディスプレイ231も含む。コンピュータ200は、プロジェクタ300と通信可能である。
3D映像データ取得部211と、3D座標データ算出部212と、仮想光源データ取得部213と、射影データ算出部214と、映像データ同期部215と、描画部216とは、CPU210およびメモリ220によって実現される機能である。より詳細には、CPU210が有する各機能は、CPU210がメモリ220などに記憶される制御プログラムを実行して、図15に示される各ハードウェアを制御することによって実現される機能である。
ただし、3D映像データ取得部211、3D座標データ算出部212、仮想光源データ取得部213、射影データ算出部214、映像データ同期部215、描画部216の一部または全部が、映像処理エンジンまたはハードウェア回路によって実現されてもよい。
なお、3D映像データ取得部211、3D座標データ算出部212、仮想光源データ取得部213、射影データ算出部214は、それぞれ、実施の形態1に係る3D映像データ取得部111、3D座標データ算出部112、仮想光源データ取得部113、射影データ算出部114と同様であるためここでは説明を繰り返さない。
また、射影データ算出部114における処理も実施の形態1に係るそれらと同様であるため、ここでは説明を繰り返さない。
映像データ同期部215は、描画部216を通って、3D映像データと射影データとを同時に3Dディスプレイ231とプロジェクタ300とに出力させる。ただし、3D静止画像を表示する場合や、射影データを作成する時間が人間がずれを感じないくらい短い場合などは、3D映像データと射影データとを同期させるための機能を設ける必要はない。
このように構成したため、3Dディスプレイ231に対する仮想光源の相対位置が一定である場合、3Dディスプレイ231とプロジェクタ300(プロジェクタ300の投影面)との角度が変化すると、プロジェクタ300に表示される影の映像も変化する。
また、本実施の形態においても、角度センサ280などを利用することによって、3Dディスプレイ231とプロジェクタ300との角度を取得してもよい。CPU210は、当該角度に基づいて、射影データを生成する。CPU210は、射影データをプロジェクタ300に表示させる。
あるいは、コンピュータ200の位置や姿勢が変化しても、仮想光源の絶対位置が変化しない構成にすることもできる。すなわち、コンピュータ200の位置および/姿勢が変化すると、プロジェクタ300に表示される影の映像も変化する。この場合には、図15に示すように、コンピュータ200にとって、位置姿勢センサ290が必須の要素になる。
CPU210は、位置姿勢センサ290から、コンピュータ200の位置と姿勢とを取得する。CPU210は、当該位置と姿勢とに基づいて、射影データを生成する。CPU210は、射影データをプロジェクタ300に表示させる。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源の位置や大きさの設定を受け付けることが好ましい。仮想光源の半径が設定できる場合、換言すれば、仮想光源に体積がある場合、CPU210は、プロジェクタ300を、影の内側エリアの色と、影の輪郭エリアの色と、影から離れたエリアの色とが異なるように制御する。
さらに、CPU210は、飛び出した映像によって仮想光源が全く隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって仮想光源の一部が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が完全に隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、プロジェクタ300を制御する。
さらに、コンピュータ200のCPU210は、入力デバイス140を介して、ユーザから仮想光源12の明るさを受け付けることが好ましい。CPU210によって実現される描画部116は、プロジェクタ300のうち、仮想光源の明るさに対応する輝度を、影エリア以外のエリアに設定する。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源の個数と各々の仮想光源の位置とを受け付けることが好ましい。CPU210は、飛び出した映像によって1つも仮想光源が隠れないエリアが明るい光(第1の輝度)を発し、飛び出した映像によって1つだけの仮想光源が隠れるエリアが灰色の光(第1の輝度よりも低い第2の輝度)を発し、飛び出した映像によって仮想光源が2つとも隠れるエリアが黒い光(第2の輝度よりも低い第3の輝度)を発するように、プロジェクタ300を制御する。
さらに、コンピュータ200のCPU210は、入力デバイス240を介して、ユーザから仮想光源14の色を受け付けることが好ましい。CPU210は、プロジェクタ300に、仮想光源の色に対応する輝度で影および影以外のエリアを表示させる。
<コンピュータ200におけるコンテンツ表示処理>
次に、本実施の形態に係るコンピュータ200におけるコンテンツ表示処理について説明する。本実施の形態に係るコンピュータ200におけるコンテンツ表示処理は、実施の形態1におけるものと同様であるため、ここでは説明を繰り返さない。
次に、本実施の形態に係るコンピュータ200におけるコンテンツ表示処理について説明する。本実施の形態に係るコンピュータ200におけるコンテンツ表示処理は、実施の形態1におけるものと同様であるため、ここでは説明を繰り返さない。
ただし、本実施の形態においては、ステップS110において、CPU210によって実現される映像データ同期部215は、映像データと射影データの出力の同期を取る。
そして、ステップS112において、CPU210によって実現される描画部216は、右目用の映像データと左目用の映像データとに基づいて、3Dディスプレイ231に3D映像を表示させる。同時に、CPU210は、プロジェクタ300に3D映像に対応する影の映像を表示させる。
<本実施の形態に係るコンピュータ200のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
この発明を詳細に説明し示してきたが、これは例示のためのみであって、限定ととってはならず、発明の範囲は添付の請求の範囲によって解釈されることが明らかに理解されるであろう。
10,11,12,13A,13B,14 仮想光源、100 コンピュータ、101 第1の筐体、102 第2の筐体、110 CPU、111 映像データ取得部、112 座標データ算出部、113 仮想光源データ取得部、114 射影データ算出部、115 映像データ同期部、116 描画部、120 メモリ、131 3Dディスプレイ、132 2Dディスプレイ、140 入力デバイス、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、180 角度センサ、190 位置姿勢センサ、200 コンピュータ、211 映像データ取得部、212 座標データ算出部、213 仮想光源データ取得部、214 射影データ算出部、215 映像データ同期部、216 描画部、220 メモリ、231 3Dディスプレイ、240 入力デバイス、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、280 角度センサ、290 位置姿勢センサ、300 プロジェクタ。
Claims (9)
- 第1の画面に3Dコンテンツを3Dで表示するための第1の出力装置と、
前記第1の出力装置に第1の画面に前記3Dコンテンツを3Dで表示させるとともに、前記第1の画面とは異なる第2の画面に、前記3Dコンテンツに対応する影の映像を出力するためのプロセッサとを備える、3Dコンテンツ表示装置。 - 前記第1の出力装置は、前記第1の画面を有する第1のディスプレイである、請求項1に記載の3Dコンテンツ表示装置。
- 前記第1の出力装置は、前記第1の画面に前記3Dコンテンツを出力する第1のプロジェクタである、請求項1に記載の3Dコンテンツ表示装置。
- 前記第2の画面を有する第2のディスプレイをさらに備える、請求項1から3のいずれかに記載の3Dコンテンツ表示装置。
- 前記第1の画面と前記第2の画面との位置関係を検出するための第1のセンサをさらに備え、
前記プロセッサは、前記第1の画面に表示される前記3Dコンテンツと、仮想光源の位置と、前記位置関係と、に基づいて、前記3Dコンテンツの前記影の映像を計算する、請求項1から4のいずれかに記載の3Dコンテンツ表示装置。 - 前記プロセッサは、通信インターフェイスを介して、前記影の映像を第2のプロジェクタに表示させる、請求項1から3のいずれかに記載の3Dコンテンツ表示装置。
- 前記第1の画面と前記第2のプロジェクタとの位置関係を検出する第2のセンサをさらに備え、
前記プロセッサは、前記第1の画面に表示される前記3Dコンテンツと、仮想光源の位置と、前記位置関係と、に基づいて、前記3Dコンテンツの前記影の映像を計算する、請求項6に記載の3Dコンテンツ表示装置。 - 前記第1の出力装置の姿勢を検出する姿勢センサをさらに備え、
前記プロセッサは、前記第1の出力装置の姿勢に基づいて、前記影の映像を計算する、請求項1から7のいずれかに記載の3Dコンテンツ表示装置。 - 第1の出力装置とプロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法であって、
前記プロセッサが、3Dコンテンツを取得するステップと、
前記プロセッサが、前記3Dコンテンツの影の映像を計算するステップと、
前記プロセッサが、前記第1の出力装置に第1の画面に前記3Dコンテンツを3Dで表示させるとともに、前記第1の画面とは異なる第2の画面に、前記3Dコンテンツに対応する影の映像を出力するステップとを備える、3Dコンテンツ表示方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-253959 | 2010-11-12 | ||
JP2010253959A JP2012105200A (ja) | 2010-11-12 | 2010-11-12 | 3dコンテンツ表示装置、および3dコンテンツ表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2012063911A1 true WO2012063911A1 (ja) | 2012-05-18 |
Family
ID=46051048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2011/075964 WO2012063911A1 (ja) | 2010-11-12 | 2011-11-10 | 3dコンテンツ表示装置、および3dコンテンツ表示方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2012105200A (ja) |
WO (1) | WO2012063911A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2904774A1 (en) * | 2012-10-01 | 2015-08-12 | Telefonaktiebolaget LM Ericsson (PUBL) | Method and apparatus for generating a depth cue |
CN109920519A (zh) * | 2019-02-20 | 2019-06-21 | 东软医疗系统股份有限公司 | 处理影像数据的方法、装置及设备 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6562371B1 (ja) * | 2018-11-26 | 2019-08-21 | 株式会社ハニカムラボ | 表示装置、表示処理装置、および表示処理プログラム |
WO2020184316A1 (ja) * | 2019-03-13 | 2020-09-17 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261888A (ja) * | 1998-03-13 | 1999-09-24 | For A Co Ltd | テレビジョン画像の合成方式 |
JP2004295916A (ja) * | 2004-06-07 | 2004-10-21 | Namco Ltd | 画像処理装置及び画像処理方法 |
JP2005130394A (ja) * | 2003-10-27 | 2005-05-19 | Olympus Corp | 直接投射装置及びそのプログラム |
JP2005234240A (ja) * | 2004-02-19 | 2005-09-02 | Pioneer Electronic Corp | 立体的二次元画像表示装置及び立体的二次元画像表示方法 |
JP2008089985A (ja) * | 2006-10-02 | 2008-04-17 | Pioneer Electronic Corp | 画像表示装置 |
JP2009163610A (ja) * | 2008-01-09 | 2009-07-23 | Canon Inc | 画像処理装置及び画像処理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009216752A (ja) * | 2008-03-07 | 2009-09-24 | Victor Co Of Japan Ltd | スクリーン及びそれを用いた立体映像表示システム |
-
2010
- 2010-11-12 JP JP2010253959A patent/JP2012105200A/ja active Pending
-
2011
- 2011-11-10 WO PCT/JP2011/075964 patent/WO2012063911A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11261888A (ja) * | 1998-03-13 | 1999-09-24 | For A Co Ltd | テレビジョン画像の合成方式 |
JP2005130394A (ja) * | 2003-10-27 | 2005-05-19 | Olympus Corp | 直接投射装置及びそのプログラム |
JP2005234240A (ja) * | 2004-02-19 | 2005-09-02 | Pioneer Electronic Corp | 立体的二次元画像表示装置及び立体的二次元画像表示方法 |
JP2004295916A (ja) * | 2004-06-07 | 2004-10-21 | Namco Ltd | 画像処理装置及び画像処理方法 |
JP2008089985A (ja) * | 2006-10-02 | 2008-04-17 | Pioneer Electronic Corp | 画像表示装置 |
JP2009163610A (ja) * | 2008-01-09 | 2009-07-23 | Canon Inc | 画像処理装置及び画像処理方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2904774A1 (en) * | 2012-10-01 | 2015-08-12 | Telefonaktiebolaget LM Ericsson (PUBL) | Method and apparatus for generating a depth cue |
US10218956B2 (en) | 2012-10-01 | 2019-02-26 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and apparatus for generating a depth cue |
CN109920519A (zh) * | 2019-02-20 | 2019-06-21 | 东软医疗系统股份有限公司 | 处理影像数据的方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2012105200A (ja) | 2012-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928838B2 (en) | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display | |
US9201568B2 (en) | Three-dimensional tracking of a user control device in a volume | |
US8717423B2 (en) | Modifying perspective of stereoscopic images based on changes in user viewpoint | |
JP5791433B2 (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
Pucihar et al. | Exploring the evolution of mobile augmented reality for future entertainment systems | |
US11277603B2 (en) | Head-mountable display system | |
EP2944081B1 (en) | Stereoscopic conversion of graphics content based on viewing orientation | |
US10019130B2 (en) | Zero parallax drawing within a three dimensional display | |
JP5791434B2 (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
US8854358B2 (en) | Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing method, and image processing system | |
JP2013050883A (ja) | 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法 | |
JP2020173529A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2012063911A1 (ja) | 3dコンテンツ表示装置、および3dコンテンツ表示方法 | |
JP5723149B2 (ja) | 画像処理システム、画像処理プログラム、画像処理方法及び画像処理装置 | |
JP5950701B2 (ja) | 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP2012175358A (ja) | 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム | |
KR101779423B1 (ko) | 영상처리방법 및 영상처리장치 | |
CN106231283B (zh) | 一种虚拟立体场景的构建方法、装置及立体显示设备 | |
US20240221240A1 (en) | Display device, method of controlling display device, and computer-readable storage medium | |
US20220044351A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
KR20200046538A (ko) | 3차원 컬러 블록 생성 방법 및 시스템 | |
CN113780141A (zh) | 一种对弈模型的构建方法和装置 | |
GB2575932A (en) | Method and system for providing at least a portion of content having six degrees of freedom motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11840562 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 11840562 Country of ref document: EP Kind code of ref document: A1 |