WO2010041557A1 - 表示装置、表示方法、情報記録媒体、ならびに、プログラム - Google Patents

表示装置、表示方法、情報記録媒体、ならびに、プログラム Download PDF

Info

Publication number
WO2010041557A1
WO2010041557A1 PCT/JP2009/066602 JP2009066602W WO2010041557A1 WO 2010041557 A1 WO2010041557 A1 WO 2010041557A1 JP 2009066602 W JP2009066602 W JP 2009066602W WO 2010041557 A1 WO2010041557 A1 WO 2010041557A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewpoint
virtual space
unit
orientation
display
Prior art date
Application number
PCT/JP2009/066602
Other languages
English (en)
French (fr)
Inventor
俊太 曲淵
Original Assignee
株式会社コナミデジタルエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コナミデジタルエンタテインメント filed Critical 株式会社コナミデジタルエンタテインメント
Publication of WO2010041557A1 publication Critical patent/WO2010041557A1/ja

Links

Images

Classifications

    • A63F13/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B12/00Component parts, details or accessories not provided for in groups B61B7/00 - B61B11/00
    • B61B12/10Cable traction drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02PCONTROL OR REGULATION OF ELECTRIC MOTORS, ELECTRIC GENERATORS OR DYNAMO-ELECTRIC CONVERTERS; CONTROLLING TRANSFORMERS, REACTORS OR CHOKE COILS
    • H02P5/00Arrangements specially adapted for regulating or controlling the speed or torque of two or more electric motors
    • H02P5/68Arrangements specially adapted for regulating or controlling the speed or torque of two or more electric motors controlling two or more dc dynamo-electric motors

Definitions

  • the present invention relates to a display device, a display method, an information recording medium, and a program suitable for easily observing details of an object that is noticed by a user among objects arranged in a virtual space.
  • Patent Document 1 When displaying objects such as enemy characters, bombs, and traps arranged in the virtual space on the game screen, a technology that enlarges and displays these objects and allows the user to observe the details is, for example, It is disclosed in Patent Document 1.
  • the present invention solves such a problem, and among the objects arranged in the virtual space, a display device, a display method, and a display device suitable for easily observing details of an object that the user pays attention to,
  • An object is to provide an information recording medium and a program.
  • a display device includes a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit.
  • the storage unit stores the position and orientation of the object arranged in the virtual space, the position of the viewpoint, and the position and orientation of the projection plane having a predetermined size.
  • the virtual space refers to, for example, a three-dimensional virtual space serving as a game stage.
  • An object generally refers to a game character or background.
  • object information, viewpoint information, and projection plane information are stored in a cartridge or the like.
  • the display unit generates and displays an image obtained by perspectively projecting the object on the projection plane from the viewpoint.
  • the display unit serves as a window for viewing the virtual space in order to display the virtual space projected onto the projection plane.
  • the user selects one of the objects displayed on the touch panel by touching the object. Further, the user may specify the moving direction of the viewpoint by moving a finger or the like touching the touch panel in the moving direction.
  • the selection instruction receiving unit receives a selection instruction input for instructing to select one of objects (hereinafter referred to as a visible object) included in the generated image.
  • the selection instruction receiving unit receives one of the objects displayed on the display unit, which the user wants to select, for example, by detecting pressing of a touch panel or an operation key.
  • Each object in the virtual space can be a visible object.
  • the direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
  • the direction designation accepting unit accepts a direction designation input for designating a direction in which a viewpoint arranged in the virtual space is moved, for example, by detecting the touch panel or operation key pressed by the user.
  • the rotation unit rotates the viewpoint and the projection plane relative to the object arranged in the virtual space in the designated direction around the selected visible object.
  • the rotation unit makes the virtual space and the viewpoint relative to the specified direction in order to make it appear as if the virtual space is rotated around the visible object selected by the user according to the direction specified by the user. Rotate.
  • the virtual space itself is rotated around the visible object selected by the user, or the viewpoint and the projection plane are moved around the visible object. Or both of these may be performed simultaneously.
  • the center of the visible object may be, for example, the center of gravity of the object or the position where the user touches the object.
  • the user can observe the details of the object of interest from various angles.
  • a display device includes a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit.
  • the storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent area and an opaque area.
  • the display unit generates an image obtained by projecting an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) at the intersection of the line segment and the transparent area. indicate.
  • the selection instruction receiving unit receives a selection instruction input for instructing to select one of the visible objects.
  • the direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
  • the rotation unit rotates the position and orientation of the object arranged in the virtual space according to the designated direction around the selected object.
  • the surface of the predetermined shape corresponds to the projection surface and is arranged between the viewpoint and the virtual space.
  • a display part displays the part projected on the said transparent area
  • the user selects one of the objects displayed on the touch panel etc. by touching it. Further, the user may specify the moving direction of the viewpoint by moving a finger or the like touching the touch panel in the moving direction.
  • the rotation unit is based on the specified direction with the selected object as the center (for example, the center of gravity of the object or the position where the user touched the object) in order to make it appear as if the viewpoint is moving.
  • the position and orientation of the object arranged in the virtual space is rotated based on the specified direction around the selected object, so that the user can select the object of interest. Details can be observed from various angles.
  • the object whose rotation and position are rotated by the rotation unit may be a visible object.
  • the rotation unit may not rotate all the objects in the virtual space, but may extract a visible object projected on the transparent area before rotation and rotate only the visible object. As a result, the number of objects to be rotated can be reduced, and the calculation load can be reduced.
  • the rotation unit rotates the position and orientation of an object other than a visible object (hereinafter referred to as an invisible object)
  • the distance between the invisible object and the viewpoint is determined by the distance between the visible object and the viewpoint. If the line segment that is shorter than the distance and connects the invisible object and the viewpoint passes through the transparent region, the rotation may be stopped.
  • an object arranged in the virtual space is rotated based on the specified direction around the selected object, but after rotation, an object that has not been displayed before the rotation is rotated.
  • the projected object may be projected and displayed on the transparent area of the surface having the predetermined shape to hide the visible object. Since the visible object is an object that the user wants to pay attention to, it is not desirable that the visible object is hidden.
  • the rotation unit when the object is rotated based on the specified direction, the distance between any invisible object and the viewpoint among the objects projected onto the transparent area is greater than the distance between any visible object and the viewpoint. If it becomes shorter, stop the rotation. This is to prevent the invisible object from hiding the visible object. As a result, even when the selected object rotates, it is possible to prevent a situation where the object is hidden.
  • the display device may further include an area designation receiving unit that receives an area designation input for designating a transparent area and an opaque area on a surface having a predetermined shape.
  • the user may be able to specify the position of the transparent region formed on the surface of the predetermined shape so that the part of interest in the virtual space can be specified.
  • the position of the transparent area is specified in a circle so that a closed area can be obtained by using an input device such as a touch pen or a mouse. If the area displayed by rotation is specified to be small, it becomes easier to discriminate the object currently focused on. Furthermore, by reducing the rotation display area, it is possible to reduce so-called 3D sickness (a symptom that the user who is watching the screen temporarily feels bad when the 3D game screen is rotated or moved violently). It becomes possible.
  • 3D sickness a symptom that the user who is watching the screen temporarily feels bad when the 3D game screen is rotated or moved violently. It becomes possible.
  • the display unit projects an object in which a line segment connecting the position of the object whose position and orientation has been rotated and the position of the viewpoint passes through the transparent region to the intersection of the line segment and the transparent region, and the rotation is performed.
  • An object in which the line segment connecting the position of the previous object and the position of the viewpoint that passes through the opaque region is projected to the intersection of the line segment and the opaque region to generate an image. Good.
  • the display unit shows the state of the virtual space before the object rotation is performed, the image projected on the opaque region portion of the surface of the predetermined shape, and the state of the virtual space after the object rotation is performed, An image composed of an image projected on a transparent region portion of a surface having a predetermined shape may be generated. Accordingly, for example, both the currently focused part and the part that is not focused are displayed, and it is possible to cope with the user's desire to see a part that is not focused a little. In addition, since only the portion of interest is rotated and an image is generated in which the other portions do not change, an effect as if the portion of interest has been raised can be obtained, and it becomes easier to discriminate the portion of interest.
  • the area designation receiving unit may not accept the area designation input when the received transparent area is larger than a predetermined area. That is, the area designation receiving unit causes the user to designate an area smaller than a predetermined area as a transparent area. Thereby, for example, when only a visible object is rotated, the amount of calculation can be reduced. It is also possible to preset an area for preventing 3D sickness.
  • the area designation receiving unit may not accept the area designation input when the number of visible objects is equal to or greater than a predetermined number. That is, the area designation receiving unit accepts the area designation when the user designates the transparent area so that the number of visible objects is smaller than a predetermined number. As a result, similarly to the case where the area of the transparent region is limited, the amount of calculation can be reduced when only the visible object is rotated. It is also possible to preset an area for preventing 3D sickness.
  • a display method is a display method by a display device including a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit, A process, a selection instruction reception process, a direction designation reception process, and a rotation process.
  • the storage unit stores the position and orientation of the object arranged in the virtual space, the position of the viewpoint, and the position and orientation of the projection plane having a predetermined size.
  • the display unit generates and displays an image obtained by perspectively projecting the object on the projection plane from the viewpoint.
  • the selection instruction receiving step receives a selection instruction input for instructing to select one of objects included in the generated image (hereinafter referred to as a visible object).
  • the direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
  • the rotation unit rotates the viewpoint and the projection plane relative to the object arranged in the virtual space relative to the specified direction around the selected visible object.
  • a display method is a display method by a display device including a storage unit, a display unit, a selection instruction receiving unit, a direction designation receiving unit, and a rotating unit, A process, a selection instruction reception process, a direction designation reception process, and a rotation process.
  • the storage unit stores the position and orientation of an object arranged in the virtual space, the position of the viewpoint, and the position and orientation of a surface having a predetermined shape having a transparent area and an opaque area.
  • the display unit projects an object in which a line segment connecting the position of the object and the position of the viewpoint passes through the transparent area (hereinafter referred to as a visible object) at the intersection of the line segment and the transparent area. Is generated and displayed.
  • the selection instruction receiving unit receives a selection instruction input for instructing to select one of the visible objects.
  • the direction designation receiving unit receives a direction designation input for designating a direction in which the viewpoint is to be moved in the virtual space.
  • the rotation unit rotates the position and orientation of the object arranged in the virtual space according to the designated direction with the selected visible object as the center.
  • a program according to another aspect of the present invention is configured to cause a computer to function as the above display device.
  • the program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.
  • the above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed.
  • the information recording medium can be distributed and sold independently of the computer.
  • a display device among the objects arranged in the virtual space, a display device, a display method, an information recording medium, and the like suitable for enabling easy observation of the details of the object that the user pays attention to, As well as programs.
  • FIG. 1 It is a figure which shows schematic structure of the typical portable game machine with which the display apparatus of this invention is implement
  • FIG. 11 is a diagram illustrating an example in which an object in a transparent area is selected and a moving direction of a viewpoint is designated in a modification example.
  • FIG. 11B is a diagram illustrating a state of the virtual space after rotating FIG. 11A clockwise about the axis 1001. It is a figure which shows the result of having projected FIG. 11B.
  • FIG. 1 is a schematic diagram showing a schematic configuration of a typical portable game machine in which a display device according to an embodiment of the present invention is realized.
  • a description will be given with reference to FIG. 1
  • the portable game machine 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, an operation key 17, and a first display.
  • a unit 18, a second display unit 19, and a touch panel 20 are provided.
  • the processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a VRAM (Video Random Access Memory) 10c, a WRAM (Work RAM) 10d, an LCD (Liquid Crystal Display) controller 10e, A touch panel controller 10f.
  • a CPU Central Processing Unit
  • an image processing unit 10b an image processing unit 10b
  • a VRAM Video Random Access Memory
  • WRAM Work RAM
  • LCD Liquid Crystal Display
  • a touch panel controller 10f A touch panel controller
  • the CPU core 10a controls the operation of the entire portable game machine 1 and is connected to each component to exchange control signals and data. Specifically, in a state where the cartridge 12 is mounted on the connector 11, a program or data stored in a ROM (Read Only Memory) 12a in the cartridge 12 is read and predetermined processing is executed.
  • ROM Read Only Memory
  • the image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10c.
  • the VRAM 10c is a frame memory that stores information for display, and stores image information processed by the image processing unit 10b and the like.
  • the WRAM 10d stores work data and the like necessary for the CPU core 10a to execute various processes according to the program.
  • the LCD controller 10e controls the first display unit 18 and the second display unit 19 to display a predetermined display image.
  • the LCD controller 10e converts the image information stored in the VRAM 10c into a display signal at a predetermined synchronization timing and outputs the display signal to the first display unit 18.
  • the LCD controller 10 e displays a predetermined instruction icon or the like on the second display unit 19.
  • the touch panel controller 10f detects a touch (touch) on the touch panel 20 with a touch pen or a user's finger. For example, the touch on the touch panel 20 and the position thereof are detected in a state where a predetermined instruction icon or the like is displayed on the second display unit 19.
  • the connector 11 is a terminal that can be detachably connected to the cartridge 12 and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.
  • the cartridge 12 includes a ROM 12a and a RAM (Random Access Memory) 12b.
  • the ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
  • the RAM 12b stores various data indicating the progress of the game.
  • the wireless communication unit 13 is a unit that performs wireless communication with the wireless communication unit 13 of another portable game machine 1, and transmits and receives predetermined data via an antenna (not shown) (such as a built-in antenna).
  • the wireless communication unit 13 can also perform wireless LAN communication with a predetermined access point.
  • the wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.
  • the communication controller 14 controls the wireless communication unit 13 and mediates communication performed between the process control unit 10 and the process control unit 10 of another portable game machine 1 according to a predetermined protocol.
  • the sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16.
  • the speaker 16 is composed of, for example, a stereo speaker, and outputs predetermined music sound, sound effect, and the like according to the audio signal amplified by the sound amplifier 15.
  • the operation key 17 includes a plurality of key switches and the like appropriately arranged on the portable game machine 1, and receives a predetermined instruction input according to a user operation.
  • the 1st display part 18 and the 2nd display part 19 consist of LCD etc., are controlled by LCD controller 10e, and display a game image etc. suitably.
  • the second display unit 19 displays an instruction icon or the like for inputting an operation instruction from the user by touching the touch panel 20.
  • the touch panel 20 is arranged so as to be superimposed on the front surface of the second display unit 19 and accepts an input by contact with a touch pen or a user's finger.
  • the touch panel 20 includes, for example, a pressure-sensitive touch sensor panel and the like, detects the pressure of the user's finger and the like, and detects the contact state and the transition from the contact state to the non-contact state.
  • the touch panel 20 may detect contact with a user's finger or the like from a change in capacitance or the like.
  • FIG. 2 shows an external view of the portable game machine 1.
  • the display device is realized on the above-described typical portable game machine 1, but can also be realized on a general computer or game device.
  • a general computer or game device includes a CPU core, a VRAM, and a WRAM similarly to the portable game machine 1 described above.
  • a communication unit for example, a NIC (Network Interface Controller) conforming to a standard such as 10BASE-T / 100BASE-T used when configuring a LAN (Local Area Network), a hard disk as a storage device, and a DVD -ROMs, magneto-optical disks, etc. can be used.
  • a keyboard or a mouse is used as an input device instead of a touch panel. Then, after the program is installed, when the program is executed, it can function as a display device.
  • the display device according to the present embodiment will be described using the portable game machine 1 shown in FIG.
  • the display device can be appropriately replaced with an element of a general computer or a game device as necessary, and these embodiments are also included in the scope of the present invention.
  • the display device 200 includes a storage unit 201, a display unit 202, a selection instruction receiving unit 203, a direction designation receiving unit 204, a rotating unit 205, an area designation receiving unit 206, and the like.
  • the storage unit 201 stores, for example, information about a three-dimensional virtual space serving as a game stage.
  • a predetermined object having an object (for example, 401A, 401B, 401C, etc.), a viewpoint 410 (that is, a camera) for viewing the virtual space, a transparent area 420A, and an opaque area 420B.
  • a shape surface 420 or the like is disposed.
  • the surface 420 having a predetermined shape corresponds to a projection surface onto which a virtual space is projected.
  • the plane is configured, but the shape is not limited to this.
  • the surface 420 having a predetermined shape is typically disposed between the viewpoint 410 and an object (for example, 401A, 401B, 401C, etc.) in the virtual space.
  • the direction of the line-of-sight direction 415 matches the direction of a vector passing through the center of the surface 420 having a predetermined shape and perpendicularly intersecting the surface 420 having the predetermined shape.
  • the boundaries of the transparent region 420A and the opaque region 420B arranged on the surface 420 having a predetermined shape are the same, and can be specified by the user as will be described later.
  • Data such as the shape, position and orientation of the object, the position of the viewpoint, and the position and orientation of the surface 420 having a predetermined shape, which are arranged in the virtual space, are stored in advance in the ROM 12a in the cartridge 12.
  • the processing control unit 10 appropriately reads out these data from the cartridge 12 and stores them in the WRAM bag 10d or the like.
  • the rotation unit 205 updates data on the shape, position, and orientation of the object in response to an instruction from the user.
  • the processing control unit 10, the connector 11, and the cartridge 12 cooperate to function as the storage unit 201.
  • the display unit 202 generates an image having the same size as the surface 420 of the following predetermined shape when an input for specifying a transparent region is received by the region specification receiving unit 206 described later. That is, in the image to be generated, a portion of the transparent area of the image in the virtual space projected on the transparent area of the surface 420 having the predetermined shape is drawn at a position corresponding to the transparent area of the surface 420 having the predetermined shape. In addition, an image in which a predetermined color (for example, black) representing darkness is drawn at a position corresponding to an area other than the transparent area (that is, an opaque area) among the generated images is generated.
  • the display unit 202 displays the generated image on the second display unit 19 (or the first display unit 18).
  • the surface 420 having the predetermined shape corresponds to the projection surface
  • the transparent region of the surface 420 having the predetermined shape actually functions as the projection surface.
  • the entire surface 420 having a predetermined shape may be a transparent region.
  • the processing control unit 10 and the second display unit 19 (or the first display unit 18) operate in cooperation to function as the display unit 202.
  • the selection instruction receiving unit 203 receives a selection instruction input for instructing to select one of the objects displayed on the display unit 202 (hereinafter referred to as a visible object).
  • the user can select, for example, one of the objects displayed on the display unit 202 by touching (touching) the position of the touch panel 20 on which the object to be selected is displayed. Alternatively, an operation equivalent to this may be performed by pressing the operation key 17 to select an object.
  • the selected object received is temporarily stored in, for example, the WRAM bag 10d.
  • the processing control unit 10, the operation key 17, the touch panel 20, and the like cooperate to function as the selection instruction receiving unit 203.
  • the direction designation accepting unit 204 accepts a direction designation input for designating a direction in which the viewpoint arranged in the virtual space is moved in the virtual space.
  • the user can specify the direction by, for example, pressing the operation key 17 corresponding to a predetermined direction or moving the touch panel 20 while pressing.
  • the processing control unit 10, the operation key 17, and the touch panel 20 operate in cooperation to function as the direction designation receiving unit 204.
  • the rotating unit 205 rotates the object in the virtual space so that the viewpoint moves in the direction received by the direction designation receiving unit 204 around the object received by the selection instruction receiving unit 203. That is, the position and orientation of the object arranged in the virtual space are rotated in the direction opposite to the designated direction, and the position and orientation of the object stored in the storage unit 201 are updated.
  • the processing control unit 10 functions as the rotation unit 205.
  • the area designation receiving unit 206 receives an area designation input for designating the transparent area and the opaque area on the surface 420 of the predetermined shape.
  • the user can specify the position and shape of the transparent region by drawing a line that becomes the boundary of the region by moving the touch pen while pressing the touch pen on the touch panel 20 so as to obtain a closed region, for example. Alternatively, the user may perform an operation equivalent to this by pressing the operation key 17 and specify the transparent area.
  • the received designated area is temporarily stored in, for example, the WRAM bag 10d.
  • the processing control unit 10, the operation key 17, and the touch panel 20 operate in cooperation to function as an area designation receiving unit 206.
  • the display device 200 is based on the designated direction centering on the object. Rotate the object in the virtual space. And the image which shows the mode of the virtual space after rotation is displayed on the said area
  • the transition of the input state accepted from the user is summarized in FIG.
  • the initial state where nothing is accepted (state A)
  • an instruction to select an object to be the center of rotation is received (state C)
  • designation of the moving direction of the viewpoint is received (state D).
  • the direction of movement is not accepted unless the object that is the center of rotation is selected, and the selection of the object that is the center of rotation is not accepted unless the transparent region is designated.
  • a specified key can be input to release the designated transparent area (state E) (that is, delete from the WRAM 10d).
  • state E that is, delete from the WRAM 10d.
  • the designated transparent area can be changed in shape by dragging the boundary portion of the area (transition from state B to B), and the designated transparent area in a state where an object selection instruction is accepted. It is also possible to accept an instruction to select another object (transition from state C to C). Alternatively, after the movement direction of the viewpoint is designated, the movement direction may be further designated (transition from state D to D).
  • the display process shown in FIG. 6 is a process that is repeatedly executed periodically at a predetermined timing in cooperation with each unit of the display device 200 of the present embodiment.
  • the display process performed by the display device 200 according to the reception state that transitions as described above will be described next with reference to FIG. First, a state A, that is, a case in an initial state in which the user has not designated a transparent area or selected an object will be described.
  • the process control unit 10 first determines whether or not there is an input for designating the moving direction of the viewpoint (step S101). That is, referring to the WRAM 10d or the like, it is determined whether or not an input for designating the moving direction of the viewpoint is stored. In the initial state, it is determined that there is no input specifying the direction (step S101; N), and the process proceeds to step S103.
  • the display unit 202 stores the state of the virtual space projected on the transparent area in the frame memory (VRAM 10c) (step S103). That is, the display unit 202 acquires the position of the viewpoint, the position and orientation of the surface 420 having a predetermined shape, and the shape, position, and orientation of the object with reference to the storage unit 201. And based on the acquired information, the image which projected the object in virtual space on the surface 420 of a predetermined shape is produced
  • the image corresponding to the position of the transparent area (obtained by referring to the WRAM 10d) is stored in the position of the frame memory (VRAM 10c) corresponding to the transparent area. However, since no transparent area is designated in the initial state, no image data is stored in the frame memory.
  • the display unit 202 writes data indicating a predetermined color (for example, black) at a position corresponding to the opaque region in the frame memory (step S104).
  • a predetermined color for example, black
  • the display unit 202 transfers the contents of the frame memory to the first or second display unit (18, 19) at a predetermined timing and displays them (step S105). Therefore, in the initial state, a black image is displayed on the first or second display unit (18, 19). Then, the display process ends.
  • the display process in the state B that is, when the user designates a transparent area will be described.
  • the user performs input for designating the transparent area by operating the operation key 17 or touching the touch panel 20.
  • the area designation receiving unit 206 receives the position and shape of the transparent area designated by the input, and temporarily stores them in the WRAM 10d or the like.
  • step S101 When step S101 is executed in a state where the user designates a transparent area, the process control unit 10 determines that the viewpoint movement direction designation has not yet been input (step S101; N), and from step S103. Step S105 is executed.
  • step S103 to step S105 the virtual space of the displayed image is projected at a position corresponding to the transparent region, and the other portion is displayed in black. Displayed by the display unit 202.
  • FIG. 7A shows a state in which the virtual space shown in FIG. 4 is projected onto the transparent region 420A.
  • the object 401A and a part of the object 401B are projected onto the transparent area, and the others are projected onto the opaque area. Therefore, as shown in FIG. 7B, a projected image 401A ′ of the object 401A and a part of the projected image 401B ′ of the object 401B are displayed in a portion corresponding to the transparent area of the screen, and the opaque area of the screen The part corresponding to is displayed in black.
  • a part of the virtual space is displayed in the transparent area designated by the user as if illuminated by a flashlight.
  • each object is perspective-projected by a one-point perspective method, an object far from the viewpoint is small, and an object near is large.
  • parallel projection can be adopted instead of the single point perspective method.
  • the display unit 202 performs, for each object, for example, a Z buffer method (a method in which, in 3D graphics, an object or surface hidden by an object in front of the line of sight is detected and drawing is not performed, that is, a hidden surface is deleted.
  • a Z buffer method a method in which, in 3D graphics, an object or surface hidden by an object in front of the line of sight is detected and drawing is not performed, that is, a hidden surface is deleted.
  • each pixel that makes up the screen has information about depth, and when drawing on the screen, the depth information of the pixels with the same coordinates is compared, and only the foremost object is displayed on the screen.
  • the image of the virtual space is drawn by performing hidden surface processing using a writing method.
  • the display unit 202 draws an image of a region corresponding to a transparent region on the screen and an image of a region corresponding to an opaque region every time an image is generated. Even if it is made, the change can be reflected.
  • the selection instruction accepting unit 203 identifies an object projected on the area including the coordinate value at which the contact has been performed, and accepts the identified object as selected (state C).
  • the selection instruction accepting unit 203 may store, in the WRAM 10d, an array that stores information for specifying the object projected at the position corresponding to each pixel at the position where the object is projected. If the screen is 480 ⁇ 640 dots, the array is two-dimensional with 480 rows and 640 columns, and when the object is displayed on the corresponding pixel, the information for identifying the object (for example, the object ID) is not displayed. May be an array storing 0. Then, information specifying an object stored in association with the detected coordinate value may be extracted, and the object specified by the extracted information may be specified as the selected object.
  • the selection instruction receiving unit 203 temporarily stores information for specifying the selected object in the WRAM bag 10d or the like for use in later processing.
  • the selection instruction receiving unit 203 may not receive the selection instruction input.
  • the moving direction of the viewpoint is specified by moving in the specified direction while the user touches the touch panel 20, for example.
  • the direction designation receiving unit 204 continuously detects the contact coordinates.
  • the direction designation receiving unit 204 compares the previous coordinate value and the current coordinate value among the coordinate values detected in succession, and calculates the distance and direction the touch has moved.
  • the direction designation receiving unit 204 accepts an operation by the user as a direction designation input, and temporarily stores the movement direction and distance in the WRAM 10d or the like (state D).
  • the direction may be designated by operating (pressing) the operation key 17 indicating the up / down / left / right directions.
  • the direction designation receiving unit 204 may calculate the moving direction and the moving distance of the viewpoint based on the type of the pressed operation key 17 and the pressed time.
  • step S101 when step S101 is executed in a state where the user inputs an instruction to select one of the displayed objects and further inputs an instruction for specifying the moving direction of the viewpoint, the process control is performed.
  • the unit 10 determines that there has been an input for designating the moving direction of the viewpoint (step S101; Y). Then, the process proceeds to step S102.
  • the rotation unit 205 acquires the selected object from the WRAM 10d, and the object placed in the virtual space based on the designated direction with the object as the center (for example, the center of gravity of the object). Is rotated (step S102). That is, the object in the virtual space is rotated by an angle corresponding to the movement distance in the direction opposite to the accepted designated direction.
  • Steps S103 to S105 are executed to display an image of the virtual space projected on the transparent area of the surface 420 having a predetermined shape in the same procedure as described above.
  • FIG. 8A shows a case where the object 401A in the transparent area 420A is selected and the direction 710 is designated as the viewpoint movement direction.
  • the rotation unit 205 obtains a vector 720 passing through the viewpoint and the center of the object 401A and an axis 730 perpendicular to the direction 710 and passing through the center of the object 401A.
  • the rotation unit 205 rotates the object in the virtual space with respect to the axis 730 in an opposite direction to the direction 710 (that is, left rotation in FIG. 8B) by an angle corresponding to the movement distance.
  • FIG. 8B An example of an image displayed on the screen after rotation is shown in FIG.
  • the storage unit 201 may include a table that defines a rotation angle corresponding to the moving distance, and the rotation unit 205 may determine the rotation angle with reference to the table. As the rotation unit 205 rotates the object in the virtual space in this way, the viewpoint moves in the direction specified by the user in the area on the screen corresponding to the transparent area specified by the user. An image showing the state in the virtual space is displayed (see FIG. 9).
  • the user may further specify the moving direction of the viewpoint and further rotate the object (transition from state D to D).
  • the designation of the transparent area may be canceled (transition from state B, C, or D to state E).
  • the rotating unit 205 saves the state (object position and orientation) in the virtual space at that time in the WRAM 10d before the rotation. Then, when the transparent area is released, the saved virtual space state is loaded as the current virtual space state.
  • the rotation unit 205 rotates the object from the loaded state.
  • the display device 200 projects the state of the virtual space after the object has been rotated onto the transparent region portion of the surface 420 having a predetermined shape that is noticed by the user.
  • the displayed image is displayed at a position corresponding to the transparent area on the screen. Therefore, according to the present embodiment, it is possible to easily observe the details of the object that the user pays attention to among the objects arranged in the virtual space.
  • all objects arranged in the virtual space are rotated around the designated object.
  • the transparent area is designated, only the object projected to the transparent area (hereinafter referred to as the original visible object) before starting the rotation even once is rotated and drawn in the transparent area in step S102. May be.
  • the number of objects to be rotated is reduced, and the drawing process can be reduced.
  • the present invention can be applied to a case where, for example, a part displayed on the game screen is examined in detail, in addition to a game for searching in the dark.
  • the user designates a transparent area so as to surround the part, and subsequently designates an object as a center of rotation and a moving direction of the viewpoint.
  • the object rotated in accordance with the designated direction projected on the designated transparent area is displayed.
  • the state of the virtual space projected on the opaque area at the time when the area is designated may be displayed.
  • the display unit generates an image obtained by projecting the state of the virtual space onto a surface having a predetermined shape at the time when the region is specified (and before the rotation is performed).
  • the display unit may write a portion of the generated image that matches the opaque region at a position that matches the opaque region of the frame memory.
  • the user For example, a case where the user performs an input as shown in FIG. 10B while projecting the virtual space shown in FIG. 7A and displaying an image as shown in FIG. 10A will be described. That is, the user designates the transparent area 420A, selects the object 401A as the object to be rotated, and designates the direction 710 as the direction in which the viewpoint is moved. As a result, as shown in FIG. 10C, the state after being rotated around the object 401A is displayed in the transparent area. On the other hand, in the opaque region, the same image as that displayed in the opaque region is displayed when the transparent region is designated.
  • the present invention can be used, for example, in an inference game that solves the mystery of an incident.
  • the image displayed in the opaque region is an on-site photo image showing the current situation.
  • an on-site photo image showing the past situation is projected onto the transparent area.
  • the display device displays the past image near the site as if it were “digging a hole in the space-time” as if it was the part.
  • An image partially synthesized with the image is displayed. The user must rotate and display the state near the past site while thinking where to focus and where to focus, and search for the difference between the current site and the past site, and the reasoning ability is tested. In this way, it is possible to create a game that makes the user think more and a game that uses the head.
  • the rotating unit rotates the object in the virtual space based on the specified direction, it is not displayed in the transparent area immediately after the transparent area is specified (and before the rotation is performed).
  • Any of the objects (hereinafter referred to as original invisible objects) may be disposed between the original visible object and a surface having a predetermined shape. As a result, the original visible object is hidden by the original invisible object. Since the original visible object is an object that the user is paying attention to, the original visible object is not desirably hidden by the original invisible object.
  • the rotation unit first performs trial rotation on all objects. Then, when any line segment connecting the viewpoint after the trial rotation and the original invisible object passes through the transparent area (that is, when the original invisible object is projected onto the transparent area), the following determination is performed. That is, it is determined whether the length of each line segment connecting the viewpoint and the original invisible object passing through the transparent area after the trial rotation is shorter than the distance between the viewpoint and the original visible object. To do. If there is a short object, any of the original invisible objects may be closer to the viewpoint than any of the original visible objects, and the original invisible object may hide the original visible object. Therefore, the rotation unit returns the position and orientation of the object to the state before starting the trial rotation without confirming the trial rotation of all the objects.
  • the trial rotation is confirmed at a position immediately before one of the distances between the viewpoint and the original invisible object becomes shorter than the distance between the viewpoint and the original visible object. May be.
  • a rotation part finalizes trial rotation.
  • the object 401C is an original invisible object that is not projected onto the transparent area 420A immediately after the transparent area 420A is designated.
  • the objects 401A and 401B are original visible objects projected onto the transparent area 401A immediately after the designation.
  • the rotating unit compares the distance between the original invisible object and the viewpoint (for example, distance 1012) with the distance between the original invisible object and the viewpoint (for example, distance 1011).
  • the size of the area in the surface 420 having a predetermined shape that can be designated as the transparent region may be limited.
  • the area designation receiving unit obtains the maximum horizontal width and vertical width of the transparent area, and either the maximum horizontal width or the maximum vertical width is stored in the storage unit.
  • the area designation may not be accepted if it is not less than or equal to a predetermined threshold stored in the above.
  • the region designation receiving unit may not accept the region designation when the number of original visible objects is equal to or greater than a predetermined threshold.
  • an object as if the viewpoint has been moved by rotating an object in the virtual space is displayed at a position corresponding to the transparent area of the screen.
  • the position of the viewpoint itself (and the surface of the predetermined shape) may be moved in the direction specified by the user according to the calculation accuracy allowed when rotating.
  • both the rotation of the object and the movement of the viewpoint may be performed.
  • a display device As described above, according to the present invention, among the objects arranged in the virtual space, a display device, a display method, and an information recording suitable for easily observing the details of the object that the user pays attention to Media and programs can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにする。表示部(202)は、仮想空間に配置されるオブジェクトを所定形状の面におけるユーザの注目する透明領域部分に投影した画像を、画面上の透明領域に対応する位置に表示する。選択指示受付部(203)は、表示されたオブジェクトのうちから1つを選択する指示入力を受け付け、方向指定受付部(204)は、仮想空間に配置される視点の移動方向を指定する入力を受け付ける。回転部(205)は、選択されたオブジェクトを中心に、仮想空間内のオブジェクトを指定方向に基づいて回転させる。画面上の透明領域に対応する位置にはユーザによって指定された方向に視点が移動したかのように、仮想空間内の様子を示す画像が表示される。

Description

表示装置、表示方法、情報記録媒体、ならびに、プログラム
 仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、情報記録媒体、ならびにプログラムに関する。
 仮想空間内に配置された敵キャラクタや爆弾や罠などのオブジェクトをゲーム画面に表示する際に、これらのオブジェクトを拡大して表示し、その詳細をユーザが観察できるようにする技術が、例えば、特許文献1に開示されている。
特開2005-095347号公報
 しかしながら、オブジェクトを拡大して表示するだけでは、そのオブジェクトの裏側などの様子を観察することはできない。したがって、画面に描画されていないオブジェクトの外観をユーザに見易く提示したいという要望が強い。
 本発明はこのような課題を解決するものであり、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、情報記録媒体、ならびにプログラムを提供することを目的とする。
 上記目的を達成するため、本発明の第1の観点に係る表示装置は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える。
 記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶する。ここで、仮想空間とは、例えば、ゲームの舞台となる3次元仮想空間を指す。また、オブジェクトとは、一般的には、ゲームのキャラクタや背景を指す。典型的には、オブジェクトの情報、視点の情報、投影面の情報がカートリッジ等に記憶される。
 表示部は、視点により、オブジェクトを、投影面に透視投影した画像を生成して表示する。ここで、表示部は、投影面に投影される仮想空間を表示するため、仮想空間を見る窓の役割を果たす。ユーザは、タッチパネルなどに表示されたオブジェクトのうちから、いずれかをタッチするなどして選択する。また、ユーザは、視点の移動方向を、タッチパネルに触れた指等を当該移動方向に移動させることにより、指定してもよい。
 選択指示受付部は、生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける。選択指示受付部は、表示部に表示されたオブジェクトのうちから1つ、ユーザが選択したいオブジェクトを、例えば、タッチパネル又は操作キーの押下を検知することにより受け付ける。仮想空間内におけるオブジェクトのそれぞれが可視オブジェクトとなり得る。
 方向指定受付部は、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。方向指定受付部は、仮想空間内に配置された視点を移動させる方向を指定する方向指定入力を、例えば、ユーザによるタッチパネル又は操作キーの押下を検知することにより受け付ける。
 回転部は、選択された可視オブジェクトを中心に、視点と投影面とを、仮想空間に配置されるオブジェクトに対して、指定された方向に相対的に回転させる。回転部は、ユーザの選択した可視オブジェクトを中心に、ユーザの指定した方向に応じて、仮想空間を回転しているかのように見せるために、仮想空間と視点とを、指定された方向に相対的に回転させる。即ち、ユーザによって選択された可視オブジェクトを中心に、仮想空間自体を回転させるようにするか、あるいは、視点と投影面とを当該可視オブジェクトの周りを移動させる。または、この両方を同時に行ってもよい。なお、可視オブジェクトの中心とは、例えば、オブジェクトの重心でもよいし、ユーザがオブジェクトをタッチした位置でもよい。このように、本発明によれば、ユーザは、注目するオブジェクトの詳細を様々な角度から観察することができる。
 上記目的を達成するため、本発明の他の観点に係る表示装置は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える。
 記憶部は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する。
 表示部は、オブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する。
 選択指示受付部は、可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける。
 方向指定受付部は、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。
 回転部は、選択されたオブジェクトを中心に、指定された方向に応じて仮想空間に配置されるオブジェクトの位置および向きを回転させる。
 ここで、所定形状の面は、投影面に相当し、視点と仮想空間の間に配置される。表示部は、所定形状の面越しに、視点の位置から仮想空間を見たときの様子のうち、当該透明領域に投影された部分を表示する。即ち、透明領域は、仮想空間を見る窓のような役割を果たす。
 ユーザは、タッチパネルなどに表示されたオブジェクトのうちから、いずれかをタッチするなどして選択する。また、ユーザは、視点の移動方向を、タッチパネルに触れた指等を当該移動方向に移動させることにより、指定してもよい。回転部は、視点が移動しているかのように見せるために、選択されたオブジェクトを中心(例えば、オブジェクトの重心、或いは、ユーザがオブジェクトをタッチした位置、など)に、指定された方向に基づいて仮想空間に配置されるオブジェクトの位置や向きを回転させる。なお、後述するように、仮想空間内のすべてのオブジェクトを回転するようにしても、あるいは、一部(即ち、可視オブジェクト)を回転するようにしてもよい。
 このように、本発明によれば、選択されたオブジェクトを中心に、指定された方向に基づいて仮想空間に配置されるオブジェクトの位置や向きが回転されることで、ユーザは、注目するオブジェクトの詳細を様々な角度から観察することができる。
 また、表示装置において、回転部が、位置および向きを回転させるオブジェクトは、可視オブジェクトである、ようにしてもよい。
 即ち、回転部は仮想空間内のオブジェクトをすべて回転させるのではなく、回転前に透明領域に投影された可視オブジェクトを抽出し、当該可視オブジェクトのみを回転させるようにしてもよい。これにより、回転させるオブジェクトの数を減らすことができ、計算負荷を軽減することが可能となる。
 また、表示装置において、回転部は、可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、透明領域を通過してしまう場合、回転を中止する、ようにしてもよい。
 即ち、本発明によれば、当該選択されたオブジェクトを中心として、指定された方向に基づいて仮想空間に配置されるオブジェクトが回転されるが、回転後に、回転以前には表示されていないオブジェクトが、当該所定形状の面の透明領域に投影されて表示され、可視オブジェクトを隠してしまう場合がある。可視オブジェクトは、ユーザが注目したいオブジェクトであるため、可視オブジェクトが隠れてしまうことは望ましくない。
 したがって、回転部は、指定方向に基づいてオブジェクトを回転した場合に透明領域に投影されるオブジェクトのうち、いずれかの不可視オブジェクトと視点との距離が、いずれかの可視オブジェクトと視点との距離より短くなるような場合、回転を中止する。不可視オブジェクトが、可視オブジェクトを隠すのを防ぐためである。これにより、選択されたオブジェクトが回転したときにも、当該オブジェクトが隠れてしまう状況が起きないようにすることが可能となる。
 また、表示装置は、所定形状の面において、透明領域と不透明領域とを指定する領域指定入力を受け付ける領域指定受付部をさらに備えるようにしてもよい。
 即ち、仮想空間内において、注目したい部分を指定できるように、ユーザは所定形状の面に構成される透明領域の位置を指定できるようにしてもよい。典型的には、透明領域の位置は、例えば、タッチペンやマウスなどの入力装置を用いて、閉じた領域が得られるように、丸で囲んで指定する。回転して表示される領域を小さく指定すれば、現在注目しているオブジェクトがより判別しやすくなる。さらに、回転表示される面積を狭く取ることで、所謂3D酔い(3Dのゲーム画面を回転又は激しく動かした際、画面を見ているユーザが、一時的に気分が悪くなる症状)を減らすことも可能となる。
 また、表示部は、位置および向きが回転されたオブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、回転が行われる以前のオブジェクトの位置と当該視点の位置とを結ぶ線分が不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、画像を生成する、ようにしてもよい。
 即ち、表示部は、オブジェクトの回転が行われる以前の仮想空間の様子が、所定形状の面の不透明領域部分に投影された画像と、オブジェクトの回転が行われた後の仮想空間の様子が、所定形状の面の透明領域部分に投影された画像と、からなる画像を生成してもよい。これにより、例えば、現在注目している部分と、そうでない部分の両方が表示され、注目していない部分を少し見たいというようなユーザの要望にも対応できる。また、注目している部分のみが回転されて、他の部分は変化しない画像が生成されるため、注目部分が浮き出ているかのような効果を得られ、当該注目部分をさらに判別しやすくなる。
 また、領域指定受付部は、受け付けた透明領域が、所定の面積以上である場合、領域指定入力を受け付けない、ようにしてもよい。
 即ち、領域指定受付部は、所定の面積より小さい領域を、透明領域としてユーザに指定させるようにする。これにより、例えば、可視オブジェクトのみを回転させる場合は、計算量を減らすことが可能となる。また、3D酔いを予防するための面積を予め設定しておくことも可能となる。
 また、領域指定受付部は、領域指定入力を受け付けると、可視オブジェクトの数が所定の数以上となる場合、当該領域指定入力を受け付けないようにしてもよい。
 即ち、領域指定受付部は、可視オブジェクトの数が所定の数より少なくなるように、ユーザが透明領域を指定した場合において、当該領域指定を受け付ける。これにより、透明領域の面積を制限する場合と同様に、可視オブジェクトのみを回転させる場合は、計算量を減らすことが可能となる。また、3D酔いを予防するための面積を予め設定しておくことも可能となる。
 また、本発明の他の観点に係る表示方法は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える表示装置による表示方法であって、表示工程と、選択指示受付工程と、方向指定受付工程と、回転工程と、を備える。
 記憶部には、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、が記憶される。
 表示工程では、表示部が、視点により、オブジェクトを、投影面に透視投影した画像を生成して表示する。
 選択指示受付工程では、選択指示受付部が、生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける。
 方向指定受付工程では、方向指定受付部が、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。
 回転工程では、回転部が、選択された可視オブジェクトを中心に、視点と投影面とを、仮想空間に配置されるオブジェクトに対して、指定された方向に相対的に回転させる。
 また、本発明の他の観点に係る表示方法は、記憶部と、表示部と、選択指示受付部と、方向指定受付部と、回転部と、を備える表示装置による表示方法であって、表示工程と、選択指示受付工程と、方向指定受付工程と、回転工程と、を備える。
 記憶部には、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、が記憶される。
 表示工程では、表示部が、オブジェクトの位置と視点の位置とを結ぶ線分が透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する。
 選択指示受付工程では、選択指示受付部が、可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける。
 方向指定受付工程では、方向指定受付部が、仮想空間において視点を移動しようとする方向を指定する方向指定入力を受け付ける。
 回転工程では、回転部が、選択された可視オブジェクトを中心に、指定された方向に応じて仮想空間に配置されるオブジェクトの位置および向きを回転させる。
 また、本発明の他の観点に係るプログラムは、コンピュータを、上記の表示装置として機能させるように構成する。
 また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。上記プログラムは、当該プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、当該コンピュータとは独立して配布・販売することができる。
 本発明に係る表示装置によれば、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするのに好適な表示装置、表示方法、情報記録媒体、ならびにプログラムを提供することができる。
本発明の表示装置が実現される典型的な携帯型ゲーム機の概要構成を示す図である。 本発明の表示装置が実現される典型的な携帯型ゲーム機の外観図を示す図である。 表示装置の機能的構成を説明するための図である。 仮想空間の構成の例を示す図である。 表示装置が受け付ける入力の状態遷移図である。 表示処理を説明するためのフロー図である。 仮想空間の様子を所定形状の面に投影した様子を示す図である。 仮想空間の様子を所定形状の面に投影した結果、生成される画像の例を示す図である。 回転前に表示された画像上で、透明領域内のオブジェクトが選択され、視点の移動方向が指定された例を示す図である。 指定された視点の移動方向に対して、回転部がオブジェクトを回転する軸と方向を求める方法の一例を示す図である。 図8Aに示される視点の移動方向に基づいてオブジェクトが回転された際に、表示される画像の例を示す図である。 変形例において、回転前に表示される画像の例を示す図である。 変形例において、透明領域内のオブジェクトが選択され、視点の移動方向が指定された例を示す図である。 変形例において、回転部によって指定された移動方向にオブジェクトを回転した後に、表示される画像の例を示す図である。 仮想空間の構成の例を示す図である。 図11Aを軸1001に対して、右周りに回転させた後の仮想空間の様子を示す図である。 図11Bを投影させた結果を示す図である。
 以下に本発明の実施の形態を説明する。以下では、理解を容易にするため、携帯型ゲーム機に本発明が適用される実施の形態を説明するが、各種のコンピュータ、PDA、携帯電話などにおいても同様に本発明を適用することができる。すなわち、以下に説明する実施の形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと等しいものに置換した実施形態を採用することが可能であるが、これらの実施の形態も本発明の範囲に含まれる。
 図1は、本発明の実施形態に係る表示装置が実現される典型的な携帯型ゲーム機の概要構成を示す模式図である。以下、本図を参照して説明する。
 携帯型ゲーム機1は、処理制御部10と、コネクタ11と、カートリッジ12と、無線通信部13と、通信コントローラ14と、サウンドアンプ15と、スピーカ16と、操作キー17と、第1の表示部18と、第2の表示部19と、タッチパネル20と、を備える。
 処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、VRAM(Video Random Access Memory) 10cと、WRAM(Work RAM) 10dと、LCD(Liquid Crystal Display)コントローラ10eと、タッチパネルコントローラ10fと、を備える。
 CPUコア10aは、携帯型ゲーム機1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory) 12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。
 画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10cに格納する。
 VRAM 10cは、表示用の情報を記憶するフレームメモリであり、画像処理部10b等により加工された画像情報を記憶する。
 WRAM 10dは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。
 LCDコントローラ10eは、第1の表示部18および、第2の表示部19を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10eは、VRAM 10cに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、第1の表示部18に出力する。また、LCDコントローラ10eは、第2の表示部19に所定の指示アイコン等を表示する。
 タッチパネルコントローラ10fは、タッチペンやユーザの指によるタッチパネル20への接触(タッチ)を検出する。例えば、第2の表示部19に所定の指示アイコン等が表示されている状態で、タッチパネル20上の接触およびその位置等を検出する。
 コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。
 カートリッジ12は、ROM 12aと、RAM(Random Access Memory)12bと、を備える。
 ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
 RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
 無線通信部13は、他の携帯型ゲーム機1の無線通信部13との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。
 なお、無線通信部13は、所定のアクセスポイントとの間で、無線LAN通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。
 通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他の携帯型ゲーム機1の処理制御部10との間で行われる通信の仲立ちをする。
 サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。
 スピーカ16は、例えば、ステレオスピーカ等からなり、サウンドアンプ15にて増幅された音声信号に従って、所定の楽曲音や効果音等を出力する。
 操作キー17は、携帯型ゲーム機1に適宜配置された複数のキースイッチ等からなり、ユーザの操作に従って、所定の指示入力を受け付ける。
 第1の表示部18および、第2の表示部19は、LCD等からなり、LCDコントローラ10eに制御され、ゲーム画像等を適宜表示する。
 なお、第2の表示部19は、タッチパネル20の接触によりユーザから操作指示を入力させるための指示アイコン等を表示する。
 タッチパネル20は、第2の表示部19の前面に重畳して配置され、タッチペンやユーザの指の接触による入力を受け付ける。
 タッチパネル20は、例えば、感圧式のタッチセンサパネル等からなり、ユーザの指等の圧力を検出し、接触状態および、接触状態から非接触状態への移行等を検出する。なお、タッチパネル20は、他に静電容量の変化等から、ユーザの指等の接触を検出してもよい。
 図2に、携帯型ゲーム機1の外観図を示す。
 なお、本実施の形態に係る表示装置は、上述した典型的な携帯型ゲーム機1上に実現されるが、一般的なコンピュータやゲーム装置上に実現することもできる。一般的なコンピュータやゲーム装置は、上記携帯型ゲーム機1と同様に、CPUコアや、VRAM、WRAM、を備える。また、通信部として、例えば、LAN(Local Area Network)を構成する際に用いられる10BASE-T/100BASE-Tなどの規格に準拠するNIC(Network Interface Controller)、記憶装置としてハードディスクを有する他、DVD-ROMや、光磁気ディスク、等が利用できるようになっている。また、入力装置として、タッチパネルの代わりに、キーボードやマウスなどを利用する。そして、プログラムをインストールした後に、そのプログラムを実行させると、表示装置として機能させることができる。
 なお、以下では、注記しない限り、本実施の形態に係る表示装置は、図1に示した携帯型ゲーム機1により説明を加える。表示装置は、必要に応じて適宜一般的なコンピュータや、ゲーム装置の要素に置換することができ、これらの実施の形態も本発明の範囲に含まれる。
 以下、表示装置200の構成について図3を参照して説明する。
 本実施の形態に係る表示装置200は、記憶部201、表示部202、選択指示受付部203、方向指定受付部204、回転部205、領域指定受付部206、などを備える。
 ここで、記憶部201は、例えば、ゲームの舞台となる3次元仮想空間についての情報を記憶する。この仮想空間内には、例えば、図4に示すように、オブジェクト(例えば、401A、401B、401Cなど)、仮想空間を見る視点410(即ちカメラ)、透明領域420Aと不透明領域420Bとを有する所定形状の面420などが配置される。
 所定形状の面420は、仮想空間が投影される投影面に相当する。本実施の形態では、平面により構成されるが、形状はこれに限るものではない。所定形状の面420は、典型的には、視点410と、仮想空間内のオブジェクト(例えば、401A、401B、401Cなど)との間に配置される。そして、視線の方向415の向きは、所定形状の面420の中心を通り、所定形状の面420と垂直に交わるベクトルの向きと一致する。
 なお、所定形状の面420に配置される透明領域420A、および不透明領域420Bの境界は一致しており、後述するように、ユーザにより指定可能である。
 仮想空間内に配置される、オブジェクトの形状、位置および向きと、視点の位置と、所定形状の面420の位置および向きなどのデータは、カートリッジ12内のROM 12aに予め記憶される。処理制御部10は適宜カートリッジ12からこれらのデータを読み出してWRAM 10d等に記憶する。回転部205は、ユーザからの指示に応じて、オブジェクトの形状、位置や向きのデータを更新する。処理制御部10とコネクタ11とカートリッジ12が協働して、記憶部201として機能する。
 表示部202は、後述の領域指定受付部206によって、透明領域を指定する入力が受け付けられた場合、次のような所定形状の面420と同じ大きさの画像を生成する。即ち、生成する画像のうち、所定形状の面420の透明領域に対応する位置には、所定形状の面420の透明領域に投影された仮想空間の画像の透明領域の部分を描画する。また、生成する画像のうち、透明領域以外の領域(即ち、不透明領域)に対応する位置には、暗闇を表現する所定の色(例えば黒)を描画した画像を生成する。そして、表示部202は、生成した画像を、第2の表示部19(又は第1の表示部18)に表示する。即ち、所定形状の面420は、投影面に相当すると述べたが、本実施の形態において、実際に投影面として機能するのは、所定形状の面420のうち、透明領域である。なお、所定形状の面420の全体を透明領域とすることも可能である。処理制御部10と第2の表示部19(又は第1の表示部18)が協働して動作することにより、表示部202として機能する。
 選択指示受付部203は、表示部202に表示されたオブジェクト(以下、可視オブジェクトと呼ぶ)のうちから、1つを選択する旨を指示する選択指示入力を受け付ける。ユーザは、例えば、選択したいオブジェクトが表示されるタッチパネル20の位置に接触(タッチ)して、表示部202に表示されたオブジェクトの1つを選択することができる。あるいは、これに同等な操作を、操作キー17を押下することで行い、オブジェクトを選択してもよい。受け付けられた選択オブジェクトは、例えば、WRAM 10dなどに一時記憶される。処理制御部10、操作キー17、タッチパネル20、などが協働して、選択指示受付部203として機能する。
 方向指定受付部204は、仮想空間内に配置された視点を、当該仮想空間において移動させる方向を指定する方向指定入力をユーザから受け付ける。ユーザは、例えば所定の方向に対応する操作キー17を押下して、あるいはタッチパネル20を押下しながら移動させることで、方向を指定することができる。処理制御部10と操作キー17とタッチパネル20が協働して動作することにより、方向指定受付部204として機能する。
 回転部205は、選択指示受付部203によって受け付けられたオブジェクトを中心に、方向指定受付部204によって受け付けられた方向に当該視点が動いて見えるように、仮想空間内のオブジェクトを回転させる。即ち、指定された方向とは逆向きに当該仮想空間に配置されるオブジェクトの位置および向きを回転させ、記憶部201に記憶されたオブジェクトの位置や向きを更新する。処理制御部10が回転部205として機能する。
 領域指定受付部206は、当該所定形状の面420において、当該透明領域と当該不透明領域とを指定する領域指定入力を受け付ける。ユーザは、例えば、閉じた領域が得られるように、タッチパネル20上でタッチペンを押下しながら移動させて領域の境界となるラインを描き、透明領域の位置と形状を指定することができる。あるいは、ユーザは、これに同等な操作を、操作キー17を押下することで行い、透明領域を指定してもよい。受け付けられた指定領域は、例えば、WRAM 10dなどに一時記憶される。処理制御部10と操作キー17とタッチパネル20が協働して動作することにより、領域指定受付部206として機能する。
 以下に本実施の形態に係る表示装置200の動作処理について説明する。
 本実施の形態においては、例えば暗闇の中で、何かを探さなくてはならないシーンのあるゲームを実行する場合を例に説明する。当該ゲームでは、ユーザは、透明領域を指定すると、当該指定された領域内のみが懐中電灯で照らされたかのように表示される。
 さらに、ユーザが、透明領域に表示されたオブジェクトのうち1つを選択し、視点を移動する方向を指定する入力を行うと、表示装置200は、当該オブジェクトを中心に、指定された方向に基づいて仮想空間内のオブジェクトを回転する。そして、回転後の仮想空間の様子を示す画像を、当該領域に表示する。ユーザは、様々な角度から指定した透明領域に表示される仮想空間をみることで、探し物を行う。
 なお、本実施の形態において、ユーザから受け付けられる入力の状態の遷移を、図5にまとめる。何も受け付けられていない初期状態(状態A)において、透明領域の指定を受け付けることができる(状態B)。次いで、回転の中心となるオブジェクトの選択指示を受け付け(状態C)、その後、視点の移動方向の指定を受け付ける(状態D)。このように、移動方向の指示は、回転の中心となるオブジェクトが選択されていなければ受け付けられず、また、回転の中心となるオブジェクトの選択は、透明領域が指定されていなければ受け付けられない。
 なお、状態B、C、Dにおいて、所定のキーを入力して、指定された透明領域を解除(状態E)(即ち、WRAM 10dから削除)することもできる。オブジェクトの選択指示が受け付けられた状態で、透明領域の解除が指定された場合(状態C→Eへの遷移)、解除された領域内に、回転の中心となるように選択されているオブジェクトがあるため、当該オブジェクトの選択もWRAM 10dから削除して解除する。
 また、指定された透明領域は、領域の境界部分をドラッグするなどして形状を変更できるほか(状態B→Bへの遷移)、オブジェクトの選択指示が受け付けられた状態で、指定された透明領域内の別のオブジェクトを選択する指示を受け付けることも可能である(状態C→Cへの遷移)。あるいは、視点の移動方向の指定を行った後、さらに移動方向を指定してもよい(状態D→Dへの遷移)。
 図6に示す表示処理は、本実施形態の表示装置200の各部が協働して、所定のタイミングで定期的に繰り返し実行する処理である。上述したように遷移する受付状態に応じて、表示装置200の行う表示処理について、図6を参照して、次に説明する。まず、状態A、即ち、ユーザが透明領域の指定や、オブジェクトの選択などを行っていない初期状態における場合について示す。
 処理制御部10は、まず、視点の移動方向を指定する入力があったか否かを判断する(ステップS101)。即ち、WRAM 10dなどを参照して、視点の移動方向を指定する入力が記憶されているか否かを判断する。初期状態においては、方向を指定する入力はないと判断され(ステップS101;N)、処理はステップS103へと進む。
 次いで、表示部202は、透明領域に投影された仮想空間の様子を、フレームメモリ(VRAM 10c)に記憶する(ステップS103)。即ち、表示部202は視点の位置、所定形状の面420の位置および向き、オブジェクトの形状、位置、および向きを、記憶部201を参照して取得する。そして、取得した情報に基づいて、所定形状の面420に、仮想空間内のオブジェクトを投影した画像を生成する。そのうちの、透明領域の位置(WRAM 10dを参照して取得)に対応する画像を、当該透明領域に対応するフレームメモリ(VRAM 10c)の位置に記憶する。ただし、初期状態においては、透明領域は指定されていないため、フレームメモリには画像データは記憶されない。
 続いて、表示部202は、フレームメモリの、不透明領域に対応する位置に、所定の色(例えば、黒)を示すデータを書き込む(ステップS104)。初期状態においては、不透明領域のみが存在するため、この時点では、一面黒く塗りつぶされた画像がフレームメモリ内に記憶される。
 表示部202は、フレームメモリの内容を、所定のタイミングで、第1または、第2の表示部(18、19)に転送して、表示する(ステップS105)。したがって、初期状態においては、一面黒い画像が、第1または、第2の表示部(18、19)に表示される。そして、表示処理は終了する。
 次に、状態B、即ち、ユーザが透明領域を指定した場合の表示処理について説明する。ユーザは、透明領域を指定する入力を、操作キー17を操作したりタッチパネル20に接触したりして行う。そして、領域指定受付部206が、当該入力によって指定された透明領域の位置や形状を受け付け、WRAM 10dなどに一時的に記憶する。
 ユーザが、透明領域を指定した状態で、ステップS101が実行されると、処理制御部10により、視点の移動の方向指定はまだ入力されていないと判断され(ステップS101;N)、ステップS103からステップS105が実行される。
 上記に説明したように、ステップS103からステップS105を実行することで、表示される画像のうち、仮想空間が、透明領域に対応する位置に投影され、それ以外の部分は黒く描画される画像が表示部202によって表示される。
 例えば、図4に示す仮想空間を透明領域420Aに投影した様子を、図7Aに示す。図7Aに示すように、透明領域に投影されるのは、オブジェクト401Aおよび、オブジェクト401Bの一部であり、その他は不透明領域に投影される。よって、図7Bに示すように、オブジェクト401Aの投影された像401A'および、オブジェクト401Bの投影された像401B'の一部が、画面の透明領域に対応する部分に表示され、画面の不透明領域に対応する部分は、黒く表示される。このように、ユーザによって指定された透明領域には、懐中電灯で照らされたかのように、仮想空間の一部が表示される。
 本実施の形態では、図7Bに示すように、各オブジェクトを一点透視法で透視投影し、視点から遠くにあるオブジェクトは小さく、近くにあるオブジェクトは大きく投影される。ただし、一点透視法の代わりに、平行投影を採用することもできる。なお、表示部202はオブジェクト毎に、例えばZバッファ法(3次元グラフィックスにおいて、視線の手前にある物体で隠される物体や面を検出し、描画を行わない処理、すなわち隠面消去を行う方法の一つ。画面を構成する各画素に、色情報に加えて奥行きに関する情報を持たせ、画面に描画する際は同じ座標の画素の奥行情報を比較し、最も手前にあるオブジェクトのみを画面に書き込む手法。)などを用いて陰面処理を行って仮想空間の画像を描画する。
 このように、表示部202は、画像を生成する毎に画面上の透明領域に対応する領域の画像と、不透明領域に対応する領域の画像を描画するため、ユーザにより領域の形状の変更が指定された場合においても、当該変更を反映することができる。
 続いて、透明領域が選択された状態で、ユーザが、表示されたオブジェクトのうちから1つを選択する指示を入力し、さらに、視点の移動方向を指定する入力を行った場合を考える(状態B→C→Dの遷移)。
 即ち、ユーザは、当該領域内に表示された、いずれかのオブジェクトの位置を接触する。選択指示受付部203は、当該接触が行われた座標値を含む領域に投影されるオブジェクトを特定し、当該特定されたオブジェクトが選択されたものとして受け付ける(状態C)。
 例えば、選択指示受付部203は、オブジェクトが投影される位置の各画素に対応して、当該位置に投影されたオブジェクトを特定する情報を記憶する配列をWRAM 10dに記憶させてもよい。なお、画面が480×640ドットとすると、当該配列は、480行640列の2次元で、対応する画素にオブジェクトが表示される場合はオブジェクトを特定する情報(例えばオブジェクトID)を、表示されない場合は0を格納する配列であってもよい。そして、検出された座標値に対応付けて記憶されるオブジェクトを特定する情報を抽出し、当該抽出した情報によって特定されるオブジェクトを、選択されたオブジェクトとして特定してもよい。選択指示受付部203は、選択されたオブジェクトを特定する情報を、後の処理で利用するため、WRAM 10dなどに一時的に記憶する。
 なお、当然ながら、検出座標が、指定された透明領域内にない場合、選択指示受付部203は、当該選択指示入力を受け付けないようにすればよい。
 また、視点の移動方向は、例えば、ユーザが、タッチパネル20に接触しながら、指定する方向に移動して指定される。接触しながらの移動では、方向指定受付部204は、連続して接触座標を検出する。方向指定受付部204は、連続されて検出された座標値のうち、前回の座標値と、今回の座標値を比較して、タッチの移動した距離や方向を算出する。移動した距離が所定の距離以上の場合、方向指定受付部204は、ユーザによる操作を方向指定入力であるとして受け付け、移動方向と距離をWRAM 10dなどに一時的に記憶する(状態D)。
 あるいは、上下左右の方向を示す操作キー17を操作(押下)して、方向指定を行ってもよい。この場合、方向指定受付部204は、押下された操作キー17の種類と、その押下された時間によって、視点の移動方向と移動距離を算出するようにすればよい。
 このように、ユーザが、表示されたオブジェクトのうちから1つを選択する指示を入力し、さらに、視点の移動方向を指定する入力を行った状態で、ステップS101が実行されると、処理制御部10は、視点の移動方向を指定する入力があったと判断する(ステップS101;Y)。そして、処理はステップS102へ進められる。
 続いて、回転部205が、選択されたオブジェクトを、WRAM 10dから取得し、当該オブジェクトを中心(例えば、当該オブジェクトの重心など)に、指定された方向に基づいて、仮想空間に配置されるオブジェクトを回転させる(ステップS102)。即ち、受け付けられた指定方向とは逆の方向に、仮想空間内のオブジェクトを、移動距離に応じた角度だけ回転させる。
 そして、ステップS103からステップS105を実行して、上述と同様の手順で所定形状の面420の透明領域に投影された仮想空間の画像を表示する。
 例えば、図8Aは、透明領域420A内のオブジェクト401Aが選択され、視点の移動方向として、方向710が指定された場合を示す。回転部205は、図8Bに示すように、視点とオブジェクト401Aの中心を通るベクトル720、および、方向710とに垂直であり、かつ、オブジェクト401Aの中心を通る軸730を求める。回転部205は、この軸730に対して、方向710とは逆向き(即ち、図8Bでは左回転)に、移動距離に応じた角度だけ仮想空間内のオブジェクトを回転させる。回転後に画面に表示される画像の例を、図9に示す。
 例えば、記憶部201には、移動距離に応じた回転角度を定義するテーブルを備えるようにして、回転部205は、当該テーブルを参照して回転角度を決定してもよい。このように回転部205が仮想空間内のオブジェクトを回転させることにより、ユーザによって指定された透明領域内に対応する画面上の領域には、ユーザによって指定された方向に視点が移動したかのように、仮想空間内の様子を示す画像が表示される(図9参照)。
 ユーザは、さらに視点の移動方向を指定して、オブジェクトをさらに回転させてもよい(状態D→Dの遷移)。あるいは、透明領域の指定を解除させてもよい(状態B、C、Dのいずれかから、状態Eへの遷移)。本実施の形態においては、仮想空間の一部を回転させて観察しているかのように見せるために、透明領域の指定が解除された場合には、回転部205によって回転が行われる前の状態に仮想空間を戻す。よって、回転部205は、回転を行う前に、その時点の仮想空間内の状態(オブジェクトの位置や向き)を、WRAM 10dに退避させておく。そして、透明領域の解除が行われた際に、退避させた仮想空間の状態を、現在の仮想空間の状態としてロードする。
 次に透明領域が指定され、オブジェクトの選択指示、および視点の移動方向がユーザにより入力された場合、回転部205は、ロードされた状態から、オブジェクトを回転させる。
 以上説明したように、本実施の形態においては、表示装置200は、オブジェクトの回転が行われた後の仮想空間の様子が、所定形状の面420における、ユーザの注目する透明領域部分に投影された画像を、画面上の透明領域に対応する位置に表示する。
 したがって、本実施の形態によれば、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できる。
 以上、本実施の形態について説明したが、本発明は、上述した実施形態に限定されず、種々の変形及び応用が可能である。また、上述した実施例の各構成要素を自由に組み合わせることも可能である。
 例えば、上記実施の形態では、指定されたオブジェクトを中心に、仮想空間に配置された全てのオブジェクトを回転させた。そうではなく、透明領域指定後の、回転を一度でも開始する以前に透明領域に投影されるオブジェクト(以下、原可視オブジェクトと呼ぶ)のみを、ステップS102で回転させて透明領域に描画するようにしてもよい。これにより回転させるオブジェクトが少なくなり、描画処理を軽減することができる。
 また、本発明は、暗闇の中で探し物をするゲーム以外にも、例えば、ゲーム画面に表示された一部分を詳細に調べるような場合についても、適用することができる。
 例えば、ゲーム画像上に表示されている一部分を調べるために、ユーザが当該部分を囲むように、透明領域を指定し、続いて、回転の中心となるオブジェクト、および、視点の移動方向を指定すると、画面に表示される当該透明領域に対応する部分には、上述のように、指定された透明領域に投影された指定された方向に応じて回転されたオブジェクトを表示する。一方、画面に表示される不透明領域に対応する部分には、領域が指定された時点の当該不透明領域に投影された仮想空間の様子を表示してもよい。
 これを実現するために、例えば、表示部は、領域が指定された時点(且つ回転が行われる前)における、仮想空間の状態を所定形状の面に投影した画像を生成する。そして、表示部は、上述するステップS104において、当該生成した画像のうち、不透明領域に一致する部分を、フレームメモリの不透明領域に一致する位置に書き込めばよい。
 例えば、図7Aに示す仮想空間を投影して、図10Aに示すような画像が表示されている状態で、図10Bに示すような入力をユーザが行なった場合について説明する。即ち、ユーザは、透明領域420Aを指定し、回転の中心となるオブジェクトとしてオブジェクト401Aを選択し、視点を移動する方向として、方向710を指定する。この結果、図10Cに示すように、透明領域には、オブジェクト401Aを中心に回転された後の様子が表示される。一方、不透明領域には、透明領域を指定した時点において、不透明領域に表示されたものと同じ画像が表示される。
 このように、現在注目している部分以外も同時に表示することで、注目していない部分を見たいというようなユーザの要望にも対応できる。また、注目している指定領域部分のみが回転されて、他の部分は変化しない画像が生成されるため、注目部分が浮き出ているかのような効果を得られ、当該注目部分をさらに判別し易くなる。
 このほかにも、本発明を、例えば、事件の謎を解き明かすような推理ゲームに用いることができる。不透明領域に表示される画像を、現在の状況を示す現場写真の画像とする。そして、透明領域には、過去の状況を示す現場写真の画像を投影する。これにより、ユーザが現場写真の任意の場所(透明領域)を指定すると、表示装置はその部分だけまるで"時空に穴を掘った"かのように演出しながら現場付近の過去の画像を、現在の画像に部分的に合成した画像を表示する。ユーザは、どこに注目したいか、どこに注目すべきか、を考えながら、過去の現場付近の様子を回転しながら表示させ、現在と過去の現場の相違を探さねばならず、推理力が試される。このように、ユーザに対してより考えさせるゲーム、頭を使わせるゲームを創出することができる。
 また、上記実施の形態においては、回転部が仮想空間に配置されるオブジェクトを回転できる角度について制限を与えなかった。しかし、例えば、指定された方向に基づいて、回転部が仮想空間内のオブジェクトを回転した際に、透明領域の指定後直後(且つ回転が行われる以前)に当該透明領域に表示されていなかったオブジェクト(以下、原不可視オブジェクトと呼ぶ)のいずれかが、原可視オブジェクトと所定形状の面との間に配置されてしまうことがある。この結果、原可視オブジェクトが原不可視オブジェクトによって隠れてしまう。原可視オブジェクトは、ユーザが注目しているオブジェクトであるため、原不可視オブジェクトに隠されてしまうのは望ましくない。
 したがって、回転部は、全てのオブジェクトに対して、まず試回転を行う。そして、試回転後の視点と原不可視オブジェクトとを結ぶいずれかの線分が、透明領域を通過する場合(即ち、原不可視オブジェクトが透明領域に投影される場合)、次の判定を行う。即ち、試回転後の、透明領域を通過する、視点と原不可視オブジェクトとを結ぶ線分のそれぞれの長さを、視点と原可視オブジェクトとのそれぞれの距離と比較して短いか否かを判定する。
 短いものがある場合は、原不可視オブジェクトのいずれかが原可視オブジェクトのいずれかより視点に近い位置にあり、原不可視オブジェクトが原可視オブジェクトを隠す可能性がある。よって、回転部は、全てのオブジェクトの試回転を確定せずにオブジェクトの位置や向きを試回転を始める前の状態に戻す。あるいは、試回転を始める前の状態に戻すのではなく、当該視点と原不可視オブジェクトとの距離のいずれかが、視点と原可視オブジェクトとの距離より短くなる直前の位置で、試回転を確定してもよい。一方、短いものがない場合、回転部は、試回転を確定させる。
 例えば、図11Aに示すように配置されたオブジェクトが、ユーザにより指定された視点の移動方向に基づいて、回転部によって、軸1001の周りを右周りに回転された場合について説明する。
 図11Aに示されるように、オブジェクト401Cは、透明領域420Aの指定直後において当該透明領域420Aに投影されない、原不可視オブジェクトである。一方、オブジェクト401Aおよび401Bは当該指定直後の透明領域401Aに投影される、原可視オブジェクトである。
 図11Aから、図11Bのようなオブジェクトの配置が、試回転により得られた場合、原不可視オブジェクト401Cは、透明領域420Bに投影される位置に移動する。この状態で仮想空間の様子を所定形状の面420の透明領域420Aに投影すれば、図11Cのような画像が得られる。即ち、原不可視オブジェクト401Cの投影された像401C'が、原可視オブジェクト401Aの投影された像401A'を一部隠してしまう。
 回転部は、このような状況を防ぐために、原不可視オブジェクトと視点との距離(例えば、距離1012)を、原不可視オブジェクトと視点との距離(例えば、距離1011)と比較する。
 図11Bでは、距離1012は距離1011より短いため、回転部は、試回転を確定せずにとりやめる。
 これにより、投影されたオブジェクトの重なりなどを求めずとも、簡易に原可視オブジェクトが隠れないように表示することが可能となる。
 また、透明領域として指定できる所定形状の面420内における面積の大きさを制限してもよい。例えば、透明領域が指定された際に、領域指定受付部は、当該透明領域の、最大の横幅、および縦幅のそれぞれを求め、当該最大横幅、および、最大縦幅のいずれかが、記憶部などに記憶される所定の閾値以下でない場合、領域指定を受け付けないようにしてもよい。
 これにより、例えば、原可視オブジェクトのみを回転させる変形例においては、原可視オブジェクトの数が多くなることを防ぎ、回転処理に係る計算量を抑えることが可能となる。また、原可視オブジェクトのみを回転させるのではなく、仮想空間内の全オブジェクトを回転させる場合についても、回転表示される領域が小さくなるため、所謂3D酔いを防止することもできる。あるいは、同様の効果を得るために、原可視オブジェクトの数が所定の閾値以上となる場合に、領域指定受付部は、領域指定を受け付けないようにしてもよい。
 また、上記実施の形態においては、仮想空間内のオブジェクトを回転させて、視点が移動したかのような画像が、画面の透明領域に対応する位置に表示される。そうではなく、回転させる際に許容される計算精度などに応じて、ユーザによって指定される方向に、視点自体(および所定形状の面)の位置を移動させるようにしてもよい。或いは、オブジェクトの回転と、視点の移動の両方を行ってもよい。
 なお、本願については、日本国特許願 特願2008-260979号を基礎とする優先権を主張し、当該基礎出願の内容をすべて本願にとりこむものとする。
 以上説明したように、本発明によれば、仮想空間内に配置されたオブジェクトのうち、ユーザが注目するオブジェクトの詳細を容易に観察できるようにするために好適な表示装置、表示方法、情報記録媒体、ならびにプログラムを提供することができる。
  1 携帯型ゲーム機
 10 処理制御部
 11 コネクタ
 12 カートリッジ
 13 無線通信部
 14 通信コントローラ
 15 サウンドアンプ
 16 スピーカ
 17 操作キー
 18 第1の表示部
 19 第2の表示部
 20 タッチパネル
200 表示装置
201 記憶部
202 表示部
203 選択指示受付部
204 方向指定受付部
205 回転部
206 領域指定受付部

Claims (13)

  1.  仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶する記憶部(201)、
     前記視点により、前記オブジェクトを、前記投影面に透視投影した画像を生成して表示する表示部(202)、
     前記生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記視点と前記投影面とを、前記仮想空間に配置されるオブジェクトに対して、前記指定された方向に相対的に回転させる回転部(205)、
     を備えることを特徴とする表示装置(200)。
  2.  仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部(201)、
     前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部(202)、
     前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部(205)、
     を備えることを特徴とする表示装置(200)。
  3.  請求項2に記載の表示装置(200)であって、
     前記回転部(205)が、位置および向きを回転させるオブジェクトは、前記可視オブジェクトである、
     ことを特徴とする表示装置(200)。
  4.  請求項2に記載の表示装置(200)であって、
     前記回転部(205)は、前記可視オブジェクト以外のオブジェクト(以下、不可視オブジェクトという)の位置および向きを回転させるとすると、当該不可視オブジェクトと前記視点との距離が、当該可視オブジェクトと当該視点との距離より短く、当該不可視オブジェクトと当該視点とを結ぶ線分が、前記透明領域を通過してしまう場合、前記回転を中止する、
     ことを特徴とする表示装置(200)。
  5.  請求項2に記載の表示装置(200)であって、
     前記所定形状の面において、前記透明領域と前記不透明領域とを指定する領域指定入力を受け付ける領域指定受付部(206)
     をさらに備え、
     前記表示部(202)は、前記位置および向きが回転されたオブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクトを、当該線分と当該透明領域との交点に投影し、前記回転が行われる以前のオブジェクトの位置と前記視点の位置とを結ぶ線分が前記不透明領域を通過するオブジェクトを、当該線分と当該不透明領域との交点に投影して、前記画像を生成する、
     ことを特徴とする表示装置(200)。
  6.  請求項5に記載の表示装置(200)であって、
     前記領域指定受付部(206)は、前記受け付けた透明領域が、所定の面積以上である場合、前記領域指定入力を受け付けない、
     ことを特徴とする表示装置(200)。
  7.  請求項5に記載の表示装置(200)であって、
     前記領域指定受付部(206)は、前記領域指定入力を受け付けると、前記可視オブジェクトの数が所定の数以上となる場合、当該領域指定入力を受け付けない、
     ことを特徴とする表示装置(200)。
  8.  記憶部(201)と、表示部(202)と、選択指示受付部(203)と、方向指定受付部(204)と、回転部(205)と、を備える表示装置(200)による表示方法であって、
     前記記憶部(201)は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶しており、
     前記表示方法は、
     前記表示部(202)が、前記視点により、前記オブジェクトを、前記投影面に透視投影した画像を生成して表示する表示工程、
     前記選択指示受付部(203)が、前記生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、
     前記方向指定受付部(204)が、前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、
     前記回転部(205)が、前記選択された可視オブジェクトを中心に、前記視点と前記投影面とを、前記仮想空間に配置されるオブジェクトに対して、前記指定された方向に相対的に回転させる回転工程、
     を備えることを特徴とする表示方法。
  9.  記憶部(201)と、表示部(202)と、選択指示受付部(203)と、方向指定受付部(204)と、回転部(205)と、を備える表示装置(200)による表示方法であって、
     前記記憶部(201)は、仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶しており、
     前記表示方法は、
     前記表示部(202)が、前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示工程、
     前記選択指示受付部(203)が、前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付工程、
     前記方向指定受付部(204)が、前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付工程、
     前記回転部(205)が、前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転工程、
     を備えることを特徴とする表示方法。
  10.  コンピュータを、
     仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶する記憶部(201)、
     前記視点により、前記オブジェクトを、前記投影面に透視投影した画像を生成して表示する表示部(202)、
     前記生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記視点と前記投影面とを、前記仮想空間に配置されるオブジェクトに対して、前記指定された方向に相対的に回転させる回転部(205)、
     として機能させるプログラムを記録することを特徴とする、コンピュータ読み取り可能な情報記録媒体。
  11.  コンピュータを、
     仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部(201)、
     前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部(202)、
     前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部(205)、
     として機能させるプログラムを記録することを特徴とする、コンピュータ読み取り可能な情報記録媒体。
  12.  コンピュータを、
     仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、所定の大きさの投影面の位置および向きと、を記憶する記憶部(201)、
     前記視点により、前記オブジェクトを、前記投影面に透視投影した画像を生成して表示する表示部(202)、
     前記生成された画像に含まれるオブジェクト(以下、可視オブジェクトという)から、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記視点と前記投影面とを、前記仮想空間に配置されるオブジェクトに対して、前記指定された方向に相対的に回転させる回転部(205)、
     として機能させることを特徴とするプログラム。
  13.  コンピュータを、
     仮想空間内に配置されるオブジェクトの位置および向きと、視点の位置と、透明領域と不透明領域とを有する所定形状の面の位置および向きと、を記憶する記憶部(201)、
     前記オブジェクトの位置と前記視点の位置とを結ぶ線分が前記透明領域を通過するオブジェクト(以下、可視オブジェクトという)を、当該線分と当該透明領域との交点に投影した画像を生成して表示する表示部(202)、
     前記可視オブジェクトから、いずれかを選択する旨を指示する選択指示入力を受け付ける選択指示受付部(203)、
     前記仮想空間において前記視点を移動しようとする方向を指定する方向指定入力を受け付ける方向指定受付部(204)、
     前記選択された可視オブジェクトを中心に、前記指定された方向に応じて前記仮想空間に配置されるオブジェクトの位置および向きを回転させる回転部(205)、
     として機能させることを特徴とするプログラム。
PCT/JP2009/066602 2008-10-07 2009-09-25 表示装置、表示方法、情報記録媒体、ならびに、プログラム WO2010041557A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008260979A JP4912377B2 (ja) 2008-10-07 2008-10-07 表示装置、表示方法、ならびに、プログラム
JP2008-260979 2008-10-07

Publications (1)

Publication Number Publication Date
WO2010041557A1 true WO2010041557A1 (ja) 2010-04-15

Family

ID=42100511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/066602 WO2010041557A1 (ja) 2008-10-07 2009-09-25 表示装置、表示方法、情報記録媒体、ならびに、プログラム

Country Status (3)

Country Link
JP (1) JP4912377B2 (ja)
TW (1) TW201030673A (ja)
WO (1) WO2010041557A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012006039A (ja) * 2010-06-24 2012-01-12 Toshiba Mach Co Ltd パルスレーザ加工方法およびパルスレーザ加工用データ作成方法
JP2012103746A (ja) * 2010-11-05 2012-05-31 Avix Inc 見る人の関心を惹きつける表示制御の方法、デジタルサイネージシステム、コンピュータープログラム
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238621A (ja) * 2013-06-06 2014-12-18 カルソニックカンセイ株式会社 入力受付装置
CN108905212B (zh) * 2017-03-27 2019-12-31 网易(杭州)网络有限公司 游戏画面的显示控制方法及装置、存储介质、电子设备
JP6684746B2 (ja) * 2017-05-12 2020-04-22 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
JP6393387B1 (ja) * 2017-10-17 2018-09-19 株式会社コロプラ 仮想体験を提供するためのプログラム、コンピュータ、および方法
JP7304701B2 (ja) * 2019-01-28 2023-07-07 株式会社コーエーテクモゲームス ゲームプログラム、記録媒体、ゲーム処理方法
JP7564371B2 (ja) 2021-07-26 2024-10-08 株式会社Nttドコモ 仮想空間提供装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111001A (ja) * 1992-09-25 1994-04-22 Toshiba Corp 三次元グラフィック画像システム
JPH07225859A (ja) * 1994-02-14 1995-08-22 Toshiba Corp オブジェクト表示装置
JP2007042077A (ja) * 2005-07-07 2007-02-15 Ricoh Co Ltd パーツ選択装置、パーツ選択方法、並びにプログラムおよび記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3491832B2 (ja) * 2001-01-30 2004-01-26 株式会社ナムコ ゲーム装置および情報記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111001A (ja) * 1992-09-25 1994-04-22 Toshiba Corp 三次元グラフィック画像システム
JPH07225859A (ja) * 1994-02-14 1995-08-22 Toshiba Corp オブジェクト表示装置
JP2007042077A (ja) * 2005-07-07 2007-02-15 Ricoh Co Ltd パーツ選択装置、パーツ選択方法、並びにプログラムおよび記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012006039A (ja) * 2010-06-24 2012-01-12 Toshiba Mach Co Ltd パルスレーザ加工方法およびパルスレーザ加工用データ作成方法
JP2012103746A (ja) * 2010-11-05 2012-05-31 Avix Inc 見る人の関心を惹きつける表示制御の方法、デジタルサイネージシステム、コンピュータープログラム
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム
JP2017138832A (ja) * 2016-02-04 2017-08-10 株式会社コロプラ 仮想空間の提供方法、およびプログラム

Also Published As

Publication number Publication date
JP4912377B2 (ja) 2012-04-11
TW201030673A (en) 2010-08-16
JP2010092233A (ja) 2010-04-22

Similar Documents

Publication Publication Date Title
WO2010041557A1 (ja) 表示装置、表示方法、情報記録媒体、ならびに、プログラム
EP3997552B1 (en) Virtual user interface using a peripheral device in artificial reality environments
WO2019153824A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
KR102362268B1 (ko) 시야 밖 증강 현실 영상의 표시
US9423876B2 (en) Omni-spatial gesture input
KR100790896B1 (ko) 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치
US20160196692A1 (en) Virtual lasers for interacting with augmented reality environments
US20100208033A1 (en) Personal Media Landscapes in Mixed Reality
US20120102438A1 (en) Display system and method of displaying based on device interactions
US11023035B1 (en) Virtual pinboard interaction using a peripheral device in artificial reality environments
TW201101144A (en) A user interface
US20130176202A1 (en) Menu selection using tangible interaction with mobile devices
CN109876439B (zh) 游戏画面显示方法与装置、存储介质、电子设备
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP5859298B2 (ja) 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
CN113546419B (zh) 游戏地图显示方法、装置、终端及存储介质
US11023036B1 (en) Virtual drawing surface interaction using a peripheral device in artificial reality environments
JP5106610B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US12032754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP5431142B2 (ja) ゲーム装置、ゲーム処理方法、ならびに、プログラム
EP3791253B1 (en) Electronic device and method for providing virtual input tool
EP2341412A1 (en) Portable electronic device and method of controlling a portable electronic device
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09819092

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09819092

Country of ref document: EP

Kind code of ref document: A1