WO2014050957A1 - 表示装置、制御方法および制御プログラム - Google Patents

表示装置、制御方法および制御プログラム Download PDF

Info

Publication number
WO2014050957A1
WO2014050957A1 PCT/JP2013/076046 JP2013076046W WO2014050957A1 WO 2014050957 A1 WO2014050957 A1 WO 2014050957A1 JP 2013076046 W JP2013076046 W JP 2013076046W WO 2014050957 A1 WO2014050957 A1 WO 2014050957A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
control unit
dimensional object
display
detected
Prior art date
Application number
PCT/JP2013/076046
Other languages
English (en)
French (fr)
Inventor
上野 泰弘
茂輝 田辺
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012215080A external-priority patent/JP2014072576A/ja
Priority claimed from JP2012215081A external-priority patent/JP6159069B2/ja
Priority claimed from JP2012214954A external-priority patent/JP6125785B2/ja
Priority claimed from JP2012215079A external-priority patent/JP2014072575A/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP13842569.9A priority Critical patent/EP2903265A4/en
Priority to CN201380050460.9A priority patent/CN104685869B/zh
Priority to US14/431,194 priority patent/US10341642B2/en
Publication of WO2014050957A1 publication Critical patent/WO2014050957A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Definitions

  • the present invention relates to a display device, a control method, and a control program.
  • Some display devices including a display unit can display an image or the like in three dimensions (for example, see Patent Document 1). Stereoscopic display is realized using parallax of both eyes.
  • An object of the present invention is to provide a display device, a control method, and a control program capable of providing a user-friendly operation method.
  • a display device displays a corresponding image for each of both eyes of a user by being worn, thereby displaying a predetermined object in three dimensions, and a predetermined object in a display space of the object And a control unit that performs an operation associated with the object according to the displacement of the predetermined object detected by the detection unit.
  • a display device displays an image corresponding to each of the user's eyes by being worn, thereby displaying a predetermined object in a three-dimensional manner and a display space in which the object is displayed.
  • a display device displays an image corresponding to each of the user's eyes by being worn, thereby displaying a predetermined object in a three-dimensional manner and a display space in which the object is displayed.
  • a detection unit that detects the first object and the second object, and when it is detected that at least one of the first object or the second object is in contact with the object in the display space.
  • a control unit for changing the object.
  • a display device displays an image corresponding to each of the user's eyes by being worn, thereby displaying a predetermined object in a three-dimensional manner and a display space in which the object is displayed.
  • a control unit configured to change the object when the first object and the second object are located between the objects;
  • a display device displays an image corresponding to each of both eyes of the user by wearing, a display unit that three-dimensionally displays a predetermined object, and the first object and the first object on the display surface
  • a detection unit that detects two objects, and a control unit that changes the object when it is detected that the object is positioned between the first object and the second object on the display surface.
  • a display device displays an image corresponding to each of both eyes of the user by wearing, a display unit that three-dimensionally displays a predetermined object, and the first object and the first object on the display surface
  • a detection unit that detects two objects, and changes the object when it is detected that at least one of the first object and the second object is in contact with the object on the display surface.
  • a control unit that controls the display device.
  • the display device displays an image corresponding to each of both eyes of the user by being mounted, thereby displaying a predetermined object three-dimensionally, and the object is displayed three-dimensionally
  • a detection unit configured to detect an object in the display space
  • a control unit configured to change the object in the display space according to the movement of the object when the movement of the object is detected in the display space.
  • the display device displays an image corresponding to each of both eyes of the user by being mounted, thereby displaying a predetermined object three-dimensionally, and the object is displayed three-dimensionally
  • a control unit configured to change the object in the display space according to the movement of the object when the movement of the object is detected in the display space.
  • a control method is a control method executed by a display device that three-dimensionally displays a predetermined object by displaying an image corresponding to each of both eyes of the user by being worn, Three-dimensionally displaying the object on the display device, detecting a displacement of the predetermined object in the display space of the object, and an operation associated with the object according to the detected displacement of the predetermined object Performing steps.
  • a control program displays an image corresponding to each of both eyes of the user by being mounted, so that the predetermined object is displayed on the display unit in a three-dimensional display.
  • a display device displays an image corresponding to each of the user's eyes by being worn, thereby displaying a three-dimensional display of an object corresponding to a product, and an actual operation of the object
  • a detection unit that detects an object, and a control that changes the position of the object according to an operation by the real object, and causes the object to remain in place when the real object stops operating the object A part.
  • a control method is a control method of a display device, which displays an image corresponding to each of both eyes of a user to display an object in three dimensions, and an actual object that operates the object Detecting the position of the object, changing the position of the object in response to an operation by the real object, and allowing the object to remain in place when the real object stops operating the object. Including.
  • a display device displays an image corresponding to each of both eyes of a user by being worn, thereby displaying a three-dimensional display of an object arranged in a virtual space, and the reality of the display device
  • a sensor that detects a change in direction in the space, and a control unit that changes the object in accordance with the change in direction detected by the sensor.
  • a control method is a method for controlling a display device, and displaying an image corresponding to each of both eyes of a user to display an object arranged in a virtual space in three dimensions, and the display Detecting a change in direction of the device in real space, and changing the object in response to the change in direction.
  • a display device displays an image corresponding to each of both eyes of a user by being worn, thereby displaying a three-dimensional display of an object arranged in the virtual space, and the reality of the display device
  • a sensor that detects a change in position in the space, and a control unit that changes the object in accordance with the change in position detected by the sensor.
  • a control method is a method for controlling a display device, and displaying an image corresponding to each of both eyes of a user to display an object arranged in a virtual space in three dimensions, and the display Detecting a change in position of the device in real space, and changing the object in response to the change in position.
  • the present invention has an effect that it is possible to provide a user with a highly convenient operation method.
  • FIG. 1 is a perspective view of a display device according to the first embodiment.
  • FIG. 2 is a front view of the display device worn by the user.
  • FIG. 3 is a diagram illustrating a modification of the display device.
  • FIG. 4 is a diagram illustrating another modification of the display device.
  • FIG. 5 is a diagram illustrating another modification of the display device.
  • FIG. 6 is a block diagram of the display device according to the first embodiment.
  • FIG. 7 is a diagram illustrating an example of control based on the function provided by the control program.
  • FIG. 8 is a diagram illustrating an example of information stored in object data.
  • FIG. 9 is a diagram illustrating an example of information stored in the action data.
  • FIG. 10 is a diagram illustrating an example of information stored in the action data.
  • FIG. 1 is a perspective view of a display device according to the first embodiment.
  • FIG. 2 is a front view of the display device worn by the user.
  • FIG. 3 is a diagram illustrating a
  • FIG. 11 is a diagram illustrating an example of information stored in the action data.
  • FIG. 12 is a diagram illustrating an example of information stored in the action data.
  • FIG. 13 is a diagram illustrating an example of information stored in the action data.
  • FIG. 14 is a diagram illustrating an example of information stored in the action data.
  • FIG. 15 is a diagram for describing a first example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • FIG. 16 is a diagram for describing a first example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • FIG. 17 is a flowchart illustrating a processing procedure of contact detection processing in the first example.
  • FIG. 18 is a flowchart showing the procedure of the operation detection process in the first example.
  • FIG. 19 is a diagram for describing a second example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • FIG. 20 is a flowchart showing the procedure of the operation detection process in the second example.
  • FIG. 21 is a diagram for describing a third example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • FIG. 22 is a diagram for describing a third example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • FIG. 23 is a flowchart illustrating the procedure of the operation detection process in the third example.
  • FIG. 24 is a diagram for describing a first example of detection of an operation performed by picking up a three-dimensional object.
  • FIG. 25 is a flowchart illustrating a processing procedure of selection detection processing in the first example.
  • FIG. 26 is a flowchart illustrating the procedure of the operation detection process in the first example.
  • FIG. 27 is a diagram for describing a modified example of the first example of detecting an operation performed by picking up a three-dimensional object.
  • FIG. 28 is a diagram for describing a second example of detecting an operation performed by picking up a three-dimensional object.
  • FIG. 29 is a flowchart illustrating a processing procedure of selection detection processing in the second example.
  • FIG. 24 is a diagram for describing a first example of detection of an operation performed by picking up a three-dimensional object.
  • FIG. 25 is a flowchart illustrating a processing procedure of selection detection processing in
  • FIG. 30 is a diagram for explaining a modified example of the second example of the operation detection performed by picking up the three-dimensional object.
  • FIG. 31 is a diagram for describing a third example of detection of an operation performed by picking up a three-dimensional object.
  • FIG. 32 is a diagram for describing a third example of detection of an operation performed by picking up a three-dimensional object.
  • FIG. 33 is a flowchart of the process procedure of the selection detection process in the third example.
  • FIG. 34 is a flowchart illustrating the procedure of the operation detection process in the third example.
  • FIG. 35 is a diagram for describing a modified example of the third example of detecting an operation performed by picking up a three-dimensional object.
  • FIG. 36 is a perspective view of a display device according to the second embodiment.
  • FIG. 36 is a perspective view of a display device according to the second embodiment.
  • FIG. 37 is a block diagram of a display device according to the second embodiment.
  • FIG. 38 is a diagram illustrating an example of display control in conjunction with a change in a three-dimensional object.
  • FIG. 39 is a diagram illustrating an example of a trajectory of an operation of bringing a finger into contact with a three-dimensional object for a moment.
  • FIG. 40 is a diagram illustrating an example of a trajectory of an operation for moving a finger along a three-dimensional object.
  • FIG. 41 is a diagram illustrating an example of an operation trajectory for crushing a three-dimensional object with a finger.
  • FIG. 42 is a flowchart illustrating a display control processing procedure executed in conjunction with a change in a three-dimensional object.
  • FIG. 43 is a block diagram of a display device according to the third embodiment.
  • FIG. 44 is a diagram illustrating an example in which a three-dimensional object is changed in conjunction with a change in position.
  • FIG. 45 is a diagram conceptually showing an operation screen arranged around the user.
  • FIG. 46 is a diagram illustrating an example of changing a three-dimensional object in conjunction with a change in direction.
  • FIG. 47 is a flowchart showing a control processing procedure for changing a three-dimensional object in conjunction with changes in position and direction.
  • FIG. 48 is a diagram illustrating an example in which an electronic catalog is displayed in a room in which products to be purchased are installed.
  • FIG. 49 is a diagram for explaining a scene in which a product is selected from the catalog.
  • FIG. 44 is a diagram illustrating an example in which a three-dimensional object is changed in conjunction with a change in position.
  • FIG. 45 is a diagram conceptually showing an operation screen arranged around the user.
  • FIG. 46 is
  • FIG. 50 is a diagram for explaining a scene in which the size and installation location of the television are examined.
  • FIG. 51 is a diagram for describing a scene in which a TV stand is selected.
  • FIG. 52 is a diagram for explaining a scene in which an actual object is moved.
  • FIG. 53 is a flowchart showing the processing procedure of the ordering process.
  • FIG. 54 is a block diagram of a display device according to the fifth embodiment.
  • FIG. 55 is a diagram for explaining the start of the pizza ordering process.
  • FIG. 56 is a diagram for explaining the process of determining the size and thickness of the dough.
  • FIG. 57 is a diagram for explaining the step of placing the topping.
  • FIG. 58 is a diagram for explaining a process of ordering pizza.
  • FIG. 59 is a diagram illustrating an example of a pizza to be delivered.
  • FIG. 60 is a flowchart showing the processing procedure of the ordering process.
  • FIG. 1 is a perspective view of the display device 1.
  • FIG. 2 is a front view of the display device 1 attached by the user.
  • the display device 1 is a head mount type device that is worn on the user's head.
  • the display device 1 has a front surface portion 1a, a side surface portion 1b, and a side surface portion 1c.
  • Front part 1a is arranged in front of the user so as to cover both eyes of the user when worn.
  • the side surface portion 1b is connected to one end portion of the front surface portion 1a, and the side surface portion 1c is connected to the other end portion of the front surface portion 1a.
  • the side surface portion 1b and the side surface portion 1c are supported by a user's ear like a vine of glasses when worn, and stabilize the display device 1.
  • the side part 1b and the side part 1c may be configured to be connected to the back of the user's head when worn.
  • the front part 1a includes a display part 32a and a display part 32b on the surface facing the user's eyes when worn.
  • the display unit 32a is disposed at a position facing the user's right eye when worn, and the display unit 32b is disposed at a position facing the user's left eye when worn.
  • the display unit 32a displays a right-eye image, and the display unit 32b displays a left-eye image.
  • the display device 1 realizes three-dimensional display using binocular parallax. Can do.
  • the display unit 32a and the display unit 32b may be configured by one display device as long as different images can be independently provided to the right and left eyes of the user.
  • one display device may be configured to independently provide different images for the right eye and the left eye by switching at high speed a shutter that blocks the displayed image so that only one eye can see it.
  • the front part 1a may be configured to cover the eyes of the user so that external light does not enter the eyes of the user when worn.
  • the front surface portion 1a includes a photographing unit 40 and a photographing unit 42 on a surface opposite to the surface on which the display unit 32a and the display unit 32b are provided.
  • the photographing unit 40 is disposed in the vicinity of one end portion (right eye side when worn) of the front surface portion 1a, and the photographing portion 42 is located in the vicinity of the other end portion (left eye side when worn) of the front surface portion 1a.
  • the imaging unit 40 acquires an image in a range corresponding to the field of view of the user's right eye.
  • the imaging unit 42 acquires an image in a range corresponding to the field of view of the user's left eye.
  • the field of view here is a field of view when the user is looking at the front, for example.
  • the display device 1 displays an image photographed by the photographing unit 40 on the display unit 32a as an image for the right eye, and displays an image photographed by the photographing unit 42 on the display unit 32b as an image for the left eye. For this reason, the display device 1 can provide the user with the same scene as when the display device 1 is not worn, even if the field of view is blocked by the front surface portion 1a.
  • the display device 1 displays virtual information three-dimensionally and allows the user to operate the virtual information.
  • the virtual information is displayed so as to be superimposed on the actual scene as if it actually exists. Then, the user can operate the virtual information as if he / she actually touched the virtual information by using his / her hand, for example, to change the virtual information.
  • the display device 1 provides an intuitive and highly convenient operation method for virtual information.
  • virtual information displayed three-dimensionally by the display device 1 may be referred to as a “three-dimensional object”.
  • the display device 1 provides the user with the same wide field of view as when the display device 1 is not mounted. And the display apparatus 1 can arrange
  • FIG. 3 is a diagram illustrating a modification of the display device.
  • 4 and 5 are diagrams showing another modification of the display device.
  • the display device 1 may have a helmet-type shape that covers substantially the upper half of the user's head, like the display device 2 shown in FIG. 3.
  • the display device 1 may have a mask type shape that covers almost the entire face of the user, like the display device 3 shown in FIG.
  • the display device 1 may be configured to be connected to an external device 4d such as an information processing device or a battery device by wire or wirelessly like the display device 4 shown in FIG.
  • FIG. 6 is a block diagram of the display device 1.
  • the display device 1 includes an operation unit 13, a control unit 22, a storage unit 24, display units 32a and 32b, photographing units 40 and 42, a detection unit 44, and a distance measurement unit 46. And have.
  • the operation unit 13 receives basic operations such as starting and stopping the display device 1 and changing the operation mode.
  • the display units 32 a and 32 b include a display device such as a liquid crystal display (Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) panel, and display various types of information according to control signals input from the control unit 22.
  • the display units 32a and 32b may be projection devices that project an image onto the user's retina using a light source such as a laser beam.
  • the imaging units 40 and 42 electronically capture an image using an image sensor such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the photographing units 40 and 42 convert the photographed images into signals and output the signals to the control unit 22.
  • the detection unit 44 detects an actual object existing in the shooting range of the shooting units 40 and 42. For example, the detection unit 44 detects an object that matches a pre-registered shape (for example, the shape of a human hand) among real objects existing in the imaging range. The detection unit 44 detects the range (shape and size) of the actual object in the image based on the brightness, saturation, hue edge, and the like of the object even if the shape is not registered in advance. It may be configured.
  • the distance measuring unit 46 measures the distance to an actual object existing in the imaging range of the imaging units 40 and 42.
  • the distance to the actual object is measured for each eye based on the position of each eye of the user wearing the display device 1. For this reason, when the reference position where the distance measuring unit 46 measures the distance is shifted from the position of each eye, the measured value of the distance measuring unit 46 indicates the distance to the eye position according to the difference. It is corrected to represent.
  • the imaging units 40 and 42 also serve as the detection unit 44 and the distance measurement unit 46. That is, in this embodiment, an object within the shooting range is detected by analyzing the images shot by the shooting units 40 and 42. Furthermore, the distance from the object is measured (calculated) by comparing the object included in the image captured by the capturing unit 40 with the object included in the image captured by the capturing unit 42.
  • the display device 1 may include a detection unit 44 separately from the imaging units 40 and 42.
  • the detection unit 44 may be, for example, a sensor that detects an actual object existing in the imaging range using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance.
  • the display device 1 may include a distance measuring unit 46 separately from the imaging units 40 and 42.
  • the distance measuring unit 46 is a sensor that detects the distance to an actual object existing in the imaging range using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance, for example. Also good.
  • the display device 1 may include a sensor that can also serve as the detection unit 44 and the distance measurement unit 46, such as a sensor using a TOF (Time-of-Flight) method.
  • TOF Time-of-Flight
  • the control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. The control unit 22 reads / writes data from / to the memory and the storage unit 24 and controls the operation of the display unit 32a and the like according to the execution result of the instruction by the CPU. When the CPU executes an instruction, the data developed in the memory and the operation detected via the detection unit 44 are used as a part of parameters and determination conditions.
  • a CPU Central Processing Unit
  • the storage unit 24 includes a non-volatile storage device such as a flash memory, and stores various programs and data.
  • the program stored in the storage unit 24 includes a control program 24a.
  • the data stored in the storage unit 24 includes object data 24b, action data 24c, and virtual space data 24d.
  • the storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium.
  • the control program 24a, object data 24b, action data 24c, and virtual space data 24d may be stored in a storage medium.
  • the control program 24a, the object data 24b, the action data 24c, and the virtual space data 24d may be acquired from another device such as a server device by wireless communication or wired communication.
  • the control program 24a provides functions related to various controls for operating the display device 1.
  • the functions provided by the control program 24a include a function for superimposing a three-dimensional object on the images acquired by the photographing units 40 and 42 and displaying the same on the display units 32a and 32b, a function for detecting an operation on the three-dimensional object, and a detected operation.
  • a function for changing the three-dimensional object in response to this is included.
  • the control program 24a includes a detection processing unit 25, a display object control unit 26, and an image composition unit 27.
  • the detection processing unit 25 provides a function for detecting an actual object existing in the imaging range of the imaging units 40 and 42.
  • the function provided by the detection processing unit 25 includes a function of measuring the distance to each detected object.
  • the display object control unit 26 provides a function for managing what three-dimensional objects are arranged in the virtual space and what state each three-dimensional object is in.
  • the functions provided by the display object control unit 26 include detecting an operation on a three-dimensional object based on the movement of an actual object detected by the function of the detection processing unit 25, and changing the three-dimensional object based on the detected operation. The function to make it included.
  • the image composition unit 27 provides a function for generating an image to be displayed on the display unit 32a and an image to be displayed on the display unit 32b by synthesizing the image in the real space and the image in the virtual space.
  • the function provided by the image compositing unit 27 includes the real object and 3 based on the distance to the real object measured by the function of the detection processing unit 25 and the distance from the viewpoint to the three-dimensional object in the virtual space.
  • a function to determine the context of the dimension object and adjust the overlap is included.
  • the object data 24b includes information on the shape and properties of the three-dimensional object.
  • the object data 24b is used for displaying a three-dimensional object.
  • the action data 24c includes information regarding how an operation on the displayed three-dimensional object acts on the three-dimensional object.
  • the action data 24c is used to determine how to change the three-dimensional object when an operation on the displayed three-dimensional object is detected.
  • the change here includes movement, rotation, deformation, disappearance, and the like.
  • the virtual space data 24d holds information regarding the state of the three-dimensional object arranged in the virtual space.
  • the state of the three-dimensional object includes, for example, a position, a posture, a deformation state, and the like.
  • FIG. 7 is a diagram illustrating an example of control based on the function provided by the control program.
  • the image P1a is an image obtained by the photographing unit 40, that is, an image corresponding to a sight of a real space viewed with the right eye.
  • the table P1 and the user's hand H1 are shown in the image P1a.
  • the display device 1 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight when the real space is viewed with the left eye.
  • the image P2a is an image for the right eye generated based on the virtual space data 24d and the object data 24b.
  • the virtual space data 24d holds information related to the state of the block-shaped three-dimensional object BL1 existing in the virtual space
  • the object data 24b holds information related to the shape and properties of the three-dimensional object BL1.
  • the display device 1 reproduces the virtual space based on these pieces of information, and generates an image P2a obtained by viewing the reproduced virtual space from the viewpoint of the right eye.
  • the position of the right eye (viewpoint) in the virtual space is determined based on a predetermined rule.
  • the display device 1 also generates an image obtained by viewing the reproduced virtual space from the viewpoint of the left eye. That is, the display device 1 also generates an image in which the three-dimensional object BL1 is displayed three-dimensionally by combining with the image P2a.
  • the display device 1 generates the image P3a by combining the image P1a and the image P2a in step S1 shown in FIG.
  • the image P3a is an image displayed on the display unit 32a as a right-eye image.
  • the display device 1 determines the front-rear relationship between the real object in the shooting range of the shooting unit 40 and the three-dimensional object BL1 existing in the virtual space, with the position of the user's right eye as a reference.
  • the real object and the three-dimensional object BL1 overlap, the overlap is adjusted so that the object closer to the user's right eye can be seen in front.
  • Such overlap adjustment is performed for each range of a predetermined size (for example, for each pixel) in an area on the image where the real object and the three-dimensional object BL1 overlap. For this reason, the distance from the viewpoint in the real space to the real object is measured for each range of a predetermined size on the image. Furthermore, the distance from the viewpoint in the virtual space to the three-dimensional object BL1 is calculated for each range of a predetermined size on the image in consideration of the position, shape, posture, and the like of the three-dimensional object BL1.
  • the three-dimensional object BL1 is arranged in a position corresponding to the position immediately above the position where the table T1 exists in the real space in the virtual space. Furthermore, in the scene of step S1 shown in FIG. 7, the user's hand H1 and the three-dimensional object BL1 exist in substantially the same direction and at substantially the same distance with respect to the position of the user's right eye. For this reason, by adjusting the overlap for each range of a predetermined size, in the combined image P3a, in the portion corresponding to the thumb of the hand H1 in the region where the hand H1 and the three-dimensional object BL1 overlap. The hand H1 appears on the front surface, and the three-dimensional object BL1 appears on the front surface in other portions. Furthermore, in the area where the table T1 and the three-dimensional object BL1 overlap, the three-dimensional object BL1 appears on the front surface.
  • step S1 shown in FIG. 7 an image P3a is obtained as if the three-dimensional object BL1 is placed on the table T1 and the user grasps the three-dimensional object BL1 with the hand H1. It has been.
  • the display device 1 generates an image displayed on the display unit 32b as an image for the left eye by synthesizing the image captured by the imaging unit 42 and the image obtained by viewing the virtual space from the viewpoint of the left eye by the same processing.
  • the overlap between the real object and the three-dimensional object BL1 is adjusted based on the position of the user's left eye.
  • the display device 1 displays the composite image thus generated on the display units 32a and 32b.
  • the user can see a scene as if the three-dimensional object BL1 is placed on the table T1 and the user grasps the three-dimensional object BL1 with his / her hand H1.
  • step S1 the user moves the hand H1 in the direction of arrow A1.
  • the image obtained by the imaging unit 40 changes to an image P1b in which the position of the hand H1 has moved to the right.
  • the display device 1 determines that the movement of the hand H1 is an operation of moving the hand H1 to the right while holding the three-dimensional object, and moves the position of the three-dimensional object in the virtual space to the right according to the operation.
  • the movement of the three-dimensional object in the virtual space is reflected in the virtual space data 24d.
  • the image for the right eye generated based on the virtual space data 24d and the object data 24b changes to an image P2b in which the position of the three-dimensional object BL1 has moved to the right. Details of operation detection by the display device 1 will be described later.
  • Display device 1 combines image P1b and image P2b to generate right-eye image P3b.
  • the image P3b is an image as if the user is holding the three-dimensional object BL1 with the hand H1 at a position on the right side of the table T1 as compared with the image P3a.
  • the display device 1 similarly generates a composite image for the left eye. Then, the display device 1 displays the composite image thus generated on the display units 32a and 32b. As a result, the user can see a scene as if he / she picked the three-dimensional object BL1 with his / her hand H1 and moved it to the right.
  • Such a composite image for display is updated at a frequency (for example, 30 times per second) equal to the frame rate of a general moving image.
  • a frequency for example, 30 times per second
  • the change of the three-dimensional object BL1 according to the operation of the user is reflected in the image displayed on the display device 1 in almost real time, and the user can feel 3 as if it is actually present.
  • the dimension object BL1 can be manipulated.
  • the user's hand H1 that operates the three-dimensional object BL1 is not positioned between the user's eyes and the display units 32a and 32b. Thus, the operation can be performed without worrying about the display of the three-dimensional object BL1 being blocked.
  • FIG. 8 is a diagram illustrating an example of information stored in the object data 24b.
  • 9 to 14 are diagrams illustrating examples of information stored in the action data 24c.
  • the object data 24b stores information including type, shape information, color, transparency, etc. for each three-dimensional object.
  • the type indicates the physical property of the three-dimensional object.
  • the type takes values such as “rigid body” and “elastic body”, for example.
  • the shape information is information indicating the shape of the three-dimensional object.
  • the shape information is, for example, a set of vertex coordinates of the surfaces constituting the three-dimensional object.
  • the color is the color of the surface of the three-dimensional object.
  • Transparency is the degree to which a three-dimensional object transmits light.
  • the object data 24b can hold information regarding a plurality of three-dimensional objects.
  • information regarding a change when a pressing operation is detected is stored in the action data 24 c for each type of the three-dimensional object.
  • the type of the three-dimensional object is “rigid”
  • the change when the pressing operation is detected according to the presence / absence of the fulcrum, the presence / absence of the obstacle in the pressed direction, and the pressing speed changes.
  • the obstacle here may be another three-dimensional object or an actual object. Further, whether the pressing speed is fast or slow is determined based on a threshold value.
  • the 3D object is displayed to move according to the amount pressed in the pressed direction.
  • the three-dimensional object displayed in this way is, for example, a building block, a pen, or a book.
  • how to move whether to slide or rotate may be determined based on the shape of the three-dimensional object.
  • whether to move with the pushed object or move away from the object so as to be repelled by the pushed object may be determined based on the pushing speed, and calculation of the frictional resistance between the three-dimensional object and the bottom surface You may determine based on a value or a setting value.
  • the 3D object moves according to the amount pushed in the pushed direction and moves when it touches the obstacle. Appears to stop.
  • the three-dimensional object displayed in this way is, for example, a building block, a pen, or a book.
  • the three-dimensional object may destroy the obstacle and continue to move.
  • the 3D object may be moved in the opposite direction so as to bounce off.
  • the 3D object has no fulcrum and there are other rigid bodies that are not fixed in the pushed direction, and the pushed speed is slow, the 3D object moves according to the amount pushed in the pushed direction, After contacting another rigid body, the other rigid bodies are displayed to move together. If the 3D object has no fulcrum and there is another rigid body that is not fixed in the pressed direction, and the pressed speed is fast, the 3D object moves according to the amount pressed in the pressed direction. Is displayed. After the three-dimensional object comes into contact with another rigid body, the other rigid body is displayed so as to be repelled and moved. After coming into contact with another rigid body, the three-dimensional object may stop on the spot or continue to move at a reduced speed.
  • the combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles.
  • the 3D object will depend on the amount pressed in the pressed direction. After moving and contacting another rigid body, it is displayed to continue moving as it passes through the other rigid body.
  • a rigid body does not slip through a rigid body, but by enabling such a slip-through, a novel experience can be provided to the user.
  • the combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles.
  • a threshold may be provided for the pushed speed, and when the pushed speed is equal to or less than the threshold, the three-dimensional object may not pass through another rigid body.
  • the 3D object is displayed to rotate around the fulcrum according to the direction and amount of pressing.
  • the rotation referred to here may be a rotation that rotates around 360 degrees, or a rotation that reciprocates within a predetermined rotation range.
  • the three-dimensional object displayed in this way is, for example, a pendulum, a boxing sandback, or a windmill.
  • the change when the pressing operation is detected differs depending on the material, whether or not the amount of change is limited, and the pressing speed.
  • the material here is an assumed material of the three-dimensional object and is defined in the object data 24b.
  • the 3D object is deformed according to the amount pressed in the pressed direction and released from the pressed state. When it is done, it is displayed so as to return to the original shape.
  • the material of the three-dimensional object is rubber, there is no limit on the amount of change and the pressing speed is fast, the three-dimensional object is deformed according to the amount pressed in the pressing direction, and then the flip It is displayed to move in the pressed direction while returning to the original shape.
  • the three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.
  • the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and the pressing operation will be detected thereafter. Then, it is displayed to move in the pushed direction while returning to the original shape.
  • the three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.
  • the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and will return to its original shape when released from the pressed state. To repeat (vibrate). When pressed in a direction other than the deformable direction, the three-dimensional object moves in the same manner as a rigid body.
  • the three-dimensional object displayed in this way is, for example, a leaf spring or a string spring.
  • the three-dimensional object when the type of the three-dimensional object is “plastic”, the three-dimensional object is displayed so that the pressed portion is dented and the overall shape changes.
  • the three-dimensional object displayed in this way is, for example, clay.
  • the change when the pressing operation is detected differs depending on the pressing speed.
  • the pushing speed is slow, the object to be pushed is displayed so as to be in contact with the three-dimensional object, ie, the liquid.
  • the pressing speed is medium, the object to be pressed is displayed on the liquid so that the ripple spreads on the liquid.
  • the pushed speed is high, the object to be pushed is touched by the liquid, and it is displayed that the liquid splashes.
  • the three-dimensional object displayed in this way is, for example, water in a cup.
  • the change when the pressing operation is detected differs depending on the pressing speed.
  • a three-dimensional object i.e., a gas is interrupted by the pushed object and is displayed to drift around it.
  • the pressing speed is medium, it is displayed that the gas is scattered by the pressing object.
  • the pushing speed is high, the vortex is generated in the gas behind the pushing object in the moving direction.
  • the three-dimensional object displayed in this way is, for example, smoke.
  • the change when the pressing operation is detected differs depending on the coupling state of the elements of the aggregate.
  • the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape of the aggregate changes.
  • the three-dimensional object displayed in this way is, for example, sand or sugar.
  • the 3D object When there is a combination of elements of the aggregate, the 3D object is displayed so that the pressed portion is recessed and the overall shape of the aggregate changes. Further, an element other than the pressed part is displayed so as to be moved by being pulled by the element at the pressed part.
  • the three-dimensional object displayed in this way is, for example, a chain.
  • the three-dimensional object is displayed so as to move even if it does not contact the objects to be pressed.
  • an attractive force acts between the pressed object and the pressed object
  • the three-dimensional object is attracted to the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object.
  • a repulsive force acts between the pressed object and the pressed object
  • the three-dimensional object moves away from the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object.
  • the combination of the displayed three-dimensional object and the pressed object is, for example, a combination of iron powder and a magnet.
  • the three-dimensional object can be variously changed according to the pressing operation. it can.
  • the information stored in the object data 24b and the action data 24c is not limited to the above example, and may be changed as appropriate according to the application.
  • the method of changing the three-dimensional object may be set according to the type and size of the pressed object and the size of the contact area between the pressed object and the three-dimensional object.
  • a space viewed by a user wearing the display device 1 may be referred to as a display space.
  • the display device 1 can display an actual object and a three-dimensional object three-dimensionally (three-dimensionally) in the display space by providing images corresponding to the eyes of the user's right eye and left eye. .
  • the display device 1 associates the virtual space reproduced based on the virtual space data 24d with the actual space photographed by the photographing units 40 and 42 based on a predetermined rule, and displays a space in which these spaces overlap. Display as space.
  • step S11 are diagrams for explaining detection of an operation of pushing a three-dimensional object and change of the three-dimensional object according to the detected operation.
  • the display device 1 displays the three-dimensional object OB1 in a three-dimensional manner in the display space 50.
  • the three-dimensional object OB1 is an object that imitates a ball, for example.
  • a bottom surface B1 that supports the three-dimensional object OB1 is displayed.
  • step S12 the user places the finger F1 in a position where it comes into contact with the three-dimensional object OB1, and keeps it still.
  • the display device 1 determines that the three-dimensional object OB1 is selected as the operation target when a real object is detected in the display space and the state where the object is in contact with the three-dimensional object OB1 continues for a predetermined time or longer. . Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1.
  • Whether the object is in contact with the three-dimensional object OB1 is determined based on the position of the object in the real space, the shape and orientation of the three-dimensional object OB1, the position in the virtual space, and the like.
  • the comparison between the position in the real space and the position in the virtual space may be performed by converting the position in one space into the position in the other space based on the above-mentioned predetermined rule. You may perform by converting a position into the position of the space for a comparison.
  • the position of the finger toe may be processed as the position of the object. Since a person often uses a finger toe when operating something, by processing the position of the finger toe as the position of an object, a more natural operation feeling can be provided to the user.
  • the notification of selection as the operation target may be, for example, changing the overall color of the three-dimensional object OB1, or changing the color near the position in contact with the object on the surface of the three-dimensional object OB1. Realized by changing.
  • the display device 1 may perform notification by sound or vibration instead of such visual notification or in addition to such visual notification.
  • the display device 1 determines that the three-dimensional object OB1 is selected as the operation target when a state where a real object such as a finger is in contact with the three-dimensional object OB1 is continuously detected for a predetermined time or longer. .
  • a state where a real object such as a finger is in contact with the three-dimensional object OB1 is continuously detected for a predetermined time or longer.
  • the display device 1 changes the three-dimensional object according to the operation when an operation for intruding the object into the three-dimensional object selected as the operation target is detected. How to change the three-dimensional object is determined by the type of the three-dimensional object defined in the object data 24b and the change rule defined in association with the type in the action data 24c.
  • the three-dimensional object OB1 is defined as an elastic body
  • the action data 24c it is defined that the elastic body is deformed in the pressed direction according to the amount of pressing when pressed. Shall be.
  • the display device 1 changes the three-dimensional object OB1 so that the portion into which the finger F1 has entered is pressed and recessed.
  • the object data 24b defines the three-dimensional object OB1 as a rigid body
  • the action data 24c defines that the rigid body moves in the pressed direction according to the amount of pressing when pressed.
  • the display device 1 moves the three-dimensional object OB1 in the traveling direction of the finger F1 as if pressed by the finger F1.
  • the three-dimensional object OB1 is supported by the bottom surface B1, it moves according to the horizontal component of the bottom surface B1 of the force applied by the rigid body.
  • the three-dimensional object is changed variously according to the operation by changing the three-dimensional object OB1 based on the object data 24b and the action data 24c.
  • the operation of pressing is an operation that is used in various scenes in the real world. By detecting the operation of pressing the three-dimensional object OB1 and executing the corresponding process, the operation is intuitive and highly convenient. Can be realized.
  • the object used for operating the three-dimensional object is not limited to a finger, and may be a hand, a foot, a stick, an instrument, or the like.
  • the mode of changing the three-dimensional object in accordance with the pressing operation may be in accordance with actual physical laws or may not be in reality.
  • the display device 1 may limit a space for detecting an operation on the three-dimensional object to the operable range 51.
  • the operable range 51 is, for example, a range that can be reached by a user wearing the display device 1. In this way, by limiting the space for detecting the operation on the three-dimensional object, it is possible to reduce the load of the arithmetic processing executed by the display device 1 to detect the operation.
  • FIG. 17 is a flowchart illustrating a processing procedure of contact detection processing of a three-dimensional object.
  • the processing procedure illustrated in FIG. 17 is realized by the control unit 22 executing the control program 24a.
  • control unit 22 synthesizes and displays an image of the virtual space including the three-dimensional object and an image of the real space as step SA01.
  • step SA02 the control unit 22 determines whether a predetermined object has been detected by the detection unit 44, that is, the imaging units 40 and 42.
  • the predetermined object is, for example, a user's finger.
  • step SA02, No the control unit 22 determines whether the operation end is detected as step SA08.
  • the operation end is detected, for example, when a predetermined operation is performed on the operation unit 13.
  • the control unit 22 ends the contact detection process.
  • the control unit 22 re-executes Step SA02 and the subsequent steps.
  • Step SA02 the control unit 22 determines the type of the predetermined object as Step SA03.
  • the type of the predetermined object is determined based on, for example, the size, shape, color, and the like of the object in the images photographed by the photographing units 40 and 42.
  • step SA04 the control unit 22 searches for a three-dimensional object that is in contact with a predetermined object. If there is no three-dimensional object in contact with the predetermined object (step SA05, No), the control unit 22 proceeds to step SA08.
  • step SA05 When a three-dimensional object in contact with the predetermined object is found (step SA05, Yes), the control unit 22 determines, as step SA06, the three-dimensional object in contact with the predetermined object based on the object data 24b. Determine the type. And the control part 22 performs the operation detection process mentioned later as step SA07. Thereafter, the control unit 22 proceeds to Step SA08.
  • FIG. 18 is a flowchart showing the procedure of the operation detection process.
  • the processing procedure shown in FIG. 18 is realized by the control unit 22 executing the control program 24a.
  • the control unit 22 first acquires the contact time between a predetermined object and a three-dimensional object as step SB01. Then, the control unit 22 determines whether the predetermined object has moved into the three-dimensional object as Step SB02. When the predetermined object has not moved inside the three-dimensional object (step SB02, No), the control unit 22 re-executes step SB01 and the subsequent steps.
  • step SB02, Yes the control unit 22 determines whether the contact time is equal to or longer than the predetermined time as step SB03.
  • the contact time is shorter than the predetermined time (step SB03, No)
  • it is determined that the three-dimensional object is not an operation target, and thus the control unit 22 ends the operation detection process.
  • step SB03 the control unit 22 calculates the speed of the predetermined object as step SB04.
  • step SB05 the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.
  • step SB06 the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object.
  • the control unit 22 re-executes Step SB04 and the subsequent steps.
  • control unit 22 determines whether the change of the three-dimensional object continues as step SB07. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.
  • step SB07, Yes When the change of the three-dimensional object continues (step SB07, Yes), the control unit 22 changes the three-dimensional object as step SB08, and then re-executes step SB07 and the subsequent steps.
  • step SB07, No When the change of the three-dimensional object is not continued (step SB07, No), the control unit 22 ends the operation detection process.
  • the three-dimensional object is variously changed in accordance with the pressing operation, thereby providing a highly convenient operation method for the user.
  • a second example of a processing procedure related to an operation of pressing a three-dimensional object will be described.
  • the contact detection process in the second example is the same as the contact detection process in the first example. Therefore, in the second example, the description overlapping the first example is omitted, and the operation detection process will be mainly described.
  • FIG. 19 is a diagram for describing detection of an operation of pressing a three-dimensional object and changes in the three-dimensional object according to the detected operation.
  • step S21 shown in FIG. 19 the user contacts the finger F1 with the three-dimensional object OB1, and in step S22, the user causes the finger F1 to enter the inside of the three-dimensional object OB1.
  • the display device 1 When a real object is detected in the display space and the state in which the object moves to the inside of the three-dimensional object OB1 after the object contacts the three-dimensional object OB1 continues for a predetermined time or longer, the display device 1 It is determined that OB1 has been selected as the operation target. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Further, as shown in step S23, the display device 1 responds to the operation with the finger F1 after the contact detection as if the three-dimensional object OB1 was already selected as an operation target to be pressed in the step S21. Change.
  • the user after detecting the contact between the object and the three-dimensional object, the user can quickly start the operation of pressing the three-dimensional object by making it possible to detect the pressing operation even if the object does not stay on the spot. can do.
  • the condition that the state in which the object moves to the inside of the three-dimensional object OB1 after contact continues for a predetermined time or longer, for example, in the process of moving a finger to operate another three-dimensional object The possibility that an unintended three-dimensional object is selected as an operation target can be reduced.
  • FIG. 20 is a flowchart illustrating the processing procedure of the operation detection process.
  • the processing procedure shown in FIG. 20 is realized by the control unit 22 executing the control program 24a.
  • the processing procedure of the contact detection processing is the same as the procedure shown in FIG.
  • control unit 22 first determines whether a predetermined object has moved into the three-dimensional object as step SC01. If the predetermined object has not moved to the inside of the three-dimensional object (No at Step SC01), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.
  • step SC01 When the predetermined object is moving inside the three-dimensional object (step SC01, Yes), the control unit 22 determines whether the elapsed time from the contact detection is equal to or longer than the predetermined time as step SC02. When the elapsed time is shorter than the predetermined time (No at Step SC02), the control unit 22 re-executes Step SC01 and the subsequent steps.
  • step SC02 When the contact time is equal to or longer than the predetermined time (step SC02, Yes), the control unit 22 calculates the speed of the predetermined object as step SC03.
  • step SC04 the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object and the type of the three-dimensional object. A specific method of change is determined according to the action data 24c.
  • step SC05 the control unit 22 determines whether the predetermined object has moved to the outside of the three-dimensional object.
  • the control unit 22 re-executes Step SC03 and the subsequent steps.
  • step SC05 the control unit 22 determines whether the change of the three-dimensional object continues as step SC06. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.
  • step SC06 When the change of the three-dimensional object continues (step SC06, Yes), the control unit 22 changes the three-dimensional object as step SC07, and then re-executes step SC06 and subsequent steps.
  • step SC06 When the change of the three-dimensional object does not continue (No at Step SC06), the control unit 22 ends the operation detection process.
  • the pressing operation is recognized even when the object such as the finger is in contact with the three-dimensional object does not continue for a predetermined time or longer, the user can recognize the three-dimensional object.
  • the operation of pushing the object can be started quickly.
  • a third example of a processing procedure related to an operation of pressing a three-dimensional object will be described.
  • the contact detection process in the third example is the same as the contact detection process in the first example. Therefore, in the third example, the description overlapping with the first example is omitted, and the operation detection process is mainly described.
  • FIGS. 21 and 22 are diagrams for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation.
  • step S31 shown in FIG. 21 the three-dimensional object OB1 is displayed three-dimensionally in the display space.
  • the user is bringing the finger F1 into contact with the three-dimensional object OB1.
  • step S32 the display device 1 responds to the operation with the finger F1 from that point in time. Change.
  • step S32 the three-dimensional object OB1 starts moving in accordance with the movement of the finger F1.
  • step S33 the display device 1 determines the three-dimensional object OB1 as an operation target when the finger F1 continues to move inward of the three-dimensional object OB1 for a predetermined time or more. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been determined as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Thereafter, while the movement of the finger F1 to the inside of the three-dimensional object OB1 is detected, the display device 1 continues to change the three-dimensional object OB1.
  • step S34 of FIG. 22 when the movement of the finger F1 to the inside of the three-dimensional object OB1 is not detected before the predetermined time has elapsed, the display device 1 is opposite to the change made so far. A change is applied to the three-dimensional object OB1. As a result, the three-dimensional object OB1 is displayed in the same state at the same position as in the step S31.
  • the speed at which the reverse change is applied to the three-dimensional object OB1 may be faster than the speed at which the change has been applied to the three-dimensional object OB1 so far. That is, the three-dimensional object OB1 may be reversely changed as if it is reversely played back at high speed.
  • the user can confirm that the 3D object is being selected before the selection is confirmed. Can be recognized from.
  • the user can know at an early stage whether or not the intended three-dimensional object has been selected.
  • the user can return the original three-dimensional object to an original state by canceling the operation before a predetermined time elapses.
  • the mode is different from the state in which the selected three-dimensional object is changed as the operation target at both the normal time (for example, half (Transparent) may be displayed.
  • the normal time for example, half (Transparent)
  • the user can easily determine the state of the three-dimensional object.
  • FIG. 23 is a flowchart illustrating the processing procedure of the operation detection process.
  • the processing procedure shown in FIG. 23 is realized by the control unit 22 executing the control program 24a.
  • the processing procedure of the contact detection processing is the same as the procedure shown in FIG.
  • control unit 22 first determines whether a predetermined object has moved into the three-dimensional object as step SD01. If the predetermined object has not moved to the inside of the three-dimensional object (step SD01, No), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.
  • step SD01 When the predetermined object is moving inside the three-dimensional object (step SD01, Yes), the control unit 22 calculates the speed of the predetermined object as step SD02.
  • step SD03 the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.
  • step SD04 the control unit 22 determines whether the elapsed time from the contact detection is a predetermined time or more.
  • the control unit 22 determines the three-dimensional object of the predetermined object as Step SD05. It is determined whether the movement in the internal direction continues.
  • step SD05 If the movement of the three-dimensional object in the internal direction continues (step SD05, Yes), the control unit 22 re-executes step SD02 and subsequent steps. When the movement of the three-dimensional object in the internal direction is not continued (No at Step SD05), the control unit 22 reversely changes the three-dimensional object and returns it to the original state as Step SD06. Then, the control unit 22 ends the operation detection process.
  • step SD04 determines whether the predetermined object has moved outside the three-dimensional object as step SD07.
  • the control unit 22 re-executes Step SD02 and the subsequent steps.
  • control unit 22 determines whether the change of the three-dimensional object continues as step SD08. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.
  • step SD08 Yes
  • the control unit 22 changes the three-dimensional object as step SD09, and then re-executes step SD08 and subsequent steps.
  • step SD08 No at step SD08
  • the control unit 22 ends the operation detection process.
  • the three-dimensional object is changed in accordance with the operation from the time when the pressing operation is detected, the three-dimensional object that is the target of the pressing operation by the user. Easy to recognize objects.
  • the operation detected by the display device 1 concerning the 3D object is not limited to the pushing operation.
  • the display device 1 can also detect an operation performed by a user picking a three-dimensional object.
  • an operation performed by picking a three-dimensional object will be described.
  • FIG. 24 is a diagram for describing detection of an operation performed by picking up a three-dimensional object.
  • the three-dimensional object OB1 is displayed three-dimensionally in the display space 50.
  • the user wants to perform some operation by picking up the three-dimensional object OB1.
  • the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2, as shown in step S42, and changes its state. Maintain for a predetermined time or longer.
  • the display device 1 selects the three-dimensional object OB1 when two real objects are detected in the display space and the state where the three-dimensional object OB1 is located between the two objects continues for a predetermined time or longer. It is determined that the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.
  • Whether the three-dimensional object OB1 is located between the two objects is determined based on the positions of the two objects in the real space, the shape and orientation of the three-dimensional object OB1, the position in the virtual space, and the like.
  • the comparison between the position in the real space and the position in the virtual space may be performed by converting the position in one space into the position in the other space based on the above-mentioned predetermined rule. You may perform by converting a position into the position of the space for a comparison.
  • the position of the finger toe may be processed as the position of the object.
  • the display device 1 determines that the three-dimensional object OB1 is selected when the state in which the three-dimensional object OB1 is positioned between actual objects such as fingers is continuously detected for a predetermined time or longer.
  • the operation of placing a finger so that the three-dimensional object OB1 is sandwiched between the fingers is similar to the operation of a person picking something to select something in the real space. Therefore, such an operation is intuitive and easy to understand as an operation for selecting a three-dimensional object.
  • by adding a condition that the state is continuously detected for a predetermined time or longer for example, an unintended three-dimensional object is selected in the process of moving a finger to select another three-dimensional object. The possibility can be reduced.
  • the display device 1 After determining that the three-dimensional object OB1 is in the selected state, the display device 1 adds movement, deformation, disappearance, and the like to the three-dimensional object OB1 according to the movement of the finger F1 and the finger F2.
  • FIG. FIG. 25 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process.
  • the processing procedure shown in FIG. 25 is realized by the control unit 22 executing the control program 24a.
  • control unit 22 first synthesizes and displays a virtual space image including a three-dimensional object and a real space image in step SE01.
  • step SE02 the control unit 22 determines whether the first object and the second object are detected by the detection unit 44, that is, the imaging units 40 and 42.
  • the first object and the second object are real objects, for example, user's fingers.
  • the control unit 22 determines whether the operation end is detected as step SE10.
  • the operation end is detected, for example, when a predetermined operation is performed on the operation unit 13.
  • the control unit 22 ends the selection detection process.
  • the control unit 22 re-executes Step SE02 and the subsequent steps.
  • step SE02 determines, as step SE03, the first object and the second object from the displayed three-dimensional objects. Search for the three-dimensional object displayed between. When there is no corresponding three-dimensional object (step SE04, No), the control unit 22 proceeds to step SE10.
  • step SE04 determines that the first object, the second object, and the second object are step SE05.
  • the time during which the three-dimensional object is located is acquired.
  • the control unit 22 proceeds to step SE10.
  • step SE06 When the acquired time is equal to or longer than the predetermined time (step SE06, Yes), the control unit 22 calculates the distance between the first object and the second object as step SE07. Moreover, the control part 22 makes the three-dimensional object currently displayed between the 1st object and the 2nd object a selection state as step SE08. And control part 22 performs operation detection processing mentioned below as Step SE09, and changes the three-dimensional object in a selection state according to detected operation in it. After the operation detection process ends, the control unit 22 proceeds to step SE10.
  • FIG. 26 is a flowchart showing the procedure of the operation detection process.
  • the processing procedure shown in FIG. 26 is realized by the control unit 22 executing the control program 24a.
  • control unit 22 first calculates the distance between the first object and the second object as step SF01. And control part 22 judges whether the distance of the 1st object after the start time of operation detection processing and the 2nd object is almost constant as Step SF02.
  • the distance is substantially constant, for example, when the amount of change in the distance between the first object and the second object at the current time is compared with the distance at the start of the operation detection process in a predetermined range (first object and This means that the second object is within ⁇ 10% of the maximum change in distance when moving at a normal speed.
  • the distance between the first object and the second object may be determined that the distance is substantially constant. Further, when the distance between the two changes only within a range such as camera shake, the distance may be determined to be substantially constant.
  • step SF02 When the distance between the first object and the second object is substantially constant (step SF02, Yes), the control unit 22 calculates the moving speeds of the first object and the second object as step SF03. Subsequently, in step SF04, the control unit 22 determines whether the calculated moving speed is equal to or less than a threshold value.
  • the threshold value used here is, for example, the moving speed of the fingertip when a person throws a thing. Further, the moving speed compared with the threshold value may be an average of the moving speed of the first object and the moving speed of the second object, whichever is faster, or whichever is slower It may be.
  • the control unit 22 changes the three-dimensional object according to the detected movements of the first object and the second object as step SF05. For example, when the rightward movement of the first object and the second object is detected, the control unit 22 moves the three-dimensional object to the right according to the movement of the first object and the second object. Let When the counterclockwise rotation of the first object and the second object is detected, the control unit 22 rotates the three-dimensional object counterclockwise in accordance with the rotation of the first object and the second object. When movement and rotation are detected simultaneously, movement and rotation are performed simultaneously.
  • the movement and rotation of the three-dimensional object may be stopped when the three-dimensional object contacts the obstacle.
  • the obstacle may be a real object or another three-dimensional object.
  • the control unit 22 deletes the three-dimensional object as Step SF06.
  • an animation may be displayed so that the three-dimensional object flies in the moving direction of the first object and the second object. Then, the control unit 22 ends the operation detection process.
  • the 3D object is erased by an intuitive operation by erasing the 3D object. be able to. Instead of the operation of moving the first object and the second object at a high speed, for example, erasure of the three-dimensional object may be assigned to an operation of crushing the three-dimensional object.
  • the three-dimensional object may be returned to the original placement location.
  • the display device 1 may not perform the processes of steps SF03, SF04, and SF06. That is, the display device 1 may execute step SF05 when the distance between the first object and the second object is determined to be substantially constant in step SF02, regardless of the moving speed of the two objects.
  • step SF02, No When the distance between the first object and the second object is not substantially constant (step SF02, No), the control unit 22 determines whether the distance is a three-dimensional object, that is, the start point of the operation detection process, as step SF07. It is judged whether it is expanding. When the distance is increased (step SF07, Yes), the control unit 22 cancels the selected state of the three-dimensional object as step SF08.
  • the operation of increasing the distance between the first object and the second object is similar to the operation of releasing the actual object being picked. Therefore, this operation is intuitive and easy to understand as an operation for canceling the selection of the three-dimensional object.
  • step SF09 the control unit 22 moves the selected three-dimensional object according to gravity or the like. Then, the control unit 22 ends the operation detection process.
  • the movement here is displayed, for example, so that the three-dimensional object falls according to gravity and stops on the floor or table. Before stopping the movement of the three-dimensional object, the three-dimensional object may be bounced according to the elasticity of the three-dimensional object and the hardness of the floor or table. The magnitude of impact when the three-dimensional object collides with the floor or table may be calculated, and if the impact is greater than a predetermined value, the three-dimensional object may be displayed as damaged. Further, the three-dimensional object may be moved more slowly than when actual gravity works.
  • the control unit 22 deforms the three-dimensional object according to the distance as step SF10. . Then, the control unit 22 re-executes Step SF01 and subsequent steps.
  • the degree of deformation of the three-dimensional object may be changed according to the elasticity set as an attribute of the three-dimensional object.
  • the control unit 22 increases the degree of deformation of an object having a low hardness as an attribute, such as a three-dimensional object simulating a rubber ball, as the distance between the first object and the second object decreases. It's okay.
  • control unit 22 reduces the degree of deformation of an object having a high hardness as an attribute, such as a three-dimensional object imitating a building block, even if the distance between the first object and the second object is reduced. You can keep it.
  • the display device 1 may reduce the three-dimensional object instead of deforming it.
  • the display device 1 may display the three-dimensional object as if it was damaged.
  • the three-dimensional object is selected when the state where the three-dimensional object is positioned between the objects such as the fingers continues for a predetermined time or longer. Selection can be realized by an intuitive and easy-to-understand operation.
  • the display device 1 selects a three-dimensional object that a state in which at least one of the first object and the second object is in contact with the three-dimensional object continues for a predetermined time or longer. It is good also as conditions. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.
  • a second example of a processing procedure related to an operation performed by picking a three-dimensional object will be described.
  • the operation detection process in the second example is the same as the operation detection process in the first example. Therefore, in the second example, description overlapping with the first example is omitted, and mainly the selection detection process will be described.
  • FIG. 28 is a diagram for explaining the detection of an operation performed by picking up a three-dimensional object.
  • the three-dimensional object OB1 is three-dimensionally displayed in the display space.
  • the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2.
  • the display device 1 monitors a change in the distance between two objects when two real objects are detected in the display space and the three-dimensional object OB1 is located between the two objects. If the distance is substantially constant for a predetermined time or more, it is determined that the three-dimensional object OB1 has been selected, and the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.
  • the two objects do not need to stay at a position sandwiching the three-dimensional object OB1. That is, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2 as shown in step S51, and then maintains the state of the finger F1.
  • the finger F2 may be moved to another position.
  • step S52 From the state of step S51, as shown in step S52, it is assumed that the user has moved the distance D1 between the finger F1 and the finger F2 substantially constant.
  • step S53 the display device 1 puts the three-dimensional object OB1 into a selected state when the distance D1 between the finger F1 and the finger F2 is kept almost constant for a predetermined time or longer. Then, the display device 1 moves the three-dimensional object OB1 between the finger F1 and the finger F2 as if they were already selected in the step S51.
  • the display device 1 may store the movements of the finger F1 and the finger F2 from step S51 to step S53, and rotate the three-dimensional object OB1 according to the stored movement. Thereafter, the display device 1 adds changes such as movement, deformation, and disappearance to the three-dimensional object OB1 in accordance with the movement of the finger F1 and the finger F2.
  • the user can select the 3D object by making the 3D object selectable even if the object does not stay on the spot. After that, the operation can be started quickly.
  • FIG. 29 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process.
  • the processing procedure shown in FIG. 29 is realized by the control unit 22 executing the control program 24a.
  • the control unit 22 first synthesizes and displays a virtual space image including a three-dimensional object and a real space image as step SG01. Subsequently, in step SG02, the control unit 22 determines whether the first object and the second object are detected by the detection unit 44, that is, the imaging units 40 and 42. When the first object and the second object are not detected (step SG02, No), the control unit 22 cancels the temporarily selected state of the three-dimensional object if there is a temporarily selected three-dimensional object as step SG14. To do.
  • the provisional selection state is a state in which a state in which a three-dimensional object is displayed between two objects is detected and whether the distance between the two objects is maintained substantially constant is monitored.
  • control part 22 determines whether operation completion was detected as step SG15.
  • the control unit 22 ends the selection detection process.
  • the control unit 22 re-executes Step SG02 and the subsequent steps.
  • step SG02 determines whether there is a temporarily selected three-dimensional object as step SG03.
  • step SG03 determines whether there is a temporarily selected three-dimensional object.
  • step SG05 determines whether there is a temporarily selected three-dimensional object.
  • step SG05 determines whether there is a temporarily selected three-dimensional object.
  • step SG05 When a three-dimensional object displayed between the first object and the second object is found (step SG05, Yes), the control unit 22 determines whether the first object, the second object, and the second object are step SG06. The three-dimensional object displayed during is temporarily set to the selected state. Moreover, the control part 22 calculates the distance of a 1st object and a 2nd object as step SG07. And the control part 22 progresses to step SG15.
  • step SG03 When the first object and the second object are detected and there is a provisionally selected three-dimensional object (step SG03, Yes), the control unit 22 sets the first object and the second object as step SG08. The distance is calculated. And the control part 22 determines whether distance is substantially constant as step SG09. When the distance is not substantially constant (No in Step SG09), the control unit 22 cancels the temporary selection state of the three-dimensional object in the temporary selection state as Step SG14. And the control part 22 progresses to step SG15.
  • step SG09 When the distance between the first object and the second object is substantially constant (step SG09, Yes), the control unit 22 determines whether the period during which the distance is kept substantially constant is a predetermined time or more as step SG10. judge. When the period during which the distance is kept substantially constant is less than the predetermined time (step SG10, No), the control unit 22 proceeds to step SG15.
  • step SG10 When the period during which the distance is maintained substantially constant is equal to or longer than the predetermined time (step SG10, Yes), the control unit 22 is displayed between the first object and the second object as step SG11. Put the dimension object in the selected state. Moreover, the control part 22 moves a three-dimensional object between a 1st object and a 2nd object as step SG12. And control part 22 performs operation detection processing shown in Drawing 26 as Step SG13, and changes the three-dimensional object in a selection state according to detected operation in it. After the operation detection process is completed, the control unit 22 proceeds to step SG15.
  • the three-dimensional object is selected when the distance of the object is kept substantially constant for a predetermined time or more. Therefore, the user can quickly start the operation after selecting the three-dimensional object.
  • FIG. 30 is a diagram for explaining a modified example of the second example of detecting an operation performed by picking up a three-dimensional object.
  • the display device 1 determines the distance between the first object and the second object after at least one of the first object and the second object contacts the three-dimensional object. May be kept substantially constant for a predetermined time or more as a condition for selecting a three-dimensional object. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.
  • a third example of a processing procedure related to an operation performed by picking up a three-dimensional object will be described.
  • the description overlapping with the first example is omitted, and mainly the selection detection process and the operation detection process will be described.
  • FIG. FIG. 31 and FIG. 32 are diagrams for explaining a third modified example of detection of an operation performed by picking up a three-dimensional object.
  • step S71 shown in FIG. 31 the three-dimensional object OB1 is displayed three-dimensionally in the display space.
  • the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2.
  • the display device 1 monitors a change in the distance between two objects when two real objects are detected in the display space and the three-dimensional object OB1 is located between the two objects. If the distance is substantially constant for a predetermined time or more, it is determined that the three-dimensional object OB1 has been selected, and the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.
  • the two objects do not need to stay at a position sandwiching the three-dimensional object OB1. That is, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2 as shown in step S71, and then maintains the state of the finger F1.
  • the finger F2 may be moved to another position.
  • step S72 From the state of step S71, as shown in step S72, it is assumed that the user has moved the distance D1 between the finger F1 and the finger F2 substantially constant.
  • the display device 1 responds to the movement of the finger F1 and the finger F2 from the stage where it is detected that the three-dimensional object OB1 is displayed between the fingers F1 and F2, that is, from the stage of step S71. Changes such as movement, deformation, and disappearance are added to the three-dimensional object OB1.
  • step S73 the display device 1 places the three-dimensional object OB1 in a selected state when the distance D1 between the finger F1 and the finger F2 is kept substantially constant for a predetermined time or longer.
  • step S74 of FIG. 32 when the distance D1 between the finger F1 and the finger F2 is expanded before the predetermined time has passed, that is, when the selection is not performed, the display device 1 has been added so far. A change opposite to the change is added to the three-dimensional object OB1. As a result, the three-dimensional object OB1 is displayed in the same state at the same position as in the step S71.
  • the speed at which the reverse change is applied to the three-dimensional object OB1 may be faster than the speed at which the change has been applied to the three-dimensional object OB1 so far. That is, the three-dimensional object OB1 may be reversely changed as if it is reversely played back at high speed.
  • the user can confirm that the 3D object is being selected. It can be recognized before the selection is confirmed. As a result, the user can know at an early stage whether or not the intended three-dimensional object has been selected.
  • the display device 1 has a mode in which the changed three-dimensional object is different from the normal state and the selected state (for example, translucent) until the distance between the two objects is kept substantially constant for a predetermined time or longer. ) May make it easier for the user to determine the state of the three-dimensional object.
  • FIG. 33 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process.
  • the processing procedure shown in FIG. 33 is realized by the control unit 22 executing the control program 24a.
  • the control unit 22 first synthesizes and displays a virtual space image including a three-dimensional object and a real space image in step SH01. Subsequently, in step SH02, the control unit 22 determines whether the first object and the second object are detected by the detection unit 44, that is, the imaging units 40 and 42. When the first object and the second object are not detected (step SH02, No), the control unit 22 cancels the temporarily selected state of the three-dimensional object if there is a temporarily selected three-dimensional object as step SH10. To do.
  • control part 22 determines whether operation completion was detected as step SH11.
  • step SH11 Yes
  • the control unit 22 ends the selection detection process.
  • the control unit 22 re-executes Step SH02 and the subsequent steps.
  • step SH02 determines whether or not there is a temporarily selected three-dimensional object as step SH03.
  • step SH03 determines whether or not there is a temporarily selected three-dimensional object.
  • step SH04 determines whether or not there is a temporarily selected three-dimensional object.
  • step SH05 determines whether or not there is a temporarily selected three-dimensional object.
  • step SH05 When a three-dimensional object displayed between the first object and the second object is found (step SH05, Yes), the control unit 22 determines that the first object, the second object, and the second object are step SH06. The three-dimensional object displayed during is temporarily set to the selected state. Moreover, the control part 22 calculates the distance of a 1st object and a 2nd object as step SH07. Then, the control unit 22 proceeds to step SH11.
  • step SH03 When the first object and the second object are detected and there is a temporarily selected three-dimensional object (step SH03, Yes), the control unit 22 sets the first object and the second object as step SH08. It is determined whether at least one of them is moving. When neither the first object nor the second object has moved (step SH08, No), the control unit 22 proceeds to step SH11.
  • step SH08 When at least one of the first object and the second object is moving (step SH08, Yes), the control unit 22 executes the operation detection process shown in FIG. 34 as step SH09, and selects among them. The three-dimensional object in the state is changed according to the detected operation. After the operation detection process is completed, the control unit 22 proceeds to step SH11.
  • FIG. 34 is a flowchart showing the procedure of the operation detection process.
  • the processing procedure shown in FIG. 34 is realized by the control unit 22 executing the control program 24a.
  • the controller 22 first calculates the distance between the first object and the second object as step SI01.
  • control part 22 judges whether the distance of the 1st object after the start time of operation detection processing and the 2nd object is almost constant as Step SI02.
  • step SI02, Yes the control unit 22 determines whether a predetermined time has elapsed since the operation detection process was started as step SI03. If the predetermined time has elapsed (step SI03, Yes), the control unit 22 sets the three-dimensional object in the selected state if there is a temporarily selected three-dimensional object as step SI04. If the predetermined time has not elapsed (step SI03, No), step SI04 is not executed.
  • control unit 22 calculates the moving speeds of the first object and the second object as step SI05. And the control part 22 determines whether the calculated moving speed is below a threshold value as step SI06. When the moving speed is equal to or lower than the threshold (step SI06, Yes), the control unit 22 moves or rotates the three-dimensional object according to the detected movements of the first object and the second object as step SI07. To do. Then, the control unit 22 re-executes step SI01 and subsequent steps.
  • the control unit 22 deletes the three-dimensional object as Step SI08.
  • an animation may be displayed so that the three-dimensional object flies in the moving direction of the first object and the second object. Then, the control unit 22 ends the operation detection process. Instead of the operation of moving the first object and the second object at a high speed, for example, erasure of the three-dimensional object may be assigned to an operation of crushing the three-dimensional object. Instead of deleting the three-dimensional object, the three-dimensional object may be returned to the original placement location.
  • the display device 1 does not have to perform the processes of steps SI05, SI06, and step SI08. That is, the display device 1 may execute step SI07 regardless of the moving speed of the two objects after determining NO in step SI03 or after executing step SI04.
  • step SI02 determines whether the distance is a three-dimensional object, that is, the start point of the operation detection process, as step SI09. It is judged whether it is expanding.
  • step SI09, Yes the control unit 22 determines whether the three-dimensional object displayed between the first object and the second object is in a temporarily selected state as step SI10. judge.
  • step SI10 When the three-dimensional object is in the temporary selection state (step SI10, Yes), the control unit 22 cancels the temporary selection state of the three-dimensional object as step SI11. Moreover, the control part 22 reversely changes a three-dimensional object and returns it to the original state as step SI12. Then, the control unit 22 ends the operation detection process.
  • the control unit 22 cancels the selection state of the three-dimensional object as Step SI13. Moreover, the control part 22 moves the three-dimensional object which canceled the selection state according to gravity etc. as step SI14. Then, the control unit 22 ends the operation detection process.
  • the movement is displayed, for example, so that the three-dimensional object falls according to gravity and stops on the floor or table. Before stopping the movement of the three-dimensional object, the three-dimensional object may be bounced according to the elasticity of the three-dimensional object and the hardness of the floor or table.
  • the magnitude of impact when the three-dimensional object collides with the floor or table may be calculated, and if the impact is greater than a predetermined value, the three-dimensional object may be displayed as damaged. Further, the three-dimensional object may be moved more slowly than when actual gravity works.
  • step SI09, No When the distance between the first object and the second object is shorter than when the three-dimensional object is selected (step SI09, No), the control unit 22 deforms the three-dimensional object according to the distance as step SI15. . Then, the control unit 22 re-executes step SI01 and subsequent steps. For example, the degree of deformation of the three-dimensional object may be changed according to the hardness set as an attribute of the three-dimensional object.
  • the three-dimensional object is changed according to the operation. It is easy for the user to recognize the selection of the three-dimensional object.
  • FIG. 35 is a diagram for explaining a modified example of the third example of detecting an operation performed by picking up a three-dimensional object.
  • Step S81 to Step S83 shown in FIG. 35 after at least one of the first object and the second object comes into contact with the three-dimensional object, the distance between the first object and the second object is approximately equal to or longer than a predetermined time. It may be maintained as a condition for selecting a three-dimensional object. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.
  • the display device 1 described in the above embodiment can be applied to various uses.
  • the three-dimensional object (display object) to be operated may be an object that imitates an actual object such as a book, a building block, a spoon, a chopstick, a playing card, clay, or a musical instrument, or a virtual object. It may be an object that does not exist, such as an avatar, a game character, or a virtual reality AR tag.
  • the change applied to the three-dimensional object according to the detected operation is not limited to the above movement, deformation, disappearance, and the like.
  • the change applied to the three-dimensional object according to the detected operation includes rotation, replacement, and the like.
  • the replacement means replacing one three-dimensional object with another three-dimensional object.
  • the change applied to the three-dimensional object according to the pressing operation is not limited to the above-described embodiment, and may be changed according to the type of the three-dimensional object.
  • the clay when a three-dimensional object imitating clay (hereinafter simply referred to as “clay”) is an operation target, the clay is deformed according to the pressing operation so that the user can shape the clay into an arbitrary shape. Also good. Further, as time passes, the clay may be hardened as if the clay is drying, or the viscosity of the clay may be reduced. Further, when an operation of pushing clay with a finger or hand immersed in a three-dimensional object of water is detected, the viscosity of the clay may be improved.
  • a three-dimensional object imitating clay hereinafter simply referred to as “clay”
  • the clay is deformed according to the pressing operation so that the user can shape the clay into an arbitrary shape. Also good. Further, as time passes, the clay may be hardened as if the clay is drying, or the viscosity of the clay may be reduced. Further, when an operation of pushing clay with a finger or hand immersed in a three-dimensional object of water is detected, the viscosity of the clay may
  • record board when a three-dimensional object that imitates a record board (hereinafter simply referred to as “record board”) is an operation target, the record board rotates around a fulcrum and plays a sound according to the pressing operation. Also good. A technique such as scratching by a disc jockey may be virtually realized by linking rotation and sound reproduction.
  • the display device may perform an operation associated with the three-dimensional object according to the displacement of the predetermined object detected by the detection unit in response to an operation on the three-dimensional object.
  • An example of a display device that performs an operation associated with a three-dimensional object according to the displacement of a predetermined object detected by the detection unit will be described.
  • FIG. FIG. 36 is a perspective view of the display device 5.
  • FIG. 37 is a block diagram of the display device 5.
  • the same parts as those already described may be denoted by the same reference numerals as those already described. In the following description, descriptions overlapping with those already performed may be omitted.
  • the display device 5 is the same as the display device 1 except that the display device 5 is further provided with a projector 34 and the storage unit 24 stores a control program 24e instead of the control program 24a. It has the composition of.
  • the projector 34 projects an image from the projection unit 34 a in accordance with a signal transmitted from the control unit 22.
  • the projected image is displayed on a screen, a wall or the like, and can be viewed by a person other than the user wearing the display device 5.
  • the method by which the projector 34 projects an image is not particularly limited.
  • the projector 34 may draw an image by reflecting laser light emitted from a light source with a MEMS (Micro Electro Mechanical System) mirror.
  • the projector 34 may be configured by combining a light source such as a halogen light, LED, or LD and an optical system such as an LCD or DMD (Digital Micro-mirror Device).
  • the display device 5 may include an external display instead of the projector 34.
  • the control program 24e has the same configuration as the control program 24a except that it further includes an interlocking display control unit 28.
  • the interlocking display control unit 28 provides a function of causing the projector 34 to project information related to information displayed on the display units 32a and 32b.
  • the functions provided by the interlocking display control unit 28 include a function of changing information to be projected on the projector 34 in conjunction with a change of the three-dimensional object in accordance with an operation on the three-dimensional object in the display space.
  • FIG. 38 is a diagram illustrating an example of display control in conjunction with a change in a three-dimensional object.
  • FIG. 39 is a diagram illustrating an example of a trajectory of an operation in which the finger F1 is momentarily brought into contact with a three-dimensional object.
  • FIG. 40 is a diagram illustrating an example of a locus of an operation for moving the finger F1 along the three-dimensional object.
  • FIG. 41 is a diagram illustrating an example of an operation trajectory for crushing a three-dimensional object with the finger F1.
  • step S91 shown in FIG. 38 the control unit 22 displays a spherical globe as a three-dimensional object OB2 in the display space. Further, the control unit 22 projects, from the projector 34, a map obtained by enlarging Japan located at the center of the three-dimensional object OB2 when viewed from the user wearing the display device 5 as a projection image P4. As described above, the control unit 22 causes the projector 34 to project an image related to the three-dimensional object OB2 displayed in the display space. When the projection image P4 is projected within the imaging range of the imaging units 40 and 42, the user can check the state of the projection image P4 based on the images captured by the imaging units 40 and 42.
  • a map of Japan is projected as an image related to Japan located at the center of the three-dimensional object OB2, but instead of the map, other images related to Japan such as the Japanese flag and national flowers are projected. It may be projected.
  • the image may be stored in advance in the storage unit 24, or may be acquired from another device by wired or wireless communication.
  • step S91 it is assumed that an operation of moving the finger F1 obliquely downward as shown in FIG. 39 to contact the 3D object OB2 for a moment and releasing it immediately is detected.
  • This operation is similar to the tap operation in which the finger F1 is brought into contact with the touch panel for a moment and then released immediately, but the tap operation can select only a point on the plane, but can select an arbitrary place of the three-dimensional object OB2. Excellent in terms.
  • the control unit 22 determines that the position touched by the finger F1 has been selected, and executes a process corresponding to the selected position.
  • the process corresponding to the selected position is, for example, a process of projecting detailed information corresponding to the selected position from the projector 34.
  • a process corresponding to the selected position a process of rotating the three-dimensional object OB2 so that the selected position is the center is executed.
  • step S92 shown in FIG. 38 as a result of detecting the operation shown in FIG. 39, the control unit 22 rotates the three-dimensional object OB2 so that the vicinity of the touched Florida peninsula is the center. In conjunction with the rotation of the three-dimensional object OB2, the control unit 22 projects a map of the Florida peninsula moved to the center of the three-dimensional object OB2 from the projector 34 as a projection image P4.
  • the direction in which the finger F1 is moved to make contact with the three-dimensional object OB2 for a moment is not limited to the diagonally downward direction, and may be any direction.
  • step S91 an operation of moving the finger F1 as shown in FIG. 40 along the three-dimensional object OB2 is detected in the state of step S91.
  • the control unit 22 rotates the three-dimensional object OB2 according to the moving direction and moving amount of the finger F1. As described above, it is intuitive and easy for the user to rotate the three-dimensional object OB2 as a process corresponding to the movement of the finger F1 along the three-dimensional object OB2.
  • step S93 shown in FIG. 38 as a result of detecting the operation shown in FIG. 40, the control unit 22 rotates the three-dimensional object OB2 leftward by an angle corresponding to the movement amount of the finger F1. In conjunction with the rotation of the three-dimensional object OB2, the control unit 22 projects a map of the Florida peninsula moved to the center of the three-dimensional object OB2 from the projector 34 as a projection image P4.
  • step S91 it is assumed that an operation for crushing the three-dimensional object OB2 from above using the finger F1 as shown in FIG. 41 is detected.
  • the control unit 22 reduces the three-dimensional object OB2 according to the amount by which the user pushes the finger F1 into the three-dimensional object OB2.
  • reducing the 3D object OB2 as a process corresponding to the operation of crushing the 3D object OB2 is intuitive and easy for the user to remember.
  • step S94 shown in FIG. 38 as a result of detecting the operation shown in FIG. 41, the control unit 22 reduces the three-dimensional object OB2. Further, in conjunction with the reduction of the three-dimensional object OB2, the control unit 22 reduces the map projected from the projector 34 as the projection image P4.
  • FIG. 42 is a flowchart illustrating a display control processing procedure executed in conjunction with a change in a three-dimensional object.
  • the processing procedure shown in FIG. 42 is realized by the control unit 22 executing the control program 24e.
  • control unit 22 first combines the virtual space image including the three-dimensional object and the real space image and displays them on the display unit 32a and the display unit 32b in step SJ01. Further, the control unit 22 causes the projector 34 to project an image corresponding to the three-dimensional object in step SJ02.
  • the control unit 22 determines whether a finger is detected by the detection unit 44 as step SJ03. When the finger is not detected by the detection unit 44 (No at Step SJ03), the control unit 22 determines whether an end operation by the user is detected as Step SJ08. If the end operation has not been detected (No at Step SJ08), the control unit 22 re-executes Step SJ03 and the subsequent steps. On the other hand, when the end operation has been detected (step SJ08, Yes), the control unit 22 ends the processing procedure.
  • step SJ03 When a finger is detected in step SJ03 (step SJ03, Yes), the control unit 22 determines the movement of the finger in the three-dimensional space based on the detection result of the detection unit 44 as step SJ04. Then, when an operation in which a finger touches the three-dimensional object for a moment is detected (step SJ05, Yes), the control unit 22 executes a process corresponding to the touched position as step SJ06. Then, the control unit 22 updates the image projected in association with the three-dimensional object as step SJ07, and proceeds to step SJ08.
  • step SJ05 When a displacement corresponding to the movement of the finger along the three-dimensional object is detected (step SJ05, No, step SJ09, Yes), the control unit 22 responds to the movement direction and movement amount of the finger as step SJ10. To rotate the 3D object. Then, the control unit 22 updates the image projected in association with the three-dimensional object as step SJ07, and proceeds to step SJ08.
  • step SJ09, No, step SJ11, Yes the control unit 22 responds to the amount of pushing the finger into the three-dimensional object as step SJ12. To reduce the 3D object. Then, the control unit 22 updates the image projected in association with the three-dimensional object as step SJ07, and proceeds to step SJ08.
  • step SJ11, No the control unit 22 maintains the projected image as it is, and proceeds to step SJ08.
  • operations detected based on finger and hand movements in the three-dimensional space include It is not limited.
  • the user may be able to produce an image or a building by operating a block or viscosity displayed three-dimensionally with a finger.
  • the user may enjoy the race by operating the handle displayed three-dimensionally by hand.
  • the user may be able to enjoy the performance by operating the piano or keyboard displayed in three dimensions with his / her fingers.
  • an image of the cut surface may be projected from the projector 34.
  • FIG. 43 is a block diagram of the display device 6.
  • the display device 6 is a display device except that it further includes a communication unit 16 and a motion sensor 48 and stores a control program 24 f in the storage unit 24 instead of the control program 24 a. 1 has the same configuration.
  • the storage unit 24 further stores catalog data 24g.
  • the display device 6 may have any of the configurations of the display devices 2 to 4 described above.
  • the communication unit 16 communicates with other devices.
  • the communication unit 16 may support a communication method for performing wireless communication in a relatively narrow range, such as a wireless LAN or Bluetooth (registered trademark), or a comparison such as a 3G communication method or a 4G communication method for a communication carrier.
  • a communication method for performing wireless communication in a wide range may be supported.
  • the communication unit 16 may support a wired communication method such as Ethernet (registered trademark).
  • the communication unit 16 may support a plurality of communication methods.
  • the motion sensor 48 detects a change in position and a change in direction (attitude) of the display device 6. A change in position and a change in direction are detected three-dimensionally. That is, the motion sensor 48 detects a change in position and a change in direction not only in the horizontal direction but also in the vertical direction.
  • the motion sensor 48 includes, for example, a triaxial acceleration sensor in order to detect a change in position and a change in direction of the display device 6.
  • the motion sensor 48 may include a GPS (Global Positioning System) receiver or an atmospheric pressure sensor in order to detect a change in the position of the display device 6.
  • the motion sensor 48 may use a distance measurement result obtained by the distance measuring unit 46 in order to detect a change in the position of the display device 6.
  • the motion sensor 48 may detect a change in the position of the display device 6 by combining a plurality of methods.
  • the motion sensor 48 may include a gyro sensor or an orientation sensor in order to detect a change in the direction of the display device 6.
  • the motion sensor 48 may detect a change in the direction of the display device 6 by combining a plurality of methods.
  • the storage unit 24 includes a non-volatile storage device such as a flash memory, and stores various programs and data.
  • the program stored in the storage unit 24 includes a control program 24f.
  • the data stored in the storage unit 24 includes object data 24b, action data 24c, virtual space data 24d, and catalog data 24g.
  • the storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium.
  • the control program 24f, object data 24b, action data 24c, virtual space data 24d, and catalog data 24g may be stored in a storage medium.
  • the control program 24f, the object data 24b, the action data 24c, the virtual space data 24d, and the catalog data 24g may be acquired from other devices such as a server device through communication by the communication unit 16.
  • the control program 24f provides functions related to various controls for operating the display device 6.
  • the functions provided by the control program 24f include a function for superimposing a three-dimensional object on images acquired by the photographing units 40 and 42 and displaying the three-dimensional object on the display units 32a and 32b, a function for detecting an operation on the three-dimensional object, and a detected operation.
  • a function for changing the three-dimensional object in response to this is included.
  • the control program 24f includes a detection processing unit 25, a display object control unit 26, a viewpoint control unit 30, an image composition unit 27, and an order processing unit 29.
  • the detection processing unit 25 provides a function for detecting an actual object existing in the imaging range of the imaging units 40 and 42.
  • the function provided by the detection processing unit 25 includes a function of measuring the distance to each detected object.
  • the viewpoint control unit 30 provides a function for managing the position and direction of the viewpoint of the user in the virtual space.
  • the functions provided by the viewpoint control unit 30 include a function of changing the position and direction of the user's viewpoint in the virtual space in accordance with the change in the position and the direction of the display device 6 detected by the motion sensor 48. .
  • the viewpoint control unit 30 moves the viewpoint of the user in the virtual space forward.
  • the viewpoint control unit 30 rotates the viewpoint of the user in the virtual space to the right.
  • the order processing unit 29 provides a function for ordering products using a three-dimensional object. Details of the function of the order processing unit 29 will be described later.
  • the object data 24b includes information on the shape and properties of the three-dimensional object.
  • the object data 24b is used for displaying a three-dimensional object.
  • the action data 24c includes information regarding how an operation on the displayed three-dimensional object acts on the three-dimensional object.
  • the action data 24c is used to determine how to change the three-dimensional object when an operation on the displayed three-dimensional object is detected.
  • the change here includes movement, rotation, deformation, disappearance, replacement, and the like.
  • the virtual space data 24d holds information regarding the state of the three-dimensional object arranged in the virtual space.
  • the state of the three-dimensional object includes, for example, a position, a posture, a deformation state, and the like.
  • the catalog data 24g includes information for selling products such as product specifications and prices.
  • FIG. 44 is a diagram illustrating an example in which a three-dimensional object is changed in conjunction with a change in position.
  • the image P1c is an image obtained by the photographing unit 40, that is, an image corresponding to a sight of the real space viewed with the right eye.
  • the image P1c shows a jogging course ahead of the user.
  • the display device 6 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight of the real space viewed with the left eye.
  • the image P2c is an image for the right eye generated based on the virtual space data 24d and the object data 24b.
  • the virtual space data 24d holds information on the state of the sign three-dimensional object arranged at a position corresponding to the side of the jogging course
  • the object data 24b relates to the shape and property of the sign three-dimensional object. Keep information.
  • Each three-dimensional object is described with a number indicating the distance from the start point, and is arranged at a position corresponding to a position away from the start point along the jogging course by the distance indicated by the described numerical value.
  • the display device 6 also generates an image in which the virtual space is viewed from the viewpoint of the left eye.
  • step S3 shown in FIG. 44 the display device 6 combines the image P1c and the image P2c to generate an image P3c.
  • the image P3c is an image displayed on the display unit 32a as a right-eye image.
  • the sign three-dimensional object is added to the scene of the jogging course as if it actually exists.
  • the display device 6 detects a change in position when the user proceeds forward in the jogging course, and moves the position of the viewpoint in the virtual space forward according to the detected change in position. For example, when the position of the display device 1 moves forward by 1 m, the display device 6 moves the user's viewpoint in the virtual space forward by a distance corresponding to 1 m. By repeating such changes, the three-dimensional object in front of the user gradually approaches the user as the user progresses, as with the tree beside the course, and disappears from view when the user passes by.
  • step S4 shown in FIG. 44 the display device 6 combines the image P1d and the image P2d to generate an image P3d.
  • the three-dimensional object of the “600 m” sign that was visible in the distance in step S3 is displayed in front of the user.
  • the user can change the three-dimensional object displayed on the display device 6 without changing the position of the display device 6 by hand. That is, the display device 6 accepts a change in the position of the display device 6 by the user as an operation for changing the three-dimensional object.
  • Such an operation for changing a three-dimensional object by a change in position is an operation in accordance with a phenomenon that a user experiences in an actual space, and thus is intuitive and easy for the user to understand. Further, since the operation by changing the position can be performed in combination with the operation using the hand, various changes of the three-dimensional object can be realized, and the convenience is high.
  • the display device 6 can display information useful for the user in association with the position on the jogging course. Furthermore, since the information displayed on the display device 6 can be made different for each user, unlike a real sign, information convenient for each user can be written on the sign.
  • 3D objects that change in conjunction with changes in position are not limited to signs.
  • a three-dimensional virtual shopping street may be constructed, and a store that the user can see may be switched in conjunction with the user walking in a room or the like.
  • the display device 6 may change the three-dimensional object in conjunction with the number of steps on the spot.
  • the display device 6 may make the degree of change of the three-dimensional object larger or smaller than the detected position change. For example, a change of 10 times the magnitude of the change in position in the real space may be given to the three-dimensional object in the virtual space. For example, in the example shown in FIG. 44, the interval at which the three-dimensional object of the sign is arranged may be larger or smaller than the interval indicated by the sign. By adjusting the interval between the signs in this way, the distance traveled according to the physical condition can be adjusted.
  • the display device 6 may associate a movement of 100 m in the virtual space with a movement of 10 m in the real space, or may associate a movement of 1 m in the virtual space.
  • the degree of change of the three-dimensional object may be made smaller than the detected change of position.
  • the display device 6 may change the three-dimensional object in conjunction with the change in the vertical position. For example, when the user jumps, the scene to be displayed may be changed to a scene in which a three-dimensional object such as a building at the current location of the user is viewed from a height associated with the height of the jump. . In this case, when the user jumps as much as possible, a view of looking down on a three-dimensional object such as a building at the current location of the user from above may be displayed.
  • the display device 6 may integrate the amount of change in position, that is, the amount of movement, and change the three-dimensional object according to the integrated value.
  • the integrated value of the movement amount may be converted into a destination when walking from Tokyo to Kyoto, and a characteristic building or landscape at the destination may be displayed as a three-dimensional object so as to be superimposed on the scene in the real space.
  • a characteristic building or landscape at the destination may be displayed as a three-dimensional object so as to be superimposed on the scene in the real space.
  • a characteristic building or landscape at the destination may be displayed as a three-dimensional object so as to be superimposed on the scene in the real space.
  • a characteristic building or landscape at the destination may be displayed as a three-dimensional object so as to be superimposed on the scene in the real space.
  • a characteristic building or landscape at the destination may be displayed as a three-dimensional object so as to be superimposed on the scene in the real space.
  • a three-dimensional object of a Chinatown gate may be displayed in a part of the
  • FIG. 45 is a diagram conceptually showing an operation screen arranged around the user.
  • FIG. 46 is a diagram illustrating an example of changing a three-dimensional object in conjunction with a change in direction. 45 and 46, the virtual space data 24d holds information regarding the state of the three-dimensional object on the operation screens OS1 to OS3, and the object data 24b includes the shape and the shape of the three-dimensional object on the operation screens OS1 to OS3. Holds information about properties.
  • the operation screen OS1 is arranged at a position corresponding to the front of the user in the virtual space.
  • the operation screen OS2 is arranged at a position corresponding to the right side of the user in the virtual space.
  • the operation screen OS3 is arranged at a position corresponding to the left side surface of the user in the virtual space.
  • a plurality of icons are arranged on the operation screens OS1 to OS3.
  • the display device 6 When the user wearing the display device 6 is facing the front, the display device 6 displays the operation screen OS1 as in the image P3e. In this state, when the user performs an operation such as pressing the icon on the operation screen OS1 with the finger of the hand H1, the display device 6 executes a process associated with the icon.
  • the display device 6 changes the direction of the viewpoint in the virtual space to the right according to the change in the detected direction. For example, when the head of the user wearing the display device 6 rotates 90 degrees to the right, the display device 6 changes the direction of the viewpoint of the user in the virtual space to the right by 90 degrees. As a result, the display device 6 displays the operation screen OS2 arranged on the right side of the user in the virtual space as in the image P3f. In this state, when the user performs an operation of pressing the icon on the operation screen OS2 with the finger of the hand H1, the display device 6 executes a process associated with the icon.
  • the display device 6 changes the direction of the viewpoint in the virtual space to the left according to the change in the detected direction. For example, when the head of the user wearing the display device 6 rotates 90 degrees to the left, the display device 6 changes the direction of the user's viewpoint in the virtual space to the left by 90 degrees. As a result, the display device 6 displays the operation screen OS3 arranged on the left side of the user in the virtual space, as in the image P3g. In this state, when the user performs an operation such as pressing an icon on the operation screen OS3 with the finger of the hand H1, the display device 6 executes a process associated with the icon.
  • the user can change the three-dimensional object displayed on the display device 6 without changing the direction of the display device 6 without performing an operation by hand. That is, the display device 6 accepts a change in the direction of the display device 6 by the user as an operation for changing the three-dimensional object.
  • Such an operation of changing the three-dimensional object by changing the direction is an operation in accordance with a phenomenon that the user experiences in an actual space, and thus is intuitive and easy for the user to understand.
  • the operation by changing the direction can be performed in combination with an operation using a hand or the like, various changes of the three-dimensional object can be realized, which is highly convenient.
  • the display device 6 may display the operation screen on the four surrounding surfaces including the back side of the user. Good.
  • a continuous surface such as an inner surface of a cylinder surrounding the user may be used as the operation screen.
  • the operation screen may be provided on the surface above the user's head, that is, the surface that can be seen when the viewpoint is directed upward.
  • the display device 6 exists in the direction in which the user faces among the surfaces provided with the operation screen, and the user's line of sight
  • the viewpoint or the direction of the three-dimensional object in the virtual space may be adjusted so that the surface closest to 90 degrees is perpendicular to the user's line of sight.
  • the visibility of the operation screen can be improved by adjusting the viewpoint or the direction of the three-dimensional object.
  • the 3D object to be changed in conjunction with the change in direction is not limited to the operation screen.
  • a three-dimensional object of a product is displayed on a shelf around the user, and the user sees and picks it up in conjunction with the user wearing the display device 6 changing the direction of the head. You may comprise so that the goods which can be changed.
  • a three-dimensional map including a three-dimensional object of a building is arranged around the user, and the displayed map is linked with the change of the head direction by the user wearing the display device 6. You may change to a map in the direction that is facing.
  • the display device 6 coordinates the weather, events, main facilities, etc. in the area where the user's line of sight is directed as a three-dimensional object in conjunction with the user wearing the display device 6 changing the direction of the head. It may be displayed.
  • the display device 6 may associate the direction in which the user swings his head with any process. For example, when the user swings his head in the right direction, the display device 6 sends the page of the displayed three-dimensional object, and when the user swings his head in the left direction, Returns the page of the 3D object. In this case, the process is not linked to a change in direction for returning the shaken neck.
  • FIG. 47 is a flowchart showing a control processing procedure for changing a three-dimensional object in conjunction with changes in position and direction.
  • the processing procedure shown in FIG. 47 is realized by the control unit 22 executing the control program 24f.
  • the control unit 22 First, in step S101, the control unit 22 generates a virtual space based on the virtual space data 24d and the object data 24b. And control part 22 initializes the position and direction of a viewpoint in virtual space as Step S102.
  • the initial setting of the position and direction of the viewpoint in the virtual space is performed based on, for example, a predetermined rule for associating the real space with the virtual space.
  • control unit 22 acquires the detection result of the motion sensor 48 as step S103.
  • control unit 22 changes the position of the viewpoint in the virtual space according to the change in the position of the display device 6, and in step S105, changes the direction of the viewpoint in the virtual space to the change in the direction of the display device 6. Change accordingly.
  • control part 22 determines whether the display of a three-dimensional object is complete
  • 48 to 52 are diagrams for describing an example in which the display device 6 is applied to sales of home appliances and furniture using an electronic catalog.
  • FIG. 48 is a diagram showing an example in which an electronic catalog is displayed in a room in which products to be purchased are installed.
  • the image P1h corresponds to an image obtained by the photographing unit 40 when the user extends the hand H2 forward in order to have an electronic catalog in the room, that is, a sight when the real space is viewed with the right eye. It is an image to be.
  • the image P1h shows a sofa 61 placed near the wall of the room, a table 62 placed at the corner of the opposite wall, and the user's hand H2.
  • the display device 6 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight of the real space viewed with the left eye.
  • the image P2h is an image for the right eye generated based on the virtual space data 24d and the object data 24b.
  • the virtual space data 24d includes information on the state of the three-dimensional object corresponding to the wall, floor, and ceiling of the room, and the state of the three-dimensional object in the catalog 63 arranged at the position of the user's hand H2.
  • the object data 24b holds information regarding the shape and properties of each three-dimensional object.
  • the display device 6 also generates an image in which the virtual space is viewed from the viewpoint of the left eye.
  • Display device 6 combines image P1h and image P2h to generate image P3h.
  • the three-dimensional object of the catalog 63 is displayed so as to be spread on the hand H2.
  • the three-dimensional objects corresponding to the walls, floors, and ceilings are arranged in the virtual space so that the surfaces thereof coincide with the surfaces of the actual walls, floors, and ceilings, respectively.
  • the three-dimensional objects corresponding to walls, floors, and ceilings are each configured such that the surface has an appearance similar to that of real walls, floors, and ceilings. For this reason, in the image P3h, regarding the wall, floor, and ceiling of the room, the user cannot tell whether the actual surface or the surface of the three-dimensional object is displayed above.
  • the display device 6 synthesizes an image captured by the imaging unit 42 and an image obtained by viewing the virtual space from the viewpoint of the left eye, and generates an image displayed on the display unit 32b as an image for the left eye.
  • the display device 6 displays the composite image thus generated on the display units 32a and 32b.
  • FIG. 49 is a diagram for explaining a scene in which a product is selected from the catalog.
  • Step S111 in FIG. 49 the user places the three-dimensional object of the catalog 63 on the hand H2 in a state where a page on which a desired product is posted is opened. On each page of the catalog 63, the three-dimensional object of the product is arranged in a reduced and flat state.
  • step S112 the user picks up a three-dimensional object of a desired product on the page with two fingers of the hand H1. By picking with two fingers, the three-dimensional object is selected and is moved according to the movement of the hand H1.
  • step S113 the user keeps the three-dimensional object and keeps the hand H1 away from the catalog 63.
  • the reduced three-dimensional object is removed from the page of the catalog 63.
  • the three-dimensional object that has been peeled off is enlarged to the same size as the actual product and becomes a three-dimensional object of the television 64.
  • the three-dimensional object of the product listed in the catalog is defined as having a weight of zero. For this reason, the user can handle the three-dimensional object of the television 64 without considering the influence of gravity.
  • FIG. 50 is a diagram for explaining a scene in which the size and installation location of the television are examined.
  • An actual television corresponding to the television 64 includes a plurality of models having the same design and different sizes.
  • the three-dimensional object of the television 64 has the same size as that of the smallest model when it is removed from the catalog 63 page.
  • step S121 of FIG. 50 the user is holding one end of the three-dimensional object of the television 64 with the finger of the hand H1, and the other end is holding with the finger of the hand H2.
  • step S122 the user increases the distance between the hand H1 and the hand H2 while holding the three-dimensional object of the television 64.
  • the size of the three-dimensional object of the television 64 is changed according to the change in the distance between the hand H1 and the hand H2.
  • the user widens the finger interval and releases the three-dimensional object of the television 64.
  • the display device 6 resizes the three-dimensional object of the television 64 to the size of the model closest to the current three-dimensional object among the corresponding television models.
  • the user can easily select the size of the product by a simple operation.
  • the user moves the three-dimensional object of the television 64 to a desired height at a desired position. Since the three-dimensional object of the product is defined as having a weight of 0, the moved three-dimensional object remains in place even when the user releases the hand as in step S123.
  • step S124 the user sits on the sofa 61 and confirms the position and height of the three-dimensional object of the television 64 floating on the opposite wall.
  • the three-dimensional object of the television 64 has the same size as the actual television, and can be floated at an arbitrary position so as to overlap with the user's room. For this reason, the user can consider how to install the television in an environment where it is actually used before purchasing the television.
  • FIG. 51 is a diagram for explaining a scene of selecting a TV stand.
  • step S131 of FIG. 51 the user sits on the sofa 61, holds the three-dimensional object of the catalog 63 in the hand H2, and opens the page of the TV stand.
  • the display device 6 determines that the three-dimensional object of the television 64 is in the situation from the floor to the television 64 in the television table registered in the catalog data 24g, as in step S131. Those that match the distance to the three-dimensional object are extracted and displayed on the TV stand page. Therefore, the user can easily select a favorite television stand from among the television stands that can set the television at the height of the current three-dimensional object.
  • step S132 the user selects a desired television stand by touching the three-dimensional object in the catalog 63 with the finger of the hand H1.
  • step S133 the three-dimensional object of the selected television stand 65 is displayed below the three-dimensional object of the television 64. Since it is defined that the TV and the TV stand are related products, the display device 6 associates the selected three-dimensional object of the TV stand 65 with the three-dimensional object of the TV 64 already displayed. Can be displayed.
  • FIG. 52 is a diagram for explaining a scene in which a real object is moved. For example, assume that the user wants to try a layout change that moves the platform 62 to another location. When detecting an operation for selecting an actual object, the display device 6 displays a three-dimensional object imitating the actual object in the display space instead of the actual object. And if the display apparatus 6 detects operation which moves a three-dimensional object, it will move a three-dimensional object according to operation.
  • the user can easily move the 3D object without worrying about the influence of gravity, and can also leave the 3D object in the air so as not to get in the way. Furthermore, although the real object becomes invisible in the display space, it remains in its original place in reality, so that it is not necessary to return the real object to the original place after trying the layout change.
  • the image P1i shown in FIG. 52 is an image obtained by the photographing unit 40 when the user is trying to pick the platform 62, that is, an image corresponding to a sight of the real space viewed with the right eye.
  • the image P1i shows a table 62 placed at the corner of the room and the user's hand H1.
  • the display device 6 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight of the real space viewed with the left eye.
  • the image P2i is an image for the right eye generated based on the virtual space data 24d and the object data 24b.
  • the display device 6 combines the image P1i and the image P2i to generate an image P3i.
  • the display device 6 combines the image captured by the imaging unit 42 with the image obtained by viewing the virtual space from the viewpoint of the left eye, and generates an image displayed on the display unit 32b as an image for the left eye.
  • the display device 6 displays the composite image thus generated on the display units 32a and 32b. As a result, the user can see the scene in which the user is trying to pick the table 62 as if in the room.
  • An image P1j shown in FIG. 52 corresponds to an image obtained by the photographing unit 40 when the user tries to lift the platform 62 after picking the platform 62, that is, a sight of the real space viewed with the right eye. It is an image to be. At this time, the platform 62 is not actually lifted and remains in its original place.
  • the image P2j is a right-eye image generated based on the virtual space data 24d and the object data 24b.
  • the display device 6 generates a three-dimensional object 66 that imitates the table 62 because the user has performed an operation of picking and selecting the table 62 that is an actual object.
  • the object data 24b for generating the three-dimensional object 66 may be stored in the storage unit 24 in advance, or may be dynamically generated based on images captured by the imaging units 40 and 42.
  • the three-dimensional object 66 is arranged at a position away from the floor in accordance with the user's lifting operation.
  • Display device 6 combines image P1j and image P2j to generate image P3j. At this time, the display device 6 performs a concealment process for not displaying the table 62 on which the substitute three-dimensional object 66 is generated. For example, the display device 6 processes the distance to the table 62 as infinity. As a result, three-dimensional objects such as walls, floors, and ceilings are displayed in front of the table 62, and the table 62 is hidden behind them.
  • FIG. 53 is a flowchart showing the processing procedure of the ordering process.
  • the ordering process shown in FIG. 53 is realized by the control unit 22 executing the control program 24f.
  • the controller 22 first initializes the catalog data 24g as step S201. Subsequently, in step S202, the control unit 22 synthesizes and displays the virtual space image including the catalog three-dimensional object and the real space image.
  • the control part 22 detects operation with respect to a three-dimensional object as step S203. Then, in step S204, the control unit 22 determines whether the detected operation is an operation for executing an order. When the detected operation is not an operation for executing the order (No at Step S204), the control unit 22 proceeds to Step S205.
  • step S205 the control unit 22 determines whether the detected operation target is a three-dimensional object.
  • the control unit 22 proceeds to step S206.
  • the control unit 22 proceeds to Step S208.
  • step S206 the control unit 22 changes the product displayed in the catalog according to the operation. Furthermore, the control part 22 updates a display according to operation as step S207. Thereafter, the control unit 22 returns to step S203.
  • step S208 the control unit 22 performs a concealment process for not displaying the actual object that is the target of the operation. Furthermore, the control part 22 adds the three-dimensional object used as a substitute of the real object used as operation object to virtual space as step S209. Thereafter, the control unit 22 returns to step S203.
  • step S203 If the operation detected in step S203 is an operation for executing an order (step S204, Yes), the control unit 22 proceeds to step S210.
  • step S210 the control unit 22 performs an ordering process for ordering a product.
  • Products purchased using catalogs are not limited to TVs and TV stands.
  • the three-dimensional objects such as calendars and paintings are configured so that they can be placed at any position on the wall of the room.
  • the display device 6 may reduce the brightness of the display units 32a and 32b when the three-dimensional object of the curtain is hung on the window so that the light shielding property of the actual curtain can be reproduced.
  • the display device 6 may change the scenery outside the window of the room with a three-dimensional object so that the influence of the change in the scenery outside the season can be confirmed.
  • the display device 6 allows the user to arbitrarily set the color balance and brightness of the display units 32a and 32b so that the influence of the change in sun height due to the season and time can be confirmed when trying to change the layout of the room. It may be configured to be able to.
  • FIG. 54 is a block diagram of the display device 7.
  • the display device 7 includes an operation unit 13, a control unit 22, a storage unit 24, a communication unit 16, display units 32a and 32b, photographing units 40 and 42, and a detection unit 44.
  • the operation unit 13 receives basic operations such as starting and stopping the display device 7 and changing the operation mode.
  • the storage unit 24 includes a non-volatile storage device such as a flash memory, and stores various programs and data.
  • the program stored in the storage unit 24 includes a control program 24h.
  • the data stored in the storage unit 24 includes object data 24b, action data 24c, and virtual space data 24d.
  • the storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium.
  • the control program 24h, object data 24b, action data 24c, and virtual space data 24d may be stored in a storage medium.
  • the control program 24h, the object data 24b, the action data 24c, and the virtual space data 24d may be acquired from another device such as a server device through communication by the communication unit 16.
  • the control program 24h provides functions related to various controls for operating the display device 7.
  • the functions provided by the control program 24h include a function for displaying a three-dimensional object on the images acquired by the photographing units 40 and 42 on the display units 32a and 32b, a function for detecting an operation on the three-dimensional object, and a detected operation.
  • a function for changing the three-dimensional object in response to this is included.
  • the control program 24h includes a detection processing unit 25, a display object control unit 26, a viewpoint control unit 30, and an image composition unit 27.
  • the viewpoint control unit 30 provides a function for managing the position and direction of the viewpoint of the user in the virtual space.
  • the functions provided by the viewpoint control unit 30 include a function of changing the position and direction of the user's viewpoint in the virtual space in accordance with the change in the position and the direction of the display device 7 detected by the motion sensor 48. .
  • the viewpoint control unit 30 moves the viewpoint of the user in the virtual space forward.
  • the viewpoint control unit 30 rotates the viewpoint of the user in the virtual space to the right.
  • control based on the function provided by the control program 24h is the same as the control other than the order processing unit 29 of the control program 24f.
  • 55 to 59 are diagrams for explaining an example in which the display device 7 is applied to the sale of pizza via a network.
  • FIG. 55 is a diagram for explaining the start of the pizza ordering process.
  • the user wears the display device 7 and looks at a place where there is a plane with a certain size. For example, when the user looks at the table T2, the display device 7 displays an image P3k that shows the actual table T2.
  • the display device 7 acquires the object data 24b, the action data 24c, and the virtual space data 24d from the pizza sales site through communication by the communication unit 16 according to the user's instruction, and generates a virtual space based on the acquired data.
  • the display device 7 displays the image P3m by superimposing the generated virtual space image and the real space image.
  • a plurality of three-dimensional objects are arranged on the table T2.
  • the arranged three-dimensional objects are a large dough 161L, a medium dough 161M, a small dough 161S, cases 162a to 162f containing toppings such as sesame, tomato, cheese, a bar 163, and a ketchup tube 164.
  • an oven 165 The dough 161L is an L size pizza dough
  • the dough 161M is an M size pizza dough
  • the dough 161S is an S size pizza dough.
  • the pizza ingredients and the oven 165 are arranged on a plane as a three-dimensional object.
  • the display device 7 may display the pizza ingredients and the oven 165 using the object data 24b, the action data 24c, and the virtual space data 24d stored in the storage unit 24 in advance.
  • FIG. 56 is a diagram for explaining the process of determining the size and thickness of the dough.
  • step S311 in FIG. 56 the user holds the cloth 161M with the hand H1. By grasping, the fabric 161M is selected, and moves according to the movement of the hand H1.
  • step S312 the user places the cloth 161M at the approximate center of the plane of the table T2, and holds the bar 163 with the hand H1.
  • the rod 63 is selected, and moves according to the movement of the hand H1.
  • step S313 the user places the stick 163 on the cloth 161M and rotates it with the hands H1 and H2.
  • the bar 163 is defined as a rigid body
  • the fabric 161M is defined as a plastic body.
  • the action data 24c when the plastic body is pressed by a rigid body, it is defined that the pressed portion is recessed. For this reason, when the user rotates the stick 163 on the fabric 161M, the fabric 161M is extended in a circular shape and becomes thinner. The user rotates the stick 163 on the fabric 161M until the fabric 161M has a desired size and thickness as in step S314.
  • the operation for determining the size and thickness of the dough is not limited to the example shown in FIG.
  • the cloth 161M may be extended in a circle having the diameter of the distance between both hands.
  • the entire fabric 161M may be deformed into a thin circular shape having a thickness between the two fingers. In these operations, the size and thickness of the fabric can be easily adjusted by adjusting the interval between hands or fingers.
  • FIG. 57 is a diagram for explaining a process of placing the topping.
  • the user picks the sesame in the case 162d with the finger of the hand H1. By picking, the sesame is selected and moves according to the movement of the hand H1.
  • step S316 after moving the sesame to a desired position on the cloth 161M, the user widens the interval between the fingers of the hand H1. As a result, the sesame is disposed at a desired position on the fabric 161M.
  • the user places a desired topping at a desired amount and at a desired position.
  • step S317 the user is holding the ketchup tube 164 with the hand H1.
  • the ketchup tube 164 is selected, and moves according to the movement of the hand H1.
  • step S318 the user holds the ketchup tube 164 with the outlet facing downward, and moves the fabric 161M while pushing the stomach part.
  • the tube is defined such that the contents are pushed out from the outlet when the abdomen is pushed. Using this action, in step S318, the user draws a picture with ketchup on the fabric 161M.
  • FIG. 58 is a diagram for explaining a process of ordering pizza.
  • the user opens the front door of the oven 165 with the hand H1.
  • the user holds the cloth 161M with the hands H1 and H2 and puts it into the oven 165.
  • the user presses the switch of the oven 165 with the finger of the hand H1.
  • the operation for ordering a pizza may be another operation.
  • a three-dimensional object having a button for ordering displayed together with pizza ingredients may be displayed and an operation for pressing this button may be an operation for ordering a pizza.
  • the order data is used for the purpose of determining the price of pizza and for the purpose of reproducing the ordered pizza.
  • the order data includes information about the size of the selected fabric, the size and thickness of the stretched fabric, the type, amount, position, etc. of the topping.
  • the order data may include an image of a three-dimensional pizza object created by the user, or an operation history when the user created the three-dimensional pizza object. These pieces of information are acquired in the process of reproducing the same process as when the user manipulates a three-dimensional object of pizza ingredients to actually make a pizza. For this reason, the user can order a pizza by a method that can easily imagine the completed pizza without performing a cumbersome operation such as inputting a quantity.
  • FIG. 59 is a diagram showing an example of delivered pizza. Thereafter, as shown in FIG. 59, the pizza 172 in the pizza box 171 is delivered according to the order data.
  • the pizza 172 is cooked so as to reproduce the pizza three-dimensional object created in FIGS. 55 to 58 as accurately as possible.
  • the reproduction of the pizza may be performed while the cook refers to the ordering data.
  • the cook may cook the pizza while watching the image of the pizza created by the user with the three-dimensional object, or watching the video reproducing the user's operation history.
  • a cooking machine may cook pizza based on the order data.
  • FIG. 60 is a flowchart showing the processing procedure of the ordering process.
  • the ordering process shown in FIG. 60 is realized by the control unit 22 executing the control program 24h.
  • step S331 the control unit 22 synthesizes and displays a virtual space image including a three-dimensional object related to a product and an actual space image. Subsequently, the control unit 22 initializes ordering data as step S332. Specifically, the control unit 22 matches the state of the product indicated by the current three-dimensional object with the state of the product indicated by the ordering data.
  • the control part 22 detects operation with respect to a three-dimensional object as step S333. Then, in step S334, the control unit 22 determines whether the detected operation is an operation associated with execution of the order. When the detected operation is not an operation associated with execution of the order (step S334, No), the control unit 22 proceeds to step S335. In step S335, the control unit 22 updates the order data in accordance with the detected operation. And control part 22 updates the display of display parts 32a and 32b according to detected operation as Step S336. Thereafter, the control unit 22 returns to step S333.
  • Step S334 when the detected operation is an operation associated with the execution of the order (Step S334, Yes), the control unit 22 executes the ordering process as Step S337. Specifically, the control unit 22 transmits the ordering data to the ordering party through communication by the communication unit 16. Thereafter, the control unit 22 ends the ordering process.
  • the above ordering method can also be used when ordering other foods via the network.
  • ordering noodles the process of boiling noodles, the process of making soup, and the process of placing toppings are reproduced using a three-dimensional object, so that the amount of noodles and boiled noodles (hardness) And the taste intensity and the type, amount, and arrangement of the topping.
  • the process of filling the lunch box with side dishes and the process of filling the lunch box with rice are reproduced using three-dimensional objects, and the type, quantity, and arrangement of the side dishes and the amount of rice.
  • the type of sushi and how to arrange the sushi on the sushi bowl can be specified by reproducing the process of grasping sushi using a three-dimensional object.
  • the virtual space may be shared by a plurality of users.
  • the virtual space is managed by one of the display devices 7 possessed by a plurality of users or by another device such as a server device, and information related to the operation detected by each display device 7 manages the virtual space by communication Sent to the device.
  • the device that manages the virtual space updates the three-dimensional object and the order data in the virtual space based on the transmitted information related to the operation. In this way, by sharing the virtual space with a plurality of users, it becomes possible to jointly work to make pizza in the virtual space.
  • the above ordering method can also be applied when ordering products other than food via the network.
  • flowers stocked at a florist may be displayed as a three-dimensional object.
  • the user purchases a bouquet or flower arrangement in which favorite flowers are combined in a desired arrangement by reproducing the process of creating a bouquet or flower arrangement by combining three-dimensional objects of favorite flowers. Can do.
  • the order may be placed by reproducing the inside of the flower shop with a three-dimensional object and bringing the completed bouquet or flower arrangement to the cash register. Bouquets or flower arrangements may be delivered to your home or destination, or you may tell the store when the product is ready, or you will receive a notification from the store and the user will visit the florist and receive it. Good.
  • the above ordering method can also be applied when ordering clothing and accessories via a network.
  • the user can purchase goods after confirming the coordinates by combining the three-dimensional objects of clothing and accessories.
  • the combination may be a three-dimensional object of products at different sales floors.
  • the user can combine the three-dimensional object of the product with a real garment or accessory that has already been purchased. In this way, by displaying clothing and accessories as a three-dimensional object that can be moved and operated, it is possible to purchase commodities while confirming various combinations.
  • the product When ordering clothing and accessories via the network, the product may be displayed in a virtual shopping mall that simulates an actual store. In this case, it is possible to display an item that is impossible in reality, such as keeping the product floating in the air. Furthermore, unlike a paper catalog, if the product is no longer in stock, the product can be displayed in correspondence with the display such as hiding the product. In addition, since the products are only displayed virtually, the user can pay for the purchase of all the products at one store regardless of which store the product is in. It may be. In this case, the distribution of sales for each store is executed in the background process.
  • the ordering of the product is executed, for example, by bringing the three-dimensional object of the product to the cash register.
  • the ordering of merchandise is performed by performing an operation of taking out or presenting a three-dimensional object imitating a credit card from a wallet.
  • the actual payment is executed by an actual credit card registered in advance.
  • a virtual space including a shopping mall may be shared by a plurality of users.
  • a three-dimensional object indicating a user such as an avatar may be displayed at a position corresponding to the viewpoint of each user in the virtual space.
  • each said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. Moreover, you may combine each said Example suitably.
  • the control program shown in the above embodiment may be divided into a plurality of modules or may be integrated with other programs.
  • the display device detects a movement of another person, an animal, a machine, or the like in the photographing range of the photographing unit as a three-dimensional object. Also good.
  • the display device may share the virtual space with other devices. That is, the display device may be configured such that a person other than the user of the display device can view and operate the three-dimensional object in the virtual space through another device.
  • the display device alone detects an operation on the three-dimensional object.
  • the display device may detect an operation on the three-dimensional object in cooperation with the server device.
  • the display device sequentially transmits the image captured by the imaging unit or the information detected by the detection unit to the server device, and the server device detects the operation and notifies the display device of the detection result.

Abstract

 表示装置(1)は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部(32a)および(32b)と、上記のオブジェクトが立体的に表示される表示空間において物体を検出する検出部(44)と、上記の表示空間において前記物体の移動が検出されたときに、上記物体の移動に応じて前記オブジェクトを前記表示空間において変化させる制御部(22)とを備える。オブジェクトの変化には、例えば、移動、回転、変形、消失等が含まれる。

Description

表示装置、制御方法および制御プログラム
 本発明は、表示装置、制御方法および制御プログラムに関する。
 表示部を備える表示装置には、画像等を立体表示することができるものがある(例えば、特許文献1参照)。立体表示は、両眼の視差を利用して実現される。
特開2011-95547号公報
 立体表示は利用者にとって親しみやすい表示形式であるにも関わらず、従来の表示装置では、立体表示は視聴目的でしか利用されず、操作の利便性を向上させるためには利用されてこなかった。本発明は、利用者に対して利便性の高い操作方法を提供することができる表示装置、制御方法および制御プログラムを提供することを目的とする。
 1つの態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトの表示空間における所定の物体の変位を検出する検出部と、前記検出部によって検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行う制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトが表示される表示空間において第1の物体および第2の物体を検出する検出部と、前記表示空間において前記第1の物体と前記第2の物体の間に前記オブジェクトが位置することが検出されたときに、前記オブジェクトを変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトが表示される表示空間において第1の物体および第2の物体を検出する検出部と、前記表示空間において前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触する位置にあることが検出されたときに、前記オブジェクトを変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトが表示される表示空間において第1の物体と第2の物体とが前記オブジェクトを挟む位置にあるときに、前記オブジェクトを変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、表示面において第1の物体および第2の物体を検出する検出部と、前記表示面において前記第1の物体と前記第2の物体の間に前記オブジェクトが位置することが検出されたときに、前記オブジェクトを変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、表示面において第1の物体および第2の物体を検出する検出部と、前記表示面において前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触する位置にあることが検出されたときに、前記オブジェクトを変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトが立体的に表示される表示空間において物体を検出する検出部と、前記表示空間において前記物体の移動が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させる制御部とを備える。
 他の態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、前記オブジェクトが立体的に表示される表示空間において物体の移動が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させる制御部とを備える。
 1つの態様に係る制御方法は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示装置によって実行される制御方法であって、所定のオブジェクトを表示装置に3次元表示するステップと、前記オブジェクトの表示空間における所定の物体の変位を検出するステップと、検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行うステップとを含む。
 1つの態様に係る制御プログラムは、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示装置に、所定のオブジェクトを表示部に3次元表示するステップと、前記オブジェクトの表示空間における所定の物体の変位を検出するステップと、検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行うステップとを実行させる。
 1つの態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、商品に対応するオブジェクトを3次元表示する表示部と、前記オブジェクトを操作する現実の物体を検出する検出部と、前記現実の物体による操作に応じて前記オブジェクトの位置を変化させ、前記現実の物体が前記オブジェクトを操作しなくなった場合には、前記オブジェクトをその場に留まらせる制御部とを備える。
 1つの態様に係る制御方法は、表示装置の制御方法であって、ユーザの両目のそれぞれに対応した画像を表示することで、オブジェクトを3次元表示するステップと、前記オブジェクトを操作する現実の物体を検出するステップと、前記現実の物体による操作に応じて前記オブジェクトの位置を変化させるステップと、前記現実の物体が前記オブジェクトを操作しなくなった場合には、前記オブジェクトをその場に留まらせるステップとを含む。
 1つの態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示する表示部と、当該表示装置の現実の空間における方向の変化を検出するセンサと、前記センサの検出する前記方向の変化に応じて前記オブジェクトを変化させる制御部とを備える。
 1つの態様に係る制御方法は、表示装置の制御方法であって、ユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示するステップと、当該表示装置の現実の空間における方向の変化を検出するステップと、前記方向の変化に応じて前記オブジェクトを変化させるステップとを含む。
 1つの態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示する表示部と、当該表示装置の現実の空間における位置の変化を検出するセンサと、前記センサの検出する前記位置の変化に応じて前記オブジェクトを変化させる制御部とを備える。
 1つの態様に係る制御方法は、表示装置の制御方法であって、ユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示するステップと、当該表示装置の現実の空間における位置の変化を検出するステップと、前記位置の変化に応じて前記オブジェクトを変化させるステップとを含む。
 本発明は、利用者に対して利便性の高い操作方法を提供することができるという効果を奏する。
図1は、第1の実施例に係る表示装置の斜視図である。 図2は、利用者によって装着された表示装置を正面から見た図である。 図3は、表示装置の変形例を示す図である。 図4は、表示装置の他の変形例を示す図である。 図5は、表示装置の他の変形例を示す図である。 図6は、第1の実施例に係る表示装置のブロック図である。 図7は、制御プログラムが提供する機能に基づく制御の例を示す図である。 図8は、オブジェクトデータに格納される情報の一例を示す図である。 図9は、作用データに格納される情報の一例を示す図である。 図10は、作用データに格納される情報の一例を示す図である。 図11は、作用データに格納される情報の一例を示す図である。 図12は、作用データに格納される情報の一例を示す図である。 図13は、作用データに格納される情報の一例を示す図である。 図14は、作用データに格納される情報の一例を示す図である。 図15は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第1の例について説明するための図である。 図16は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第1の例について説明するための図である。 図17は、第1の例における接触検出処理の処理手順を示すフローチャートである。 図18は、第1の例における操作検出処理の処理手順を示すフローチャートである。 図19は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第2の例について説明するための図である。 図20は、第2の例における操作検出処理の処理手順を示すフローチャートである。 図21は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第3の例について説明するための図である。 図22は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第3の例について説明するための図である。 図23は、第3の例における操作検出処理の処理手順を示すフローチャートである。 図24は、3次元オブジェクトを摘んで行う操作の検出の第1の例について説明するための図である。 図25は、第1の例における選択検出処理の処理手順を示すフローチャートである。 図26は、第1の例における操作検出処理の処理手順を示すフローチャートである。 図27は、3次元オブジェクトを摘んで行う操作の検出の第1の例の変形例について説明するための図である。 図28は、3次元オブジェクトを摘んで行う操作の検出の第2の例について説明するための図である。 図29は、第2の例における選択検出処理の処理手順を示すフローチャートである。 図30は、3次元オブジェクトを摘んで行う操作の検出の第2の例の変形例について説明するための図である。 図31は、3次元オブジェクトを摘んで行う操作の検出の第3の例について説明するための図である。 図32は、3次元オブジェクトを摘んで行う操作の検出の第3の例について説明するための図である。 図33は、第3の例における選択検出処理の処理手順を示すフローチャートである。 図34は、第3の例における操作検出処理の処理手順を示すフローチャートである。 図35は、3次元オブジェクトを摘んで行う操作の検出の第3の例の変形例について説明するための図である。 図36は、第2の実施例に係る表示装置の斜視図である。 図37は、第2の実施例に係る表示装置のブロック図である。 図38は、3次元オブジェクトの変化と連動した表示制御の一例を示す図である。 図39は、指を3次元オブジェクトに一瞬接触させる操作の軌跡の一例を示す図である。 図40は、指を3次元オブジェクトに沿って移動させる操作の軌跡の一例を示す図である。 図41は、指で3次元オブジェクトを押しつぶす操作の軌跡の一例を示す図である。 図42は、3次元オブジェクトの変化と連動して実行される表示制御の処理手順を示すフローチャートである。 図43は、第3の実施例に係る表示装置のブロック図である。 図44は、位置の変化に連動して3次元オブジェクトを変化させる例を示す図である。 図45は、利用者の周囲に配置された操作画面を概念的に示す図である。 図46は、方向の変化に連動して3次元オブジェクトを変化させる例を示す図である。 図47は、位置および方向の変化と連動して3次元オブジェクトを変化させる制御の処理手順を示すフローチャートである。 図48は、購入する商品を設置する部屋の中で電子的なカタログを表示する例を示す図である。 図49は、カタログから商品を選択する場面について説明するための図である。 図50は、テレビの大きさと設置場所を検討する場面について説明するための図である。 図51は、テレビ台を選択する場面について説明するための図である。 図52は、現実の物体を移動させる場面について説明するための図である。 図53は、発注処理の処理手順を示すフローチャートである。 図54は、第5の実施例に係る表示装置のブロック図である。 図55は、ピザの発注処理の開始について説明するための図である。 図56は、生地の大きさと厚みを決める工程について説明するための図である。 図57は、トッピングを載せる工程について説明するための図である。 図58は、ピザを発注する工程について説明するための図である。 図59は、配達されるピザの例を示す図である。 図60は、発注処理の処理手順を示すフローチャートである。
 以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
 まず、図1および図2を参照しながら、第1の実施例に係る表示装置1の全体的な構成について説明する。図1は、表示装置1の斜視図である。図2は、利用者によって装着された表示装置1を正面から見た図である。図1および図2に示すように、表示装置1は、利用者の頭部に装着されるヘッドマウントタイプの装置である。
 表示装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続され、側面部1cは、前面部1aの他方の端部に接続される。側面部1bおよび側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、表示装置1を安定させる。側面部1bおよび側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されてもよい。
 前面部1aは、装着時に利用者の目と対向する面に表示部32aおよび表示部32bを備える。表示部32aは、装着時に利用者の右目と対向する位置に配設され、表示部32bは、装着時に利用者の左目と対向する位置に配設される。表示部32aは、右目用の画像を表示し、表示部32bは、左目用の画像を表示する。このように、装着時に利用者のそれぞれの目に対応した画像を表示する表示部32aおよび表示部32bを備えることにより、表示装置1は、両眼の視差を利用した3次元表示を実現することができる。
 表示部32aおよび表示部32bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。例えば、表示される画像が一方の目にしか見えないように遮蔽するシャッターを高速に切り替えることによって、1つの表示デバイスが右目と左目に異なる画像を独立して提供するように構成してもよい。前面部1aは、装着時に外光が利用者の目に入らないように、利用者の目を覆うように構成されてもよい。
 前面部1aは、表示部32aおよび表示部32bが設けられている面とは反対側の面に撮影部40および撮影部42を備える。撮影部40は、前面部1aの一方の端部(装着時の右目側)の近傍に配設され、撮影部42は、前面部1aの他方の端部(装着時の左目側)の近傍に配設される。撮影部40は、利用者の右目の視界に相当する範囲の画像を取得する。撮影部42は、利用者の左目の視界に相当する範囲の画像を取得する。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。
 表示装置1は、撮影部40によって撮影された画像を右目用の画像として表示部32aに表示し、撮影部42によって撮影された画像を左目用の画像として表示部32bに表示する。このため、表示装置1は、装着中の利用者に、前面部1aによって視界が遮られていても、表示装置1を装着していないときと同様の光景を提供することができる。
 表示装置1は、このように現実の光景を利用者に提供する機能に加えて、仮想的な情報を3次元的に表示し、仮想的な情報を利用者が操作することを可能にする機能を有する。表示装置1によれば、仮想的な情報は、実際に存在しているかのように、現実の光景と重ねて表示される。そして、利用者は、例えば、手を使って仮想的な情報を実際に触っているかのように操作し、移動、回転、変形等の変化を仮想的な情報に施すことができる。このように、表示装置1は、仮想的な情報に関して、直感的で利便性の高い操作方法を提供する。以下の説明では、表示装置1によって3次元的に表示される仮想的な情報を「3次元オブジェクト」と呼ぶことがある。
 表示装置1は、表示装置1を装着していない場合と同様の広い視界を利用者に提供する。そして、表示装置1は、この広い視界の中の任意の位置に任意の大きさで3次元オブジェクトを配置することができる。このように、表示装置1は、表示デバイスの大きさの制約を受けることなく、広い空間の様々な位置に様々な大きさの3次元オブジェクトを表示することができる。さらに、3次元オブジェクトを見ることができる者を表示装置1の利用者に限定できるため、高いセキュリティを確保することができる。
 図1および図2では、表示装置1が、眼鏡(ゴーグル)のような形状を有する例を示したが、表示装置1の形状はこれに限定されない。図3は、表示装置の変形例を示す図である。図4および図5は、表示装置の他の変形例を示す図である。例えば、表示装置1は、図3に示す表示装置2のように、利用者の頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していてもよい。あるいは、表示装置1は、図4に示す表示装置3のように、利用者の顔面のほぼ全体を覆うようなマスクタイプの形状を有していてもよい。表示装置1は、図5に示す表示装置4のように、情報処理装置、バッテリ装置等の外部装置4dと有線または無線で接続される構成であってもよい。
 次に、図6を参照しながら、表示装置1の機能的な構成について説明する。図6は、表示装置1のブロック図である。図6に示すように、表示装置1は、操作部13と、制御部22と、記憶部24と、表示部32aおよび32bと、撮影部40および42と、検出部44と、測距部46とを有する。操作部13は、表示装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。
 表示部32aおよび32bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro-Luminescence)パネル等の表示デバイスを備え、制御部22から入力される制御信号に従って各種の情報を表示する。表示部32aおよび32bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であってもよい。
 撮影部40および42は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮影する。そして、撮影部40および42は、撮影した画像を信号に変換して制御部22へ出力する。
 検出部44は、撮影部40および42の撮影範囲に存在する現実の物体を検出する。検出部44は、例えば、撮影範囲に存在する現実の物体のうち、予め登録された形状(例えば、人間の手の形状)にマッチする物体を検出する。検出部44は、予め形状が登録されていない物体についても、画素の明度、彩度、色相のエッジ等に基づいて、画像中の現実の物体の範囲(形状および大きさ)を検出するように構成されてもよい。
 測距部46は、撮影部40および42の撮影範囲に存在する現実の物体までの距離を測定する。現実の物体までの距離は、表示装置1を装着している利用者のそれぞれの目の位置を基準として目毎に測定される。このため、測距部46が距離を測定する基準位置がそれぞれの目の位置とずれている場合には、測距部46の測定値は、そのずれに応じて、目の位置までの距離を表すように補正される。
 本実施例においては、撮影部40および42が、検出部44および測距部46を兼ねる。すなわち、本実施例においては、撮影部40および42によって撮影される画像を解析することによって、撮影範囲内の物体が検出される。さらに、撮影部40によって撮影される画像に含まれる物体と撮影部42によって撮影される画像に含まれる物体とを比較することにより、物体との距離が測定(算出)される。
 表示装置1は、撮影部40および42とは別に、検出部44を備えてもよい。検出部44は、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、撮影範囲に存在する現実の物体を検出するセンサであってもよい。表示装置1は、撮影部40および42とは別に、測距部46を備えてもよい。測距部46は、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、撮影範囲に存在する現実の物体までの距離を検出するセンサであってもよい。表示装置1は、TOF(Time-of-Flight)法を用いたセンサのように、検出部44および測距部46を兼ねることができるセンサを備えてもよい。
 制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部44を介して検出される操作がパラメータや判定条件の一部として利用される。
 記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cと、仮想空間データ24dとが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24a、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、記憶媒体に記憶されていてもよい。また、制御プログラム24a、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、無線通信または有線通信によってサーバ装置等の他の装置から取得されてもよい。
 制御プログラム24aは、表示装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、撮影部40および42が取得する画像に3次元オブジェクトを重ねて表示部32aおよび32bに表示する機能、3次元オブジェクトに対する操作を検出する機能、検出した操作に応じて3次元オブジェクトを変化させる機能等が含まれる。
 制御プログラム24aは、検出処理部25と、表示オブジェクト制御部26と、画像合成部27とを含む。検出処理部25は、撮影部40および42の撮影範囲に存在する現実の物体を検出するための機能を提供する。検出処理部25が提供する機能には、検出したそれぞれの物体までの距離を測定する機能が含まれる。
 表示オブジェクト制御部26は、仮想空間にどのような3次元オブジェクトが配置され、それぞれの3次元オブジェクトがどのような状態にあるかを管理するための機能を提供する。表示オブジェクト制御部26が提供する機能には、検出処理部25の機能によって検出される現実の物体の動きに基づいて3次元オブジェクトに対する操作を検出し、検出した操作に基づいて3次元オブジェクトを変化させる機能が含まれる。
 画像合成部27は、現実の空間の画像と仮想空間の画像とを合成することにより、表示部32aに表示する画像と表示部32bに表示する画像とを生成するための機能を提供する。画像合成部27が提供する機能には、検出処理部25の機能によって測定される現実の物体までの距離と、仮想空間における視点から3次元オブジェクトまでの距離とに基づいて、現実の物体と3次元オブジェクトの前後関係を判定し、重なりを調整する機能が含まれる。
 オブジェクトデータ24bは、3次元オブジェクトの形状および性質に関する情報を含む。オブジェクトデータ24bは、3次元オブジェクトを表示するために用いられる。作用データ24cは、表示されている3次元オブジェクトに対する操作が3次元オブジェクトにどのように作用するかに関する情報を含む。作用データ24cは、表示されている3次元オブジェクトに対する操作が検出された場合に、3次元オブジェクトをどのように変化させるかを判定するために用いられる。ここでいう変化には、移動、回転、変形、消失等が含まれる。仮想空間データ24dは、仮想空間に配置される3次元オブジェクトの状態に関する情報を保持する。3次元オブジェクトの状態には、例えば、位置、姿勢、変形の状況等が含まれる。
 次に、図7を参照しながら、制御プログラム24aが提供する機能に基づく制御の例について説明する。図7は、制御プログラムが提供する機能に基づく制御の例を示す図である。画像P1aは、撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1aには、テーブルT1と、利用者の手H1とが写っている。表示装置1は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。
 画像P2aは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この例において、仮想空間データ24dは、仮想空間中に存在するブロック状の3次元オブジェクトBL1の状態に関する情報を保持し、オブジェクトデータ24bは、3次元オブジェクトBL1の形状および性質に関する情報を保持する。表示装置1は、これらの情報に基づいて仮想空間を再現し、再現した仮想空間を右目の視点から見た画像P2aを生成する。仮想空間における右目(視点)の位置は、所定の規則に基づいて決定される。表示装置1は、同様に、再現した仮想空間を左目の視点で見た画像も生成する。すなわち、表示装置1は、画像P2aと組み合わせることによって3次元オブジェクトBL1が3次元的に表示される画像も生成する。
 表示装置1は、図7に示すステップS1において、画像P1aおよび画像P2aを合成して、画像P3aを生成する。画像P3aは、右目用の画像として表示部32aに表示される画像である。このとき、表示装置1は、利用者の右目の位置を基準として、撮影部40の撮影範囲にある現実の物体と、仮想空間内に存在する3次元オブジェクトBL1との前後関係を判定する。そして、現実の物体と3次元オブジェクトBL1とが重なっている場合には、利用者の右目により近いものが前面に見えるように重なりを調整する。
 このような重なりの調整は、現実の物体と3次元オブジェクトBL1とが重なる画像上の領域内の所定の大きさの範囲毎(例えば、1画素毎)に行われる。このため、現実の空間における視点から現実の物体までの距離は、画像上の所定の大きさの範囲毎に測定される。さらに、仮想空間における視点から3次元オブジェクトBL1までの距離は、3次元オブジェクトBL1の位置、形状、姿勢等を考慮して、画像上の所定の大きさの範囲毎に算出される。
 図7に示すステップS1の場面では、3次元オブジェクトBL1は、仮想空間において、テーブルT1が現実の空間で存在する位置のすぐ上に相当する位置に配置されている。さらに、図7に示すステップS1の場面では、利用者の手H1と3次元オブジェクトBL1が、利用者の右目の位置を基準として、ほぼ同じ方向に、ほぼ同じ距離で存在している。このため、所定の大きさの範囲毎に重なりを調整することにより、合成後の画像P3aでは、手H1と3次元オブジェクトBL1とが重なっている領域のうち、手H1の親指に相当する部分では手H1が前面に現れ、他の部分では3次元オブジェクトBL1が前面に現れている。さらに、テーブルT1と3次元オブジェクトBL1とが重なっている領域では、3次元オブジェクトBL1が前面に現れている。
 このような重なりの調整により、図7に示すステップS1では、あたかもテーブルT1上に3次元オブジェクトBL1が置かれ、3次元オブジェクトBL1を利用者が手H1で摘んでいるかのような画像P3aが得られている。表示装置1は、同様の処理により、撮影部42によって撮影した画像と仮想空間を左目の視点から見た画像とを合成し、左目用の画像として表示部32bに表示される画像を生成する。左目用の画像を生成する場合、現実の物体と3次元オブジェクトBL1との重なりは、利用者の左目の位置を基準として調整される。
 表示装置1は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、3次元オブジェクトBL1がテーブルT1の上に置かれ、自分の手H1で3次元オブジェクトBL1を摘んでいるかのような光景を見ることができる。
 図7に示すステップS1の場面では、利用者が手H1を矢印A1の方向に移動させている。この場合、図7に示すステップS2の場面では、撮影部40によって得られる画像は、手H1の位置が右へ移動した画像P1bに変化する。さらに、表示装置1は、手H1の動きを、3次元オブジェクトを摘んだままで右へ移動させる操作と判定し、操作に応じて、仮想空間における3次元オブジェクトの位置を右へ移動させる。仮想空間における3次元オブジェクトの移動は、仮想空間データ24dに反映される。その結果、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像は、3次元オブジェクトBL1の位置が右へ移動した画像P2bに変化する。表示装置1による操作の検出の詳細については、後述する。
 表示装置1は、画像P1bおよび画像P2bを合成して右目用の画像P3bを生成する。画像P3bは、画像P3aと比較して、テーブルT1上のより右側の位置で、3次元オブジェクトBL1を利用者が手H1で摘んでいるかのような画像となっている。表示装置1は、同様に左目用の合成画像を生成する。そして、表示装置1は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、自分の手H1で3次元オブジェクトBL1を摘んで右へ移動させたかのような光景を見ることができる。
 このような表示用の合成画像の更新は、一般的な動画のフレームレートと同等の頻度(例えば、毎秒30回)で実行される。その結果、利用者の操作に応じた3次元オブジェクトBL1の変化は、表示装置1が表示する画像にほぼリアルタイムに反映され、利用者は、あたかも実際に存在しているかのように、違和感なく3次元オブジェクトBL1を操作することができる。さらに、本実施例に係る構成では、3次元オブジェクトBL1を操作する利用者の手H1が、利用者の目と表示部32aおよび32bの間に位置することがないため、利用者は、手H1によって3次元オブジェクトBL1の表示が遮られることを気にすることなく操作を行うことができる。
 次に、図8から図14を参照しながら、図6に示したオブジェクトデータ24bおよび作用データ24cについてさらに詳しく説明する。図8は、オブジェクトデータ24bに格納される情報の一例を示す図である。図9から図14は、作用データ24cに格納される情報の一例を示す図である。
 図8に示すように、オブジェクトデータ24bには、種別、形状情報、色、透明度等を含む情報が3次元オブジェクト毎に格納される。種別は、3次元オブジェクトの物理的な性質を示す。種別は、例えば、「剛体」、「弾性体」等の値をとる。形状情報は、3次元オブジェクトの形状を示す情報である。形状情報は、例えば、3次元オブジェクトを構成する面の頂点座標の集合である。色は、3次元オブジェクトの表面の色である。透明度は、3次元オブジェクトが光を透過させる度合いである。オブジェクトデータ24bは、複数の3次元オブジェクトに関する情報を保持することができる。
 図9から図14に示す例では、押す操作が検出された場合の変化に関する情報が3次元オブジェクトの種別毎に作用データ24cに格納されている。図9に示すように、3次元オブジェクトの種別が「剛体」の場合、支点の有無、押された方向における障害物の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。ここでいう障害物とは、他の3次元オブジェクトであってもよいし、現実の物体であってもよい。また、押される速度が速いか遅いかは閾値に基づいて判定される。
 3次元オブジェクトに支点がなく、押された方向に障害物がない場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。移動の仕方については、滑るのか回転するのかを3次元オブジェクトの形状に基づいて決定してよい。また、押す物体と一緒に移動するのか、押す物体にはじかれるように物体と離れて移動するのかについては、押される速度に基づいて決定してよいし、3次元オブジェクトと底面の摩擦抵抗の算出値または設定値に基づいて決定してもよい。
 3次元オブジェクトに支点がなく、押された方向に固定された障害物がある場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、障害物と接触した時点で移動が停止するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。押された速度が速い場合は、3次元オブジェクトが障害物を破壊して移動を継続することとしてもよい。また、3次元オブジェクトが押す物体にはじかれるように物体と離れて移動している間に障害物と接触した場合は、跳ね返ったように3次元オブジェクトを逆方向に移動させてもよい。
 3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後は、他の剛体もともに移動するように表示される。また、3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。そして、3次元オブジェクトが他の剛体と接触した後は、他の剛体がはじかれて移動するように表示される。他の剛体と接触した後、3次元オブジェクトは、その場で停止してもよいし、速度を落として移動を継続してもよい。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。
 3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があるが、他の剛体はすり抜け可能である場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後も、他の剛体をすり抜けてそのまま移動し続けるように表示される。現実には、剛体が剛体をすり抜けることはないが、このようなすり抜けを可能にすることにより、利用者に斬新な体験を提供することができる。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。押される速度に閾値を設け、押される速度が閾値以下の場合は、3次元オブジェクトが他の剛体をすり抜けないこととしてもよい。
 3次元オブジェクトに支点がある場合、3次元オブジェクトは、押された方向および量に応じて、支点を中心に回転するように表示される。ここでいう回転とは、360度ぐるぐると回る回転であってもよいし、所定の回転範囲内を往復する回動であってもよい。このように表示される3次元オブジェクトは、例えば、振り子、ボクシングのサンドバック、風車である。
 また、図10に示すように、3次元オブジェクトの種別が「弾性体」の場合、素材、変化量の制限の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。ここでいう素材は、3次元オブジェクトの想定上の素材であり、オブジェクトデータ24bにおいて定義される。
 3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、押される状態から解放されると元の形状に戻るように表示される。また、3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、その後、はじかれて、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。
 3次元オブジェクトの素材がゴム系であり、変化量に制限がある場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、その後も押す操作が検出されると、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。
 3次元オブジェクトの素材が金属系の場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、押される状態から解放されると元の形状に戻ったり変形したりを繰り返す(振動する)ように表示される。変形可能方向以外の方向に押された場合、3次元オブジェクトは、剛体と同様に移動する。このように表示される3次元オブジェクトは、例えば、板ばね、弦巻ばねである。
 また、図11に示すように、3次元オブジェクトの種別が「塑性体」の場合、3次元オブジェクトは、押された箇所がへこんで全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、粘土である。
 また、図12に示すように、3次元オブジェクトの種別が「液体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、押す物体が3次元オブジェクト、すなわち、液体につかるように表示される。押される速度が中程度の場合、押す物体が液体につかり、液体に波紋が拡がるように表示される。押される速度が速い場合、押す物体が液体につかり、液体から水しぶきがあがるように表示される。このように表示される3次元オブジェクトは、例えば、コップに入った水である。
 また、図13に示すように、3次元オブジェクトの種別が「気体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、3次元オブジェクト、すなわち、気体が押す物体によってさえぎられてその周囲を漂うように表示される。押される速度が中程度の場合、気体が押す物体によって散乱されるように表示される。押される速度が速い場合、押す物体の移動方向の後ろ側で乱流により気体に渦が生まれるように表示される。このように表示される3次元オブジェクトは、例えば、煙である。
 また、図14に示すように、3次元オブジェクトの種別が「集合体」の場合、集合体の要素の結合状況に応じて、押す操作が検出された場合の変化が異なる。集合体の要素の結合がない場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、砂、砂糖である。
 集合体の要素の結合がある場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。さらに、押された箇所以外の要素が、押された箇所の要素に引っ張られて移動するように表示される。このように表示される3次元オブジェクトは、例えば、鎖である。
 集合体の要素の結合はないが押す物体との間に引力または斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても移動するように表示される。押す物体との間に引力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体に引き寄せられる。また、押す物体との間に斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体から遠ざかる。このように表示される3次元オブジェクトと押す物体の組み合わせは、例えば、鉄粉と磁石の組み合わせである。
 このように、オブジェクトデータ24bに格納された情報と作用データ24cに格納された情報とに基づいて3次元オブジェクトを変化させることにより、押す操作に応じて、3次元オブジェクトを多様に変化させることができる。オブジェクトデータ24bおよび作用データ24cに格納される情報は、上記の例に限定されず、用途等に応じて適宜変更してよい。例えば、押す物体の種別および大きさや押す物体と3次元オブジェクトの接触面積の大きさに応じて、3次元オブジェクトの変化の仕方が切り替わるように設定してもよい。
 次に、図15および図16を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。以下の説明では、表示装置1を装着した利用者が見る空間を、表示空間と呼ぶことがある。表示装置1は、利用者の右目および左目にそれぞれの目に対応する画像を提供することにより、表示空間内に現実の物体および3次元オブジェクトを3次元的(立体的)に表示することができる。表示装置1は、仮想空間データ24dに基づいて再現した仮想空間と、撮影部40および42によって撮影される現実の空間とを所定の規則に基づいて対応付け、これらの空間が重なった空間を表示空間として表示する。
 図15および図16は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図15に示すステップS11では、表示装置1は、表示空間50中に、3次元オブジェクトOB1を立体的に表示している。3次元オブジェクトOB1は、例えば、ボールを模したオブジェクトである。また、ステップS11では、3次元オブジェクトOB1を支持する底面B1が表示されている。
 ステップS12では、利用者が指F1を3次元オブジェクトOB1と接触する位置に置き、そのまま静止させている。表示装置1は、表示空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。
 物体が3次元オブジェクトOB1と接触しているかの判定は、現実の空間における物体の位置と、3次元オブジェクトOB1の形状、姿勢、仮想空間における位置等に基づいて行われる。現実の空間での位置と仮想空間における位置との比較は、一方の空間の位置を上記の所定の規則に基づいて他方の空間の位置へ換算することによって行ってもよいし、両方の空間の位置を比較用の空間の位置へ換算することによって行ってもよい。現実の物体として指が検出された場合、指のつま先の位置を物体の位置として処理してもよい。人は、何かを操作するときに指のつま先を用いることが多いため、指のつま先の位置を物体の位置として処理することにより、より自然な操作感を利用者に提供することができる。
 また、操作対象として選択されたことの通知は、例えば、3次元オブジェクトOB1の全体の色を変更することや、3次元オブジェクトOB1の表面のうち、物体と接触している位置の近傍の色を変更することによって実現される。表示装置1は、このような視覚的な通知に代えて、あるいは、このような視覚的な通知に加えて、音や振動による通知を行ってもよい。
 このように、表示装置1は、指等の現実の物体が3次元オブジェクトOB1と接触する状態が所定時間以上継続して検出された場合に、3次元オブジェクトOB1が操作対象として選択されたと判定する。接触状態が所定時間以上継続して検出されることを条件として付加することにより、例えば、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択される可能性を低くすることができる。
 3次元オブジェクトOB1が操作対象として選択された後、ステップS13に示すように、利用者が、3次元オブジェクトOB1を押すように、指F1を3次元オブジェクトOB1の内側に侵入させたものとする。表示装置1は、操作対象として選択された3次元オブジェクト内に物体を侵入させる操作が検出された場合、操作に応じて3次元オブジェクトを変化させる。3次元オブジェクトをどのように変化させるかは、オブジェクトデータ24bにおいて定義されている3次元オブジェクトの種別と、作用データ24cにおいてその種別と対応付けて定義されている変化のルールとによって決定される。
 例えば、オブジェクトデータ24bにおいて3次元オブジェクトOB1が弾性体であると定義され、作用データ24cにおいて弾性体は押された場合に押された量に応じて押された方向に変形することが定義されていたものとする。この場合、表示装置1は、ステップS14に示すように、指F1が侵入した部分が押されて凹んだように3次元オブジェクトOB1を変化させる。
 また、オブジェクトデータ24bにおいて3次元オブジェクトOB1が剛体であると定義され、作用データ24cにおいて剛体は押された場合に押された量に応じて押された方向に移動することが定義されていたものとする。この場合、表示装置1は、図16のステップS15に示すように、指F1に押されたように3次元オブジェクトOB1を指F1の進行方向へ移動させる。図16のステップS15では、3次元オブジェクトOB1は、底面B1に支持されているため、剛体によって印加される力の底面B1と水平方向の成分に従って移動している。
 このように、3次元オブジェクトを押す操作が検出された場合に、オブジェクトデータ24bおよび作用データ24cに基づいて3次元オブジェクトOB1を変化させることにより、3次元オブジェクトを操作に応じて様々に変化させることができる。押すという操作は、現実の世界の様々な場面で利用されている操作であり、3次元オブジェクトOB1を押す操作を検出して対応する処理を実行することにより、直感的で利便性の高い操作性を実現することができる。
 3次元オブジェクトを操作するために用いられる物体は、指に限定されず、手、足、棒、器具等であってもよい。押す操作に応じて3次元オブジェクトを変化させる態様は、現実の物理法則に則していてもよいし、現実ではあり得ないものであってもよい。
 表示装置1は、3次元オブジェクトに対する操作を検出する空間を操作可能範囲51に限定してもよい。操作可能範囲51は、例えば、表示装置1を装着している利用者の手が届く範囲である。このように、3次元オブジェクトに対する操作を検出する空間を限定することにより、表示装置1が操作を検出するために実行する演算処理の負荷を軽減することができる。
 次に、図17および図18を参照しながら、3次元オブジェクトを押す操作に関して表示装置1が実行する処理手順の第1の例について説明する。図17は、3次元オブジェクトの接触検出処理の処理手順を示すフローチャートである。図17に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図17に示すように、制御部22は、まず、ステップSA01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。
 続いて、制御部22は、ステップSA02として、検出部44、すなわち、撮影部40および42によって所定の物体が検出されたかを判定する。所定の物体は、例えば、利用者の指である。所定の物体が検出されない場合(ステップSA02,No)、制御部22は、ステップSA08として、操作終了が検出されたかを判定する。
 操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出される。操作終了が検出された場合(ステップSA08,Yes)、制御部22は、接触検出処理を終了させる。操作終了が検出されない場合(ステップSA08,No)、制御部22は、ステップSA02以降を再実行する。
 所定の物体が検出された場合(ステップSA02,Yes)、制御部22は、ステップSA03として、所定の物体の種別を判定する。所定の物体の種別は、例えば、撮影部40および42によって撮影された画像中の物体の大きさ、形状、色等に基づいて判定される。続いて、制御部22は、ステップSA04として、所定の物体に接触している3次元オブジェクトを探す。所定の物体に接触している3次元オブジェクトがない場合(ステップSA05,No)、制御部22は、ステップSA08へ進む。
 所定の物体に接触している3次元オブジェクトがみつかった場合(ステップSA05,Yes)、制御部22は、ステップSA06として、オブジェクトデータ24bに基づいて、所定の物体に接触している3次元オブジェクトの種別を判定する。そして、制御部22は、ステップSA07として、後述する操作検出処理を実行する。その後、制御部22は、ステップSA08へ進む。
 図18は、操作検出処理の処理手順を示すフローチャートである。図18に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図18に示すように、制御部22は、まず、ステップSB01として、所定の物体と3次元オブジェクトの接触時間を取得する。そして、制御部22は、ステップSB02として、所定の物体が3次元オブジェクトの内部に移動したかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSB02,No)、制御部22は、ステップSB01以降を再実行する。
 所定の物体が3次元オブジェクトの内部に移動している場合(ステップSB02,Yes)、制御部22は、ステップSB03として、接触時間が所定時間以上であるかを判定する。接触時間が所定時間よりも短い場合(ステップSB03,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。
 接触時間が所定時間以上の場合(ステップSB03,Yes)、制御部22は、ステップSB04として、所定の物体の速度を算出する。そして、制御部22は、ステップSB05として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。
 続いて、制御部22は、ステップSB06として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSB06,No)、制御部22は、ステップSB04以降を再実行する。
 所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSB06,Yes)、制御部22は、ステップSB07として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。
 3次元オブジェクトの変化が継続する場合(ステップSB07,Yes)、制御部22は、ステップSB08として、3次元オブジェクトを変化させ、その後、ステップSB07以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSB07,No)、制御部22は、操作検出処理を終了させる。
 上述してきたように、第1の例では、押す操作に応じて3次元オブジェクトを多様に変化させ、それにより、利用者に対して利便性の高い操作方法を提供することができる。
 3次元オブジェクトを押す操作に関する処理手順の第2の例について説明する。第2の例における接触検出処理は、第1の例における接触検出処理と同一である。そこで、第2の例については、第1の例と重複する説明は省略し、主として、操作検出処理について説明する。
 まず、図19を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図19は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図19に示すステップS21では、利用者が指F1を3次元オブジェクトOB1と接触させ、ステップS22では、利用者が指F1を3次元オブジェクトOB1の内側に侵入させている。
 表示装置1は、表示空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触した後に3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。さらに、表示装置1は、ステップS23に示すように、3次元オブジェクトOB1を、あたかもステップS21の段階で既に押す操作の対象として選択されていたかのように、接触検出以降の指F1による操作に応じて変化させる。
 このように、物体と3次元オブジェクトの接触を検出した後は、物体がその場に留まらなくても押す操作を検出可能にすることにより、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。また、接触後に物体が3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続することを条件として付加することにより、例えば、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択される可能性を低くすることができる。
 次に、図20を参照しながら、第2の例における操作検出処理の処理手順について説明する。図20は、操作検出処理の処理手順を示すフローチャートである。図20に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。接触検出処理の処理手順は、図17に示した手順と同様である。
 図20に示すように、制御部22は、まず、ステップSC01として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSC01,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。
 所定の物体が3次元オブジェクトの内部に移動している場合(ステップSC01,Yes)、制御部22は、ステップSC02として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合(ステップSC02,No)、制御部22は、ステップSC01以降を再実行する。
 接触時間が所定時間以上の場合(ステップSC02,Yes)、制御部22は、ステップSC03として、所定の物体の速度を算出する。そして、制御部22は、ステップSC04として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。
 続いて、制御部22は、ステップSC05として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSC05,No)、制御部22は、ステップSC03以降を再実行する。
 所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSC05,Yes)、制御部22は、ステップSC06として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。
 3次元オブジェクトの変化が継続する場合(ステップSC06,Yes)、制御部22は、ステップSC07として、3次元オブジェクトを変化させ、その後、ステップSC06以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSC06,No)、制御部22は、操作検出処理を終了させる。
 上述してきたように、第2の例では、指等の物体が3次元オブジェクトに接触する状態が所定時間以上継続しなくても押す操作が認識されることとしたので、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。
 3次元オブジェクトを押す操作に関する処理手順の第3の例について説明する。第3の例における接触検出処理は、第1の例における接触検出処理と同一である。そこで、第3の例では、第1の例と重複する説明は省略し、主として、操作検出処理について説明する。
 まず、図21および図22を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図21および図22は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図21に示すステップS31では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、利用者は、指F1を3次元オブジェクトOB1と接触させている。
 ここで、利用者が指F1を3次元オブジェクトOB1の内側に侵入させたものとする。表示装置1は、3次元オブジェクトOB1に接触した物体が3次元オブジェクトOB1の内側に移動したことを検出すると、ステップS32に示すように、その時点から、3次元オブジェクトOB1を指F1による操作に応じて変化させる。図21に示す例では、ステップS32において、3次元オブジェクトOB1は、指F1の移動に合わせて移動を開始している。
 そして、表示装置1は、ステップS33に示すように、指F1が3次元オブジェクトOB1の内側へ向けて移動することが所定時間以上継続した段階で、3次元オブジェクトOB1を操作対象として確定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として確定したことを利用者に通知する。その後も、指F1の3次元オブジェクトOB1の内側への移動が検出される間、表示装置1は、3次元オブジェクトOB1を変化させ続ける。
 図22のステップS34に示すように、所定時間が経過する前に指F1の3次元オブジェクトOB1の内側への移動が検出されなくなった場合、表示装置1は、それまでに加えた変化と逆の変化を3次元オブジェクトOB1に加える。その結果、3次元オブジェクトOB1は、ステップS31の段階と同じ位置に同じ状態で表示される。逆の変化を3次元オブジェクトOB1に加える速度は、それまでに3次元オブジェクトOB1に変化が加えられた速度よりも速くてもよい。すなわち、高速に逆再生しているかのように3次元オブジェクトOB1を逆変化させてもよい。
 このように、3次元オブジェクトの内側への物体の侵入が検出された段階から3次元オブジェクトに変化を加え始めることにより、利用者は、3次元オブジェクトが選択されつつあることを選択が確定する前から認識することができる。その結果、利用者は、意図した3次元オブジェクトが選択されたか否かを早期に知ることができる。意図しない3次元オブジェクトが選択された場合、利用者は、所定時間が経過する前に操作を中止することにより、意図せずに選択された3次元オブジェクトを元の状態に戻すことができる。
 指F1の3次元オブジェクトOB1の内側への移動が所定時間以上継続するまでは、変化を加えられている3次元オブジェクトを通常時とも操作対象としての選択が確定した状態とも異なる態様(例えば、半透明)で表示してもよい。このように表示態様を変更することにより、利用者が3次元オブジェクトの状態を判別しやすくなる。
 次に、図23を参照しながら、第3の例における操作検出処理の処理手順について説明する。図23は、操作検出処理の処理手順を示すフローチャートである。図23に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。接触検出処理の処理手順は、図17に示した手順と同様である。
 図23に示すように、制御部22は、まず、ステップSD01として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSD01,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。
 所定の物体が3次元オブジェクトの内部に移動している場合(ステップSD01,Yes)、制御部22は、ステップSD02として、所定の物体の速度を算出する。そして、制御部22は、ステップSD03として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。
 続いて、制御部22は、ステップSD04として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合、すなわち、3次元オブジェクトが押す操作の対象として確定していない場合(ステップSD04,No)、制御部22は、ステップSD05として、所定の物体の3次元オブジェクトの内部方向への移動が継続しているかを判定する。
 3次元オブジェクトの内部方向への移動が継続している場合(ステップSD05,Yes)、制御部22は、ステップSD02以降を再実行する。3次元オブジェクトの内部方向への移動が継続していない場合(ステップSD05,No)、制御部22は、ステップSD06として、3次元オブジェクトを逆変化させて元の状態に戻す。そして、制御部22は、操作検出処理を終了させる。
 接触検出からの経過時間が所定時間以上である場合(ステップSD04,Yes)、制御部22は、ステップSD07として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSD07,No)、制御部22は、ステップSD02以降を再実行する。
 所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSD07,Yes)、制御部22は、ステップSD08として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。
 3次元オブジェクトの変化が継続する場合(ステップSD08,Yes)、制御部22は、ステップSD09として、3次元オブジェクトを変化させ、その後、ステップSD08以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSD08,No)、制御部22は、操作検出処理を終了させる。
 上述してきたように、第3の例では、押す操作が検出された時点から、操作に応じて3次元オブジェクトを変化させることとしたので、利用者が、押す操作の対象となっている3次元オブジェクトを認識しやすい。
 3次元オブジェクトに関する操作として、3次元オブジェクトを押す操作について説明したが、表示装置1が3次元オブジェクトに関して検出する操作は、押す操作に限定されない。表示装置1は、利用者が3次元オブジェクトを摘んで行う操作も検出することができる。以下に3次元オブジェクトを摘んで行う操作について説明する。
 図24を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図24は、3次元オブジェクトを摘んで行う操作の検出について説明するための図である。図24に示すステップS41では、表示空間50中に、3次元オブジェクトOB1が立体的に表示されている。
 ここで、利用者が3次元オブジェクトOB1を摘んで何らかの操作を行いたいものとする。3次元オブジェクトOB1を摘んで何らかの操作を行うには、まず、操作の対象として3次元オブジェクトOB1を選択する必要がある。3次元オブジェクトOB1を選択するために、利用者は、ステップS42に示すように、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させ、その状態を所定時間以上維持する。
 表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する状態が所定時間以上継続した場合、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。
 2つの物体の間に3次元オブジェクトOB1が位置しているかの判定は、現実の空間における2つの物体の位置と、3次元オブジェクトOB1の形状、姿勢、仮想空間における位置等に基づいて行われる。現実の空間での位置と仮想空間における位置との比較は、一方の空間の位置を上記の所定の規則に基づいて他方の空間の位置へ換算することによって行ってもよいし、両方の空間の位置を比較用の空間の位置へ換算することによって行ってもよい。現実の物体として指が検出された場合、指のつま先の位置を物体の位置として処理してもよい。
 このように、表示装置1は、指等の現実の物体の間に3次元オブジェクトOB1が位置する状態が所定時間以上継続して検出された場合に、3次元オブジェクトOB1が選択されたと判定する。指の間に3次元オブジェクトOB1を挟むように指を配置するという操作は、人間が現実の空間の何かを選択するために何かを摘む操作と類似している。そのため、かかる操作は、3次元オブジェクトを選択するための操作として、直感的で分かりやすい。また、状態が所定時間以上継続して検出されることを条件として付加することにより、例えば、他の3次元オブジェクトを選択するために指を移動させる過程で、意図しない3次元オブジェクトが選択される可能性を低くすることができる。
 表示装置1は、3次元オブジェクトOB1が選択状態になったと判定した後、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失等の変化を加える。
 次に、図25および図26を参照しながら、3次元オブジェクトを摘んで行う操作に関して表示装置1が実行する処理手順の第1の例について説明する。図25は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図25に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図25に示すように、制御部22は、まず、ステップSE01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。
 続いて、制御部22は、ステップSE02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体は、現実の物体、例えば、利用者の指である。第1の物体および第2の物体が検出されない場合(ステップSE02,No)、制御部22は、ステップSE10として、操作終了が検出されたかを判定する。
 操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出される。操作終了が検出された場合(ステップSE10,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSE10,No)、制御部22は、ステップSE02以降を再実行する。
 第1の物体および第2の物体が検出された場合(ステップSE02,Yes)、制御部22は、ステップSE03として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSE04,No)、制御部22は、ステップSE10へ進む。
 第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSE04,Yes)、制御部22は、ステップSE05として、第1の物体と第2の物体との間に3次元オブジェクトが位置している時間を取得する。取得した時間が所定時間未満の場合(ステップSE06,No)、制御部22は、ステップSE10へ進む。
 取得した時間が所定時間以上の場合(ステップSE06,Yes)、制御部22は、ステップSE07として、第1の物体と第2の物体の距離を算出する。また、制御部22は、ステップSE08として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを選択状態にする。そして、制御部22は、ステップSE09として、後述する操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSE10へ進む。
 図26は、操作検出処理の処理手順を示すフローチャートである。図26に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図26に示すように、制御部22は、まず、ステップSF01として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSF02として、操作検出処理の開始時点以降の第1の物体と第2の物体の距離がほぼ一定であるかを判定する。距離がほぼ一定とは、例えば、現時点での第1の物体と第2の物体の距離の変化量が、操作検出処理の開始時点の距離と比較して、所定の範囲(第1の物体および第2の物体が通常の速度で移動した場合の距離の最大変化量の±10%等)以内に収まっていることを意味する。また、第1の物体と第2の物体の距離が操作検出処理の開始時点以降縮まり続けている場合(第1の物体および第2の物体が3次元オブジェクトを押しつぶす方向に移動している場合)に、距離がほぼ一定であると判定してもよい。また、手振れ等の範囲内でしか両者の距離が変化していない場合に、距離がほぼ一定であると判定してもよい。
 第1の物体と第2の物体の距離がほぼ一定の場合(ステップSF02,Yes)、制御部22は、ステップSF03として、第1の物体および第2の物体の移動速度を算出する。続いて、制御部22は、ステップSF04として、算出した移動速度が閾値以下であるかを判定する。ここで用いられる閾値は、例えば、人がものを放り投げるときの指先の移動速度である。また、閾値と比較される移動速度は、第1の物体の移動速度と第2の物体の移動速度の平均であってもよいし、いずれか速い方であってもよいし、いずれか遅い方であってもよい。
 移動速度が閾値以下の場合(ステップSF04,Yes)、制御部22は、ステップSF05として、検出された第1の物体および第2の物体の動きに応じて3次元オブジェクトに変化を加える。例えば、第1の物体および第2の物体の右方向への移動が検出された場合、制御部22は、第1の物体および第2の物体の移動に合わせて3次元オブジェクトを右方向へ移動させる。第1の物体および第2の物体の左回りでの回転が検出された場合、制御部22は、第1の物体および第2の物体の回転に合わせて3次元オブジェクトを左回りで回転させる。移動と回転が同時に検出された場合、移動と回転が同時に実行される。3次元オブジェクトの移動や回転に対する障害物がある場合、3次元オブジェクトが障害物に接触した時点で3次元オブジェクトの移動や回転を停止させてもよい。障害物は、現実の物体でもよいし、他の3次元オブジェクトでもよい。その後、制御部22は、ステップSF01以降を再実行する。
 移動速度が閾値より速い場合(ステップSF04,No)、制御部22は、ステップSF06として、3次元オブジェクトを消去する。3次元オブジェクトを消去するに際して、3次元オブジェクトが第1の物体および第2の物体の移動方向へ向けて飛んでいくようにアニメーション表示してもよい。そして、制御部22は、操作検出処理を終了させる。このように、3次元オブジェクトを放り投げるように第1の物体および第2の物体が高速で移動した場合に3次元オブジェクトを消去することにより、直感的な操作によって3次元オブジェクトの消去を実現することができる。第1の物体および第2の物体を高速で移動させる操作ではなく、例えば、3次元オブジェクトを握りつぶす操作に3次元オブジェクトの消去を割り当ててもよい。また、3次元オブジェクトを消去する代わりに、3次元オブジェクトを当初の配置場所に戻すこととしてもよい。表示装置1は、ステップSF03、SF04およびステップSF06の処理を行わなくてもよい。すなわち、表示装置1は、ステップSF02で第1の物体と第2の物体の距離がほぼ一定と判定した場合には、2つの物体の移動速度にかかわらず、ステップSF05を実行してもよい。
 第1の物体と第2の物体の距離がほぼ一定でない場合(ステップSF02,No)、制御部22は、ステップSF07として、距離が、3次元オブジェクトの選択時、すなわち、操作検出処理の開始時点よりも拡大しているかを判定する。距離が拡大している場合(ステップSF07,Yes)、制御部22は、ステップSF08として、3次元オブジェクトの選択状態を解除する。第1の物体と第2の物体の距離を拡大するという操作は、摘んでいる現実のオブジェクトを放す操作と類似している。そのため、かかる操作は、3次元オブジェクトの選択を解除するための操作として、直感的で分かりやすい。
 続いて、制御部22は、ステップSF09として、選択状態を解除した3次元オブジェクトを重力等に従って移動させる。そして、制御部22は、操作検出処理を終了させる。ここでの移動は、例えば、3次元オブジェクトが重力に従って落下し、床やテーブルの上で停止するように表示される。3次元オブジェクトの動きを停止させる前に、3次元オブジェクトの弾性や床やテーブルの硬度に応じて3次元オブジェクトをバウンドさせてもよい。3次元オブジェクトが床やテーブルに衝突するときの衝撃の大きさを算出し、衝撃が所定の値よりも大きい場合には3次元オブジェクトを破損したように表示してもよい。また、実際の重力が働く場合よりも3次元オブジェクトをゆっくりと移動させてもよい。
 第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合(ステップSF07,No)、制御部22は、ステップSF10として、距離に応じて3次元オブジェクトを変形させる。そして、制御部22は、ステップSF01以降を再実行する。3次元オブジェクトを変形させる程度は、例えば、3次元オブジェクトに属性として設定されている弾性に応じて変更してもよい。制御部22は、ゴムボールを模した3次元オブジェクトのように属性として低い硬度を設定されているオブジェクトについては、第1の物体と第2の物体の距離が縮まるに応じて変形の度合いを高めてよい。また、制御部22は、積み木を模した3次元オブジェクトのように属性として高い硬度を設定されているオブジェクトについては、第1の物体と第2の物体の距離が縮まっても変形の度合いを小さく保ってよい。
 第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合に、表示装置1は、3次元オブジェクトを変形させるのではなく縮小させてもよい。第1の物体と第2の物体の距離が所定の値以下になった場合に、表示装置1は、3次元オブジェクトを破損したように表示してもよい。
 上述してきたように、第1の例では、指等の物体の間に3次元オブジェクトが位置する状態が所定時間以上継続した場合に3次元オブジェクトが選択されることとしたので、3次元オブジェクトの選択を直感的で分かりやすい操作により実現することができる。
 図27に示すように、表示装置1は、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触している状態が所定時間以上継続することを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。
 3次元オブジェクトを摘んで行う操作に関する処理手順の第2の例について説明する。第2の例における操作検出処理は、第1の例における操作検出処理と同一である。そこで、第2の例については、第1の例と重複する説明は省略し、主として、選択検出処理について説明する。
 まず、図28を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図28は、3次元オブジェクトを摘んで行う操作の検出について説明するための図である。図28に示すステップS51では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、3次元オブジェクトOB1を選択するために、利用者は、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させている。
 表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する場合、2つの物体の距離の変化を監視する。そして、距離が所定時間以上ほぼ一定であれば、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。
 表示装置1が2つの物体の距離の変化を監視している間、2つの物体は、3次元オブジェクトOB1を挟む位置に留まる必要はない。すなわち、利用者は、ステップS51に示したように指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させた後、その状態を保つことなく、指F1および指F2を他の位置へ移動させて構わない。
 ステップS51の状態から、ステップS52に示すように、利用者が、指F1と指F2の距離D1をほぼ一定に保ったまま移動させたものとする。この場合、表示装置1は、ステップS53に示すように、指F1と指F2の距離D1がほぼ一定に保たれた状態が所定時間以上継続した段階で、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1を、あたかもステップS51の段階で既に選択されていたかのように、指F1および指F2の間に移動させる。表示装置1は、ステップS51からステップS53までの指F1と指F2の動きを記憶しておき、記憶しておいた動きに合わせて3次元オブジェクトOB1を回転等させてもよい。その後、表示装置1は、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失等の変化を加える。
 このように、2つの物体が3次元オブジェクトを挟む位置に一旦移動した後は、物体がその場に留まらなくても3次元オブジェクトを選択可能にすることにより、利用者は、3次元オブジェクトを選択した後の操作を迅速に開始することができる。
 次に、図29を参照しながら、第2の例における選択検出処理の処理手順について説明する。図29は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図29に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図29に示すように、制御部22は、まず、ステップSG01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。続いて、制御部22は、ステップSG02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体が検出されない場合(ステップSG02,No)、制御部22は、ステップSG14として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトの仮選択状態を解除する。仮選択状態とは、2つの物体の間に3次元オブジェクトが表示されている状態が検出された後、2つの物体の距離がほぼ一定に保たれているかが監視されている状態である。
 そして、制御部22は、ステップSG15として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップSG15,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSG15,No)、制御部22は、ステップSG02以降を再実行する。
 第1の物体および第2の物体が検出された場合(ステップSG02,Yes)、制御部22は、ステップSG03として、仮選択状態の3次元オブジェクトがあるか否かを判定する。仮選択状態の3次元オブジェクトがない場合(ステップSG03,No)、制御部22は、ステップSG04として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSG05,No)、制御部22は、ステップSG15へ進む。
 第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSG05,Yes)、制御部22は、ステップSG06として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを仮選択状態にする。また、制御部22は、ステップSG07として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSG15へ進む。
 第1の物体および第2の物体が検出され、かつ、仮選択状態の3次元オブジェクトがある場合(ステップSG03,Yes)、制御部22は、ステップSG08として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSG09として、距離がほぼ一定であるかを判定する。距離がほぼ一定でない場合(ステップSG09,No)、制御部22は、ステップSG14として、仮選択状態の3次元オブジェクトの仮選択状態を解除する。そして、制御部22は、ステップSG15へ進む。
 第1の物体と第2の物体の距離がほぼ一定の場合(ステップSG09,Yes)、制御部22は、ステップSG10として、距離がほぼ一定に保たれている期間が所定時間以上であるかを判定する。距離がほぼ一定に保たれている期間が所定時間未満の場合(ステップSG10,No)、制御部22は、ステップSG15へ進む。
 距離がほぼ一定に保たれている期間が所定時間以上の場合(ステップSG10,Yes)、制御部22は、ステップSG11として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを選択状態にする。また、制御部22は、ステップSG12として、第1の物体と第2の物体との間に3次元オブジェクトを移動させる。そして、制御部22は、ステップSG13として、図26に示した操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSG15へ進む。
 上述してきたように、第2の例では、指等の物体の間に3次元オブジェクトが位置した後、物体の距離が所定時間以上ほぼ一定に保たれた場合に3次元オブジェクトが選択されることとしたので、利用者は、3次元オブジェクトの選択後の操作を迅速に開始することができる。
 図30は、3次元オブジェクトを摘んで行う操作の検出の第2の例の変形例について説明するための図である。図30に示すステップS61からステップS63のように、表示装置1は、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触した後に第1の物体と第2の物体の距離が所定時間以上ほぼ一定に保たれることを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。
 3次元オブジェクトを摘んで行う操作に関する処理手順の第3の例について説明する。第3の例については、第1の例と重複する説明は省略し、主として、選択検出処理および操作検出処理について説明する。
 まず、図31および図32を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図31および図32は、3次元オブジェクトを摘んで行う操作の検出の第3の変形例について説明するための図である。図31に示すステップS71では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、3次元オブジェクトOB1を選択するために、利用者は、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させている。
 表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する場合、2つの物体の距離の変化を監視する。そして、距離が所定時間以上ほぼ一定であれば、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。
 表示装置1が2つの物体の距離の変化を監視している間、2つの物体は、3次元オブジェクトOB1を挟む位置に留まる必要はない。すなわち、利用者は、ステップS71に示したように指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させた後、その状態を保つことなく、指F1および指F2を他の位置へ移動させて構わない。
 ステップS71の状態から、ステップS72に示すように、利用者が、指F1と指F2の距離D1をほぼ一定に保ったまま移動させたものとする。この場合、表示装置1は、指F1と指F2の間に3次元オブジェクトOB1が表示されていることが検出された段階、すなわち、ステップS71の段階から、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失等の変化を加える。そして、表示装置1は、ステップS73に示すように、指F1と指F2の距離D1がほぼ一定に保たれた状態が所定時間以上継続した段階で、3次元オブジェクトOB1を選択状態にする。
 図32のステップS74に示すように、所定時間が経過する前に指F1と指F2の距離D1が拡大した場合、すなわち、選択が行われなかった場合、表示装置1は、それまでに加えた変化と逆の変化を3次元オブジェクトOB1に加える。その結果、3次元オブジェクトOB1は、ステップS71の段階と同じ位置に同じ状態で表示される。逆の変化を3次元オブジェクトOB1に加える速度は、それまでに3次元オブジェクトOB1に変化が加えられた速度よりも速くてもよい。すなわち、高速に逆再生しているかのように3次元オブジェクトOB1を逆変化させてもよい。
 このように、2つの物体の間に3次元オブジェクトが表示されていることが検出された段階から3次元オブジェクトに変化を加え始めることにより、利用者は、3次元オブジェクトが選択されつつあることを選択が確定する前から認識することができる。その結果、利用者は、意図した3次元オブジェクトが選択されたか否かを早期に知ることができる。表示装置1は、2つの物体の距離がほぼ一定に保たれた状態が所定時間以上継続するまでは、変化を加えられている3次元オブジェクトを通常時とも選択状態とも異なる態様(例えば、半透明)で表示することにより、利用者が3次元オブジェクトの状態を判別しやすくしてもよい。
 次に、図33および図34を参照しながら、3次元オブジェクトを摘んで行う操作に関して表示装置1が実行する処理手順について説明する。図33は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図33に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。
 図33に示すように、制御部22は、まず、ステップSH01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。続いて、制御部22は、ステップSH02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体が検出されない場合(ステップSH02,No)、制御部22は、ステップSH10として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトの仮選択状態を解除する。
 そして、制御部22は、ステップSH11として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップSH11,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSH11,No)、制御部22は、ステップSH02以降を再実行する。
 第1の物体および第2の物体が検出された場合(ステップSH02,Yes)、制御部22は、ステップSH03として、仮選択状態の3次元オブジェクトがあるか否かを判定する。仮選択状態の3次元オブジェクトがない場合(ステップSH03,No)、制御部22は、ステップSH04として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSH05,No)、制御部22は、ステップSH11へ進む。
 第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSH05,Yes)、制御部22は、ステップSH06として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを仮選択状態にする。また、制御部22は、ステップSH07として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSH11へ進む。
 第1の物体および第2の物体が検出され、かつ、仮選択状態の3次元オブジェクトがある場合(ステップSH03,Yes)、制御部22は、ステップSH08として、第1の物体と第2の物体の少なくとも一方が移動しているかを判定する。第1の物体と第2の物体のいずれも移動していない場合(ステップSH08,No)、制御部22は、ステップSH11へ進む。
 第1の物体と第2の物体の少なくとも一方が移動している場合(ステップSH08,Yes)、制御部22は、ステップSH09として、図34に示す操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSH11へ進む。
 図34は、操作検出処理の処理手順を示すフローチャートである。図34に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。図34に示すように、制御部22は、まず、ステップSI01として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSI02として、操作検出処理の開始時点以降の第1の物体と第2の物体の距離がほぼ一定であるかを判定する。
 第1の物体と第2の物体の距離がほぼ一定の場合(ステップSI02,Yes)、制御部22は、ステップSI03として、操作検出処理が開始されてから所定時間が経過したかを判定する。所定時間が経過していた場合(ステップSI03,Yes)、制御部22は、ステップSI04として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトを選択状態にする。所定時間が経過していない場合(ステップSI03,No)、ステップSI04は実行されない。
 続いて、制御部22は、ステップSI05として、第1の物体および第2の物体の移動速度を算出する。そして、制御部22は、ステップSI06として、算出した移動速度が閾値以下であるかを判定する。移動速度が閾値以下の場合(ステップSI06,Yes)、制御部22は、ステップSI07として、検出された第1の物体および第2の物体の動きに応じて3次元オブジェクトを移動させたり回転させたりする。そして、制御部22は、ステップSI01以降を再実行する。
 移動速度が閾値より速い場合(ステップSI06,No)、制御部22は、ステップSI08として、3次元オブジェクトを消去する。3次元オブジェクトを消去するに際して、3次元オブジェクトが第1の物体および第2の物体の移動方向へ向けて飛んでいくようにアニメーション表示してもよい。そして、制御部22は、操作検出処理を終了させる。第1の物体および第2の物体を高速で移動させる操作ではなく、例えば、3次元オブジェクトを握りつぶす操作に3次元オブジェクトの消去を割り当ててもよい。3次元オブジェクトを消去する代わりに、3次元オブジェクトを当初の配置場所に戻すこととしてもよい。表示装置1は、ステップSI05、SI06およびステップSI08の処理を行わなくてもよい。すなわち、表示装置1は、ステップSI03でNoと判定した場合またはステップSI04を実行した後に、2つの物体の移動速度にかかわらず、ステップSI07を実行してもよい。
 第1の物体と第2の物体の距離がほぼ一定でない場合(ステップSI02,No)、制御部22は、ステップSI09として、距離が、3次元オブジェクトの選択時、すなわち、操作検出処理の開始時点よりも拡大しているかを判定する。距離が拡大している場合(ステップSI09,Yes)、制御部22は、ステップSI10として、第1の物体と第2の物体の間に表示されていた3次元オブジェクトが仮選択状態であるかを判定する。
 3次元オブジェクトが仮選択状態である場合(ステップSI10,Yes)、制御部22は、ステップSI11として、3次元オブジェクトの仮選択状態を解除する。また、制御部22は、ステップSI12として、3次元オブジェクトを逆変化させて元の状態に戻す。そして、制御部22は、操作検出処理を終了させる。
 3次元オブジェクトが仮選択状態でない場合、すなわち、選択状態の場合(ステップSI10,No)、制御部22は、ステップSI13として、3次元オブジェクトの選択状態を解除する。また、制御部22は、ステップSI14として、選択状態を解除した3次元オブジェクトを重力等に従って移動させる。そして、制御部22は、操作検出処理を終了させる。ここでの移動は、例えば、3次元オブジェクトが重力に従って落下し、床やテーブルの上で停止するように表示される。3次元オブジェクトの動きを停止させる前に、3次元オブジェクトの弾性や床やテーブルの硬度に応じて3次元オブジェクトをバウンドさせてもよい。3次元オブジェクトが床やテーブルに衝突するときの衝撃の大きさを算出し、衝撃が所定の値よりも大きい場合には3次元オブジェクトを破損したように表示してもよい。また、実際の重力が働く場合よりも3次元オブジェクトをゆっくりと移動させてもよい。
 第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合(ステップSI09,No)、制御部22は、ステップSI15として、距離に応じて3次元オブジェクトを変形させる。そして、制御部22は、ステップSI01以降を再実行する。3次元オブジェクトを変形させる程度は、例えば、3次元オブジェクトに属性として設定されている硬度に応じて変更してもよい。
 上述してきたように、第3の例では、指等の物体の間に3次元オブジェクトが位置していることが検出された時点から、操作に応じて3次元オブジェクトを変化させることとしたので、利用者が3次元オブジェクトの選択を認識しやすい。
 図35は、3次元オブジェクトを摘んで行う操作の検出の第3の例の変形例について説明するための図である。図35に示すステップS81からステップS83のように、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触した後に第1の物体と第2の物体の距離が所定時間以上ほぼ一定に保たれることを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。
 上記の実施例において説明した表示装置1は各種の用途に適用できる。操作の対象となる3次元オブジェクト(表示物)は、例えば、本、積み木、スプーン、箸、トランプ、粘土、楽器のように現実に存在するものを模したオブジェクトであってもよいし、仮想のアバター、ゲームのキャラクター、仮想現実のARタグのように実在はしないオブジェクトであってもよい。また、検出された操作に応じて3次元オブジェクトに加えられる変化は、上記の移動、変形、消失等に限定されない。例えば、検出された操作に応じて3次元オブジェクトに加えられる変化は、回転、置換等を含む。置換とは、一の3次元オブジェクトを他の3次元オブジェクトに置換することをいう。また、押す操作に応じて3次元オブジェクトに加えられる変化は、上記の実施例に限定されず、3次元オブジェクトの種類に応じて変更してよい。
 例えば、粘土を模した3次元オブジェクト(以下、単に「粘土」という)を操作対象とする場合、押す操作に応じて粘土を変形させて、利用者が粘土を任意の形に成形できるようにしてもよい。また、時間の経過にしたがって、あたかも粘土が乾いていくかのように、粘土を硬化させていく、あるいは、粘土の粘性を低下させていってもよい。また、水の3次元オブジェクトに浸けた指や手で粘土を押す操作が検出された場合に、粘土の粘性を向上させてもよい。
 また、レコード盤を模した3次元オブジェクト(以下、単に「レコード盤」という)を操作対象とする場合、押す操作に応じてレコード盤が支点を中心として回転するとともに、音を再生するようにしてもよい。回転と音の再生を連動させることにより、ディスクジョッキーによるスクラッチ等の技法を仮想的に実現してもよい。
 実施例1では、表示装置が、3次元オブジェクトに対する操作を検出し、検出した操作に応じて3次元オブジェクトに変化を加える例について説明した。しかしながら、表示装置は、3次元オブジェクトに対する操作に応じて、検出部によって検出される所定の物体の変位に応じて3次元オブジェクトに関連づけられた動作を行ってもよい。検出部によって検出される所定の物体の変位に応じて3次元オブジェクトに関連づけられた動作を行う表示装置の例について説明する。
 まず、図36および図37を参照しながら、第2の実施例に係る表示装置5の構成について説明する。図36は、表示装置5の斜視図である。図37は、表示装置5のブロック図である。以下の説明では、既に説明した部分と同様の部分には、既に説明した部分と同一の符号を付すことがある。以下の説明では、既に行った説明と重複する説明を省略することがある。図36および図37に示すように、表示装置5は、プロジェクタ34をさらに備える点と、記憶部24に制御プログラム24aに代えて制御プログラム24eを記憶する点とを除いて、表示装置1と同様の構成を有する。
 プロジェクタ34は、制御部22から送信される信号に従って、投影部34aから画像を投影する。投影される画像は、スクリーン、壁等に表示され、表示装置5を装着している利用者以外の人も見ることができる。プロジェクタ34が画像を投影する方式は特に限定しない。例えば、プロジェクタ34は、光源から照射されるレーザー光をMEMS(Micro Electro Mechanical System)ミラーで反射して画像を描画してもよい。プロジェクタ34は、ハロゲンライト、LED、LD等の光源と、LCD、DMD(Digital Micro-mirror Device)等の光学系とを組み合わせて構成されてもよい。表示装置5は、プロジェクタ34に代えて、外部ディスプレイを備えてもよい。
 制御プログラム24eは、連動表示制御部28をさらに含む点を除いて制御プログラム24aと同様の構成を有する。連動表示制御部28は、表示部32aおよび32bに表示する情報と関連する情報をプロジェクタ34に投影させる機能を提供する。連動表示制御部28が提供する機能には、表示空間中の3次元オブジェクトに対する操作に応じた3次元オブジェクトの変化と連動して、プロジェクタ34に投影させる情報を変化させる機能が含まれる。
 次に、図38から図41を参照しながら、3次元オブジェクトの変化と連動した表示制御の例について説明する。図38は、3次元オブジェクトの変化と連動した表示制御の一例を示す図である。図39は、指F1を3次元オブジェクトに一瞬接触させる操作の軌跡の一例を示す図である。図40は、指F1を3次元オブジェクトに沿って移動させる操作の軌跡の一例を示す図である。図41は、指F1で3次元オブジェクトを押しつぶす操作の軌跡の一例を示す図である。
 図38に示すステップS91では、制御部22は、球形の地球儀を3次元オブジェクトOB2として、表示空間中に表示させている。さらに、制御部22は、表示装置5を装着している利用者から見て3次元オブジェクトOB2の中心に位置している日本を拡大した地図を投影画像P4としてプロジェクタ34から投影している。このように、制御部22は、表示空間中に表示される3次元オブジェクトOB2と関連する画像をプロジェクタ34から投影させる。投影画像P4が撮影部40および42の撮影範囲内に投影される場合、利用者は、撮影部40および42に撮影される画像により、投影画像P4の状態を確認することができる。
 この例では、3次元オブジェクトOB2の中心に位置している日本に関連する画像として日本の地図を投影させているが、地図に代えて、日本の国旗、国花等日本に関連する他の画像を投影させてもよい。画像は、記憶部24に予め記憶されていてもよいし、有線または無線による通信によって他の装置から取得されてもよい。
 ステップS91の状態において、図39に示すような指F1を斜め下へ移動させて3次元オブジェクトOB2に一瞬接触させて直ぐに離す操作が検出されたものとする。この操作は、タッチパネルに指F1を一瞬接触させて直ぐに離すタップ操作と類似しているが、タップ操作は平面上の点しか選択できないのに対して、3次元オブジェクトOB2の任意の場所を選択できる点において優れている。
 図39に示すような操作が検出されると、制御部22は、指F1によって接触された位置が選択されたと判定し、選択された位置に対応する処理を実行する。選択された位置に対応する処理とは、例えば、選択された位置に対応する詳細情報をプロジェクタ34から投影する処理である。本実施例では、選択された位置に対応する処理として、選択された位置が中心になるように3次元オブジェクトOB2を回転させる処理が実行されるものとする。
 図38に示すステップS92では、図39に示すような操作が検出された結果、制御部22は、接触されたフロリダ半島付近が中心になるように3次元オブジェクトOB2を回転させている。3次元オブジェクトOB2の回転と連動して、制御部22は、3次元オブジェクトOB2の中心へ移動したフロリダ半島付近の地図を投影画像P4としてプロジェクタ34から投影させている。3次元オブジェクトOB2に一瞬接触させるために指F1を移動させる方向は、斜め下方向に限定されず、どの方向であってもよい。
 ステップS91の状態において、図40に示すような指F1を3次元オブジェクトOB2に沿って移動させる操作が検出されたものとする。図40に示すような操作が検出されると、制御部22は、指F1の移動方向および移動量に応じて3次元オブジェクトOB2を回転させる。このように、3次元オブジェクトOB2に沿った指F1の移動に応じた処理として3次元オブジェクトOB2を回転させることは、利用者にとって直感的で覚えやすい。
 図38に示すステップS93では、図40に示すような操作が検出された結果、制御部22は、3次元オブジェクトOB2を左方向に指F1の移動量に応じた角度だけ回転させている。3次元オブジェクトOB2の回転と連動して、制御部22は、3次元オブジェクトOB2の中心へ移動したフロリダ半島付近の地図を投影画像P4としてプロジェクタ34から投影させている。
 ステップS91の状態において、図41に示すような指F1を使って3次元オブジェクトOB2を上から押しつぶすような操作が検出されたものとする。図41に示すような操作が検出されると、制御部22は、利用者が指F1を3次元オブジェクトOB2に押し込む量に応じて3次元オブジェクトOB2を縮小させる。このように、3次元オブジェクトOB2を押しつぶす操作に応じた処理として3次元オブジェクトOB2を縮小させることは、利用者にとって直感的で覚えやすい。
 図38に示すステップS94では、図41に示すような操作が検出された結果、制御部22は、3次元オブジェクトOB2を縮小させている。さらに、制御部22は、3次元オブジェクトOB2の縮小と連動して、投影画像P4としてプロジェクタ34から投影される地図も縮小させている。
 次に、図42を参照しながら、3次元オブジェクトの変化と連動して実行される表示制御の処理手順について説明する。図42は、3次元オブジェクトの変化と連動して実行される表示制御の処理手順を示すフローチャートである。図42に示す処理手順は、制御部22が制御プログラム24eを実行することによって実現される。
 図42に示すように、制御部22は、まず、ステップSJ01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示部32aおよび表示部32bに表示する。また、制御部22は、ステップSJ02として、3次元オブジェクトに対応する画像をプロジェクタ34から投影させる。
 続いて、制御部22は、ステップSJ03として、検出部44によって指が検出されているかを判定する。検出部44によって指が検出されていない場合(ステップSJ03,No)、制御部22は、ステップSJ08として、利用者による終了操作が検出されたかを判定する。終了操作が検出されていない場合(ステップSJ08,No)、制御部22は、ステップSJ03以降を再実行する。一方、終了操作が検出されていた場合(ステップSJ08,Yes)、制御部22は、処理手順を終了させる。
 ステップSJ03において指が検出されている場合(ステップSJ03,Yes)、制御部22は、ステップSJ04として、検出部44の検出結果に基づいて、3次元空間での指の動きを判定する。そして、3次元オブジェクトに指が一瞬接触する動作が検出された場合(ステップSJ05,Yes)、制御部22は、ステップSJ06として、接触された位置に対応する処理を実行する。そして、制御部22は、ステップSJ07として、3次元オブジェクトに対応づけて投影されている画像を更新し、ステップSJ08へ進む。
 3次元オブジェクトに沿って指が移動する動作に対応する変位が検出された場合(ステップSJ05,No、ステップSJ09,Yes)、制御部22は、ステップSJ10として、指の移動方向および移動量に応じて3次元オブジェクトを回転させる。そして、制御部22は、ステップSJ07として、3次元オブジェクトに対応づけて投影されている画像を更新し、ステップSJ08へ進む。
 指で3次元オブジェクトを押しつぶすような動作に対応する変位が検出された場合(ステップSJ09,No、ステップSJ11,Yes)、制御部22は、ステップSJ12として、指を3次元オブジェクトに押し込む量に応じて3次元オブジェクトを縮小させる。そして、制御部22は、ステップSJ07として、3次元オブジェクトに対応づけて投影されている画像を更新し、ステップSJ08へ進む。
 上記の動作のいずれも検出されない場合(ステップSJ11,No)、制御部22は、投影されている画像をそのまま維持して、ステップSJ08へ進む。
 上述してきたように、本実施例では、3次元空間での指の動きに基づいて利用者の操作を検出することとしたため、利用者に多様な操作方法を提供することができる。さらに、検出した操作に応じた3次元オブジェクトの変化と連動して、外部に表示または投影する情報を更新することとしたため、第三者に提供する情報を更新するための操作に関しても、利用者に多様な操作方法を提供することができる。
 上記の実施例では、3次元空間での指の動きに基づいて3種類の操作を検出することとしたが、3次元空間での指や手の動きに基づいて検出される操作は、これらに限定されない。例えば、創作プログラムと連係して、利用者が3次元表示されたブロックや粘度を指で操作して像や建物を製作できるようにしてもよい。また、レースゲームプログラムと連係して、利用者が3次元表示されたハンドルを手で操作してレースを楽しめるようにしてもよい。
 また、楽器演奏プログラムと連係して、利用者が3次元表示されたピアノや鍵盤を指で操作して演奏を楽しめるようにしてもよい。また、データ表示プログラムと連係して、3次元表示された形状の任意の部分を手で切断すると、切断面の画像がプロジェクタ34から投影されることとしてもよい。
 図43を参照しながら、第3の実施例に係る表示装置6の構成について説明する。図43は、表示装置6のブロック図である。図43に示すように、表示装置6は、通信部16と動きセンサ48とをさらに備える点と、記憶部24に制御プログラム24aに代えて制御プログラム24fを記憶する点とを除いて、表示装置1と同様の構成を有する。記憶部24は、カタログデータ24gをさらに記憶する。また、表示装置6は、上記の表示装置2から4のいずれかの構成であってもよい。
 通信部16は、他の装置との間で通信を行う。通信部16は、無線LANまたはBluetooth(登録商標)のように比較的狭い範囲で無線通信を行う通信方式をサポートしてもよいし、通信キャリア向けの3G通信方式または4G通信方式のように比較的広い範囲で無線通信を行う通信方式をサポートしてもよい。通信部16は、イーサネット(登録商標)のような有線による通信方式をサポートしてもよい。通信部16は、複数の通信方式をサポートしてもよい。
 動きセンサ48は、表示装置6の位置の変化および方向(姿勢)の変化を検出する。位置の変化および方向の変化は、3次元的に検出される。すなわち、動きセンサ48は、水平方向だけでなく、垂直方向での位置の変化および方向の変化を検出する。動きセンサ48は、表示装置6の位置の変化および方向の変化を検出するために、例えば、3軸加速度センサを備える。動きセンサ48は、表示装置6の位置の変化を検出するために、GPS(Global Positioning System)レシーバまたは気圧センサを備えてもよい。動きセンサ48は、表示装置6の位置の変化を検出するために、測距部46による距離の測定結果を利用してもよい。動きセンサ48は、複数の方式を組み合わせて、表示装置6の位置の変化を検出してもよい。動きセンサ48は、表示装置6の方向の変化を検出するために、ジャイロセンサまたは方位センサを備えてもよい。動きセンサ48は、複数の方式を組み合わせて、表示装置6の方向の変化を検出してもよい。
 記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24fが含まれる。記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cと、仮想空間データ24dと、カタログデータ24gとが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24f、オブジェクトデータ24b、作用データ24c、仮想空間データ24d、カタログデータ24gは、記憶媒体に記憶されていてもよい。また、制御プログラム24f、オブジェクトデータ24b、作用データ24c、仮想空間データ24d、カタログデータ24gは、通信部16による通信によってサーバ装置等の他の装置から取得されてもよい。
 制御プログラム24fは、表示装置6を稼働させるための各種制御に関する機能を提供する。制御プログラム24fが提供する機能には、撮影部40および42が取得する画像に3次元オブジェクトを重ねて表示部32aおよび32bに表示する機能、3次元オブジェクトに対する操作を検出する機能、検出した操作に応じて3次元オブジェクトを変化させる機能等が含まれる。
 制御プログラム24fは、検出処理部25と、表示オブジェクト制御部26と、視点制御部30と、画像合成部27と、発注処理部29とを含む。検出処理部25は、撮影部40および42の撮影範囲に存在する現実の物体を検出するための機能を提供する。検出処理部25が提供する機能には、検出したそれぞれの物体までの距離を測定する機能が含まれる。
 視点制御部30は、仮想空間における利用者の視点の位置および方向を管理するための機能を提供する。視点制御部30が提供する機能には、動きセンサ48が検出する表示装置6の位置の変化および方向の変化に応じて、仮想空間における利用者の視点の位置および方向を変化させる機能が含まれる。例えば、動きセンサ48によって表示装置6が前方移動したことが検出された場合、視点制御部30は、仮想空間における利用者の視点を前方へ移動させる。例えば、動きセンサ48によって表示装置6が右向きに回転したことが検出された場合、視点制御部30は、仮想空間における利用者の視点を右向きに回転させる。このように、表示装置6の位置および方向の変化に合わせて仮想空間における利用者の視点の位置および方向を変化させることにより、現実の空間の画像に重ねて表示される仮想空間の画像の変化を現実の空間の画像の変化と一致させることができる。
 発注処理部29は、3次元オブジェクトを利用して商品を発注する機能を提供する。発注処理部29の機能の詳細については後述する。
 オブジェクトデータ24bは、3次元オブジェクトの形状および性質に関する情報を含む。オブジェクトデータ24bは、3次元オブジェクトを表示するために用いられる。作用データ24cは、表示されている3次元オブジェクトに対する操作が3次元オブジェクトにどのように作用するかに関する情報を含む。作用データ24cは、表示されている3次元オブジェクトに対する操作が検出された場合に、3次元オブジェクトをどのように変化させるかを判定するために用いられる。ここでいう変化には、移動、回転、変形、消失、置換等が含まれる。仮想空間データ24dは、仮想空間に配置される3次元オブジェクトの状態に関する情報を保持する。3次元オブジェクトの状態には、例えば、位置、姿勢、変形の状況等が含まれる。カタログデータ24gは、商品の仕様、価格等の商品を販売するための情報を含む。
 次に、図44から図47を参照しながら、制御プログラム24fが提供する機能に基づく制御の他の例について説明する。図44は、位置の変化に連動して3次元オブジェクトを変化させる例を示す図である。図44に示すステップS3において、画像P1cは、撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1cには、利用者の前方のジョギングコースが写っている。表示装置6は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。
 画像P2cは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この例において、仮想空間データ24dは、ジョギングコースの脇に対応する位置に配置された標識の3次元オブジェクトの状態に関する情報を保持し、オブジェクトデータ24bは、標識の3次元オブジェクトの形状および性質に関する情報を保持する。それぞれの3次元オブジェクトは、スタート地点からの距離を示す数字を記載され、記載された数値が示す距離だけジョギングコースに沿ってスタート地点から離れた位置に対応する位置に配置される。表示装置6は、同様に、仮想空間を左目の視点で見た画像も生成する。
 表示装置6は、図44に示すステップS3において、画像P1cおよび画像P2cを合成して、画像P3cを生成する。画像P3cは、右目用の画像として表示部32aに表示される画像である。画像P3cでは、標識の3次元オブジェクトが、実際に存在しているかのように、ジョギングコースの光景に付加されている。
 表示装置6は、利用者がジョギングコースを前方へ進むと、位置の変化を検出し、検出した位置の変化に応じて、仮想空間における視点の位置を前方へ移動させる。例えば、表示装置1の位置が1m前方へ移動すると、表示装置6は、仮想空間における利用者の視点を1mに相当する距離だけ前方へ移動させる。このような変化を繰り返すことにより、利用者の前方の3次元オブジェクトは、コース脇の木と同様に、利用者が進むにつれて段々と利用者に近付いていき、利用者が通り過ぎると視界から消える。表示装置6は、図44に示すステップS4において、画像P1dおよび画像P2dを合成して、画像P3dを生成する。図44に示すステップS4では、ステップS3の段階では遠くに見えていた「600m」の標識の3次元オブジェクトが、利用者のすぐ前に表示されている。
 このように、利用者は、表示装置6の位置を変化させることにより、手で操作を行わなくても、表示装置6に表示される3次元オブジェクトを変化させることができる。すなわち、表示装置6は、利用者による表示装置6の位置の変化を、3次元オブジェクトを変化させるための操作として受け付ける。このような位置の変化によって3次元オブジェクトを変化させる操作は、利用者が実際の空間で経験する現象に則した操作であるため、利用者にとって直感的で分かりやすい。さらに、位置の変化による操作は、手を使う操作等と組み合わせて行うことができるので、3次元オブジェクトの多様な変化を実現でき、利便性が高い。
 また、図44に示した例では、実際には存在しない標識がジョギングコースの脇に表示される。このため、表示装置6は、利用者にとって有用な情報を、ジョギングコース上の位置と対応付けて表示することができる。さらに、表示装置6が表示する情報を利用者毎に異ならせることができるので、現実の標識と異なり、それぞれの利用者に都合のよい情報を標識に記載することができる。
 位置の変化と連動して変化させる3次元オブジェクトは、標識に限定されない。例えば、3次元的な仮想商店街を構築し、利用者が部屋の中等を歩くのと連動して、利用者が見ることができる店舗が切り替わるようにしてもよい。表示装置6は、その場での足踏みの回数と連動して、3次元オブジェクトを変化させてもよい。
 表示装置6は、検出した位置の変化よりも、3次元オブジェクトの変化の程度を大きくしてもよいし、小さくしてもよい。例えば、現実の空間での位置の変化の大きさの10倍の変化を仮想空間の3次元オブジェクトに与えてもよい。例えば、図44に示した例において、標識の3次元オブジェクトが配置される間隔を、標識の記載が示す間隔よりも大きくしてもよいし、小さくしてもよい。このように標識の間隔を調整することにより、体調に応じて走る距離を調整することができる。表示装置6は、現実の空間での10mの移動に対して、仮想空間での100mの移動を対応付けてもよいし、仮想空間での1mの移動を対応付けてもよい。白い壁しかない室内のような場所で複数のアトラクション施設を3次元オブジェクトで表示する場合、検出した位置の変化よりも、3次元オブジェクトの変化の程度を大きくすることにより、離れた施設間を容易に移動することができる。例えば、3次元オブジェクトを精密に制御したい場合、検出した位置の変化よりも3次元オブジェクトの変化の程度を小さくしてもよい。
 表示装置6は、上下方向の位置の変化と連動して、3次元オブジェクトを変化させてもよい。例えば、利用者がジャンプした場合に、表示する光景を、利用者が現在いる場所の建物等の3次元オブジェクトをジャンプの高さに対応付けられた高さから見た光景に変更してもよい。この場合、利用者が精一杯ジャンプしたときに、利用者が現在いる場所の建物等の3次元オブジェクトを上から見下ろす光景を表示してもよい。
 表示装置6は、位置の変化量、すなわち、移動量を積算し、積算値に応じて3次元オブジェクトを変化させてもよい。例えば、移動量の積算値を、東京から京都まで歩く場合の到達地点に換算し、到達地点の特徴的な建物または風景を3次元オブジェクトとして、現実の空間の光景と重ねて表示してもよい。例えば、到達地点が横浜に相当する場合には、現実の光景の一部に中華街の門の3次元オブジェクトを重ねて表示してもよい。例えば、到達地点が静岡に相当する場合には、現実の光景の背後に、到達地点から見える富士山の3次元オブジェクトを重ねて表示してもよい。
 図45は、利用者の周囲に配置された操作画面を概念的に示す図である。図46は、方向の変化に連動して3次元オブジェクトを変化させる例を示す図である。図45および図46に示す例において、仮想空間データ24dは、操作画面OS1~OS3の3次元オブジェクトの状態に関する情報を保持し、オブジェクトデータ24bは、操作画面OS1~OS3の3次元オブジェクトの形状および性質に関する情報を保持する。
 操作画面OS1は、仮想空間において、利用者の正面に対応する位置に配置されている。操作画面OS2は、仮想空間において、利用者の右側面に対応する位置に配置されている。操作画面OS3は、仮想空間において、利用者の左側面に対応する位置に配置されている。操作画面OS1~OS3には、複数のアイコンが配列されている。
 表示装置6を装着した利用者が正面を向いているときに、画像P3eのように、表示装置6は、操作画面OS1を表示する。この状態で、利用者が手H1の指で操作画面OS1上のアイコンを押すような動作を行うと、表示装置6は、アイコンに対応付けられた処理を実行する。
 表示装置6は、利用者が右を向くと、検出した方向の変化に応じて、仮想空間における視点の方向を右へ変化させる。例えば、表示装置6を装着した利用者の頭部が右へ90度回転すると、表示装置6は、仮想空間における利用者の視点の方向を90度右へ変化させる。その結果、表示装置6は、画像P3fのように、仮想空間において利用者の右側面に配置されている操作画面OS2を表示する。この状態で、利用者が手H1の指で操作画面OS2上のアイコンを押すような動作を行うと、表示装置6は、アイコンに対応付けられた処理を実行する。
 表示装置6は、利用者が左を向くと、検出した方向の変化に応じて、仮想空間における視点の方向を左へ変化させる。例えば、表示装置6を装着した利用者の頭部が左へ90度回転すると、表示装置6は、仮想空間における利用者の視点の方向を90度左へ変化させる。その結果、表示装置6は、画像P3gのように、仮想空間において利用者の左側面に配置されている操作画面OS3を表示する。この状態で、利用者が手H1の指で操作画面OS3上のアイコンを押すような動作を行うと、表示装置6は、アイコンに対応付けられた処理を実行する。
 このように、利用者は、表示装置6の方向を変化させることにより、手で操作を行わなくても、表示装置6に表示される3次元オブジェクトを変化させることができる。すなわち、表示装置6は、利用者による表示装置6の方向の変化を、3次元オブジェクトを変化させるための操作として受け付ける。このような方向の変化によって3次元オブジェクトを変化させる操作は、利用者が実際の空間で経験する現象に則した操作であるため、利用者にとって直感的で分かりやすい。さらに、方向の変化による操作は、手を使う操作等と組み合わせて行うことができるので、3次元オブジェクトの多様な変化を実現でき、利便性が高い。
 また、図45および図46に示した例では、利用者の周囲に複数の操作画面が表示される。このため、利用者は、顔を向ける方向を変えるだけで、操作する操作画面を容易に切り替えることができる。
 図45および図46では、利用者の周囲の3面に操作画面を表示する例を示したが、表示装置6は、利用者の背面側を含む周囲の4面に操作画面を表示してもよい。あるいは、利用者を囲む円筒の内面のような連続した面を操作画面としてもよい。あるいは、利用者の頭上の面、すなわち、視点の方向を上へ向けた場合に見える面に操作画面を設けてもよい。
 操作画面が、利用者を囲む複数の平坦な面に設けられている場合、表示装置6は、操作画面が設けられている面のうち利用者が向いている方向に存在し、利用者の視線との角度が90度に最も近い面が利用者の視線と直交するように仮想空間における視点または3次元オブジェクトの方向を調整してもよい。このように視点または3次元オブジェクトの方向を調整することにより、操作画面の視認性を向上させることができる。
 方向の変化と連動して変化させる3次元オブジェクトは、操作画面に限定されない。例えば、利用者の周囲の棚に商品の3次元オブジェクトを陳列し、表示装置6を装着した利用者が頭部の方向を変更するのと連動して、利用者が見て、手に取ることができる商品が変更されるように構成してもよい。利用者の周囲に建物の3次元オブジェクトを含む3次元的な地図を配置し、表示装置6を装着した利用者が頭部の方向を変更するのと連動して、表示される地図を利用者が向いている方向の地図へ変化させてもよい。表示装置6は、表示装置6を装着した利用者が頭部の方向を変更するのと連動して、利用者の視線が向いている地域の天気、行事、主要な施設等を3次元オブジェクトとして表示してもよい。
 表示装置6は、利用者が首を振る方向を、何からの処理と対応付けてもよい。例えば、表示装置6は、利用者が右方向に首を振った場合には、表示している本の3次元オブジェクトのページを送り、利用者が左方向に首を振った場合には、本の3次元オブジェクトのページを戻す。この場合、振った首を元に戻すための方向の変化については、処理を連動させない。
 図47は、位置および方向の変化と連動して3次元オブジェクトを変化させる制御の処理手順を示すフローチャートである。図47に示す処理手順は、制御部22が制御プログラム24fを実行することによって実現される。制御部22は、まず、ステップS101として、仮想空間データ24dおよびオブジェクトデータ24bに基づいて、仮想空間を生成する。そして、制御部22は、ステップS102として、仮想空間における視点の位置と方向とを初期設定する。仮想空間における視点の位置と方向の初期設定は、例えば、予め定められている現実の空間と仮想空間との対応付けのルールに基づいて行われる。
 続いて、制御部22は、ステップS103として、動きセンサ48の検出結果を取得する。そして、制御部22は、ステップS104として、仮想空間における視点の位置を表示装置6の位置の変化に応じて変化させ、ステップS105として、仮想空間における視点の方向を表示装置6の方向の変化に応じて変化させる。
 そして、制御部22は、ステップS106として、3次元オブジェクトの表示が終了であるかを判定する。3次元オブジェクトの表示が終了でない場合(ステップS106,No)、制御部22は、ステップS103に戻る。3次元オブジェクトの表示が終了の場合(ステップS106,Yes)、制御部22は、図47に示す処理手順を終了する。
 表示装置6を、電子的なカタログを利用した商品販売に適用する例について説明する。図48から図52は、表示装置6を、電子的なカタログを利用した家電製品および家具の販売に適用する例について説明するための図である。
 図48は、購入する商品を設置する部屋の中で電子的なカタログを表示する例を示す図である。画像P1hは、部屋の中で電子的なカタログを持つために利用者が手H2を前方へ延ばしているときに撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1hには、部屋の壁際に置かれたソファ61と、向かい側の壁際の隅に置かれた台62と、利用者の手H2とが写っている。表示装置6は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。
 画像P2hは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この例において、仮想空間データ24dは、部屋の壁、床、および天井に対応する3次元オブジェクトの状態に関する情報と、利用者の手H2の位置に配置されたカタログ63の3次元オブジェクトの状態に関する情報とを保持し、オブジェクトデータ24bは、各3次元オブジェクトの形状および性質に関する情報を保持する。表示装置6は、同様に、仮想空間を左目の視点で見た画像も生成する。
 表示装置6は、画像P1hおよび画像P2hを合成して、画像P3hを生成する。画像P3hにおいては、カタログ63の3次元オブジェクトが、手H2の上で広げられているように表示されている。また、壁、床、および天井に対応する3次元オブジェクトは、それぞれ、表面が、現実の壁、床、および天井の表面と一致するように仮想空間に配置される。さらに、壁、床、および天井に対応する3次元オブジェクトは、それぞれ、表面が、現実の壁、床、および天井の表面と同様の外観を有するように構成される。このため、画像P3hにおいては、部屋の壁、床、および天井については、現実の表面と3次元オブジェクトの表面のどちらが上に表示されていても利用者には見分けがつかない。
 表示装置6は、同様に、撮影部42によって撮影した画像と仮想空間を左目の視点から見た画像とを合成し、左目用の画像として表示部32bに表示される画像を生成する。表示装置6は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、部屋の中で、カタログ63の3次元オブジェクトを手H2の上で広げているかのような光景を見ることができる。
 図49は、カタログから商品を選択する場面について説明するための図である。図49のステップS111として、利用者は、カタログ63の3次元オブジェクトを所望の商品が掲載されたページが開かれた状態で手H2の上に乗せている。カタログ63のそれぞれのページには、商品の3次元オブジェクトが、縮小され、平面状に押しつぶされた状態で配置されている。ステップS112では、利用者は、手H1の2本の指でページ上の所望の商品の3次元オブジェクトを摘んでいる。2本の指で摘むことにより、3次元オブジェクトは、選択され、手H1の移動に応じて移動する状態となる。
 ステップS113において、利用者は、3次元オブジェクトを摘んだままで、手H1をカタログ63から離している。その結果、縮小されていた3次元オブジェクトは、カタログ63のページから引きはがされる。引きはがされた3次元オブジェクトは、実際の商品と同じ大きさに拡大し、テレビ64の3次元オブジェクトになる。カタログに掲載される商品の3次元オブジェクトは、重量が0であると定義されている。このため、利用者は、重力の影響を考慮せずに、テレビ64の3次元オブジェクトを扱うことができる。
 図50は、テレビの大きさと設置場所を検討する場面について説明するための図である。テレビ64に対応する現実のテレビは、同一デザインでサイズ違いの複数の機種を含んでいる。テレビ64の3次元オブジェクトは、カタログ63のページから引きはがされた段階では、最も小型の機種と同じサイズとなっている。図50のステップS121として、利用者は、テレビ64の3次元オブジェクトの一方の端部を手H1の指で摘み、他方の端部を手H2の指で摘んでいる。
 ステップS122では、利用者は、テレビ64の3次元オブジェクトを摘んだままで、手H1と手H2の距離を広げている。手H1と手H2の距離の変化に応じて、テレビ64の3次元オブジェクトのサイズが変更される。利用者は、テレビ64の3次元オブジェクトの大きさが所望の大きさになると、利用者が指の間隔を広げてテレビ64の3次元オブジェクトを解放する。表示装置6は、テレビ64の3次元オブジェクトを、対応するテレビの機種のうち、現在の3次元オブジェクトの大きさに最も近い機種のサイズにリサイズする。このように、利用者は、簡単な操作によって、商品のサイズを容易に選択することができる。
 その後、利用者は、テレビ64の3次元オブジェクトを、所望の位置の所望の高さに移動させる。商品の3次元オブジェクトは、重量が0であると定義されているため、移動させた3次元オブジェクトは、ステップS123のように、利用者が手を離してもその場に留まる。ステップS124では、利用者は、ソファ61に腰掛けて、対向する壁際に浮いているテレビ64の3次元オブジェクトの位置および高さを確認している。テレビ64の3次元オブジェクトは、実際のテレビと同じ大きさを持ち、利用者の部屋と重ねて任意の位置に浮かせておくことができる。このため、利用者は、テレビをどのように設置するかを、テレビを購入する前に、実際に利用する環境で検討することができる。
 図51は、テレビ台を選択する場面について説明するための図である。図51のステップS131として、利用者は、ソファ61に腰掛けたままで、カタログ63の3次元オブジェクトを手H2に持ち、テレビ台のページを開いている。
 カタログデータ24gにおいては、テレビとテレビ台とが関連する商品であることが定義されている。さらに、カタログデータ24gには、それぞれのテレビ台の実際の寸法が登録されている。これらの情報に基づいて、表示装置6は、ステップS131のように、テレビ64の3次元オブジェクトが状況においては、カタログデータ24gに登録されているテレビ台のうち、高さが、床からテレビ64の3次元オブジェクトまでの距離と一致するものを抽出して、テレビ台のページに表示する。このため、利用者は、テレビを現在の3次元オブジェクトの高さに設置することができるテレビ台の中から好みのテレビ台を容易に選択することができる。
 ステップS132では、利用者は、カタログ63の3次元オブジェクトを手H1の指で触れることによって所望のテレビ台を選択している。ステップS133では、選択されたテレビ台65の3次元オブジェクトが、テレビ64の3次元オブジェクトの下に表示されている。テレビとテレビ台とが関連する商品であることが定義されているため、表示装置6は、選択されたテレビ台65の3次元オブジェクトを、既に表示しているテレビ64の3次元オブジェクトと対応付けて表示することができる。
 図52は、現実の物体を移動させる場面について説明するための図である。例えば、利用者が、台62を別の場所に移動するレイアウト変更を試してみたいものとする。表示装置6は、現実の物体を選択する操作を検出した場合、現実の物体に代えて、現実の物体を模した3次元オブジェクトを表示空間中に表示する。そして、表示装置6は、3次元オブジェクトを移動させる操作を検出すると、操作に従って3次元オブジェクトを移動させる。
 利用者は、重力の影響を気にすることなく3次元オブジェクトを容易に移動させることができるとともに、3次元オブジェクトを邪魔にならないように空中に放置することもできる。さらに、現実の物体は、表示空間では見えなくなるものの、現実には元の場所にそのまま留まるため、レイアウト変更を試した後に現実の物体を元の場所に戻す手間も必要ない。
 図52に示す画像P1iは、利用者が台62を摘もうとしているときに撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1iには、部屋の隅に置かれた台62と、利用者の手H1とが写っている。表示装置6は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。
 画像P2iは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この段階では、現実の空間において台62が置かれている場所に対応する仮想空間の場所には、壁と床の3次元オブジェクトのみが配置されている。表示装置6は、画像P1iおよび画像P2iを合成して、画像P3iを生成する。表示装置6は、同様に、撮影部42によって撮影した画像と仮想空間を左目の視点から見た画像とを合成し、左目用の画像として表示部32bに表示される画像を生成する。表示装置6は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、部屋の中で、自分が台62を摘もうとしている光景を見ることができる。
 図52に示す画像P1jは、利用者が台62を摘んで選択した後に、台62を持ち上げようとしているときに撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。このとき、台62は、実際には持ち上げられずに、当初の場所にそのまま留まっている。
 画像P2jは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この段階では、利用者が現実の物体である台62を摘んで選択する操作を行ったために、表示装置6は、台62を模した3次元オブジェクト66を生成している。3次元オブジェクト66を生成するためのオブジェクトデータ24bは、予め記憶部24に記憶されていてもよいし、撮影部40および42が撮影する画像に基づいて動的に生成されてもよい。画像P2jにおいて、3次元オブジェクト66は、利用者の持ち上げる操作応じて、床から離れた位置に配置されている。
 表示装置6は、画像P1jおよび画像P2jを合成して、画像P3jを生成する。このとき、表示装置6は、代替となる3次元オブジェクト66が生成されている台62を表示しないための隠蔽処理を行う。例えば、表示装置6は、台62までの距離を無限遠として処理する。この結果、壁、床、天井等の3次元オブジェクトが台62よりも手前に表示され、台62は、それらの背後に隠される。
 次に、図53を参照しながら、発注処理の処理手順について説明する。図53は、発注処理の処理手順を示すフローチャートである。図53に示す発注処理は、制御部22が、制御プログラム24fを実行することによって実現される。
 図53に示すように、制御部22は、まず、ステップS201として、カタログデータ24gを初期設定する。続いて、制御部22は、ステップS202として、カタログの3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。
 制御部22は、ステップS203として、3次元オブジェクトに対する操作を検出する。そして、制御部22は、ステップS204として、検出された操作が、発注を実行するための操作であるかを判定する。検出された操作が、発注を実行するための操作でない場合(ステップS204,No)、制御部22は、ステップS205へ進む。
 ステップS205で、制御部22は、検出された操作の対象が3次元オブジェクトであるかを判定する。検出された操作の対象が3次元オブジェクトである場合(ステップS205,Yes)、制御部22は、ステップS206へ進む。検出された操作の対象が3次元オブジェクトでない場合(ステップS205,No)、制御部22は、ステップS208へ進む。
 ステップS206で、制御部22は、操作に応じてカタログに表示する商品を変更する。さらに、制御部22は、ステップS207として、操作に応じて表示を更新する。その後、制御部22は、ステップS203へ戻る。
 ステップS208で、制御部22は、操作の対象となった現実の物体を表示しないための隠蔽処理を行う。さらに、制御部22は、ステップS209として、操作の対象となった現実の物体の代替となる3次元オブジェクトを仮想空間に追加する。その後、制御部22は、ステップS203へ戻る。
 ステップS203で検出された操作が、発注を実行するための操作である場合(ステップS204,Yes)、制御部22は、ステップS210へ進む。制御部22は、ステップS210で、商品を発注するための発注処理を行う。
 カタログを用いて購入される商品は、テレビおよびテレビ台に限定されない。例えば、カレンダーや絵画も購入することができる。カレンダーや絵画の3次元オブジェクトは、部屋の壁の任意に位置にかけることができるように構成される。例えば、カーテンも購入できる。表示装置6は、実際のカーテンの遮光性を再現できるように、カーテンの3次元オブジェクトが窓に掛けられるときに、表示部32aおよび32bの明るさを落としてもよい。
 表示装置6は、部屋のレイアウト変更を試す場合に、季節による外の景色の変化の影響を確認できるように、部屋の窓の外の景色を3次元オブジェクトによって変更してもよい。表示装置6は、部屋のレイアウト変更を試す場合に、季節および時刻による太陽の高さの変化の影響を確認できるように、表示部32aおよび32bのカラーバランスおよび明るさを利用者が任意に設定できるように構成されてもよい。
 次に、図54を参照しながら、第5の実施例に係る表示装置7の機能的な構成について説明する。図54は、表示装置7のブロック図である。図54に示すように、表示装置7は、操作部13と、制御部22と、記憶部24と、通信部16と、表示部32aおよび32bと、撮影部40および42と、検出部44と、測距部46と、動きセンサ48とを有する。操作部13は、表示装置7の起動、停止、動作モードの変更等の基本的な操作を受け付ける。
 記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24hが含まれる。記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cと、仮想空間データ24dとが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24h、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、記憶媒体に記憶されていてもよい。また、制御プログラム24h、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、通信部16による通信によってサーバ装置等の他の装置から取得されてもよい。
 制御プログラム24hは、表示装置7を稼働させるための各種制御に関する機能を提供する。制御プログラム24hが提供する機能には、撮影部40および42が取得する画像に3次元オブジェクトを重ねて表示部32aおよび32bに表示する機能、3次元オブジェクトに対する操作を検出する機能、検出した操作に応じて3次元オブジェクトを変化させる機能等が含まれる。
 制御プログラム24hは、検出処理部25と、表示オブジェクト制御部26と、視点制御部30と、画像合成部27とを含む。
 視点制御部30は、仮想空間における利用者の視点の位置および方向を管理するための機能を提供する。視点制御部30が提供する機能には、動きセンサ48が検出する表示装置7の位置の変化および方向の変化に応じて、仮想空間における利用者の視点の位置および方向を変化させる機能が含まれる。例えば、動きセンサ48によって表示装置7が前方移動したことが検出された場合、視点制御部30は、仮想空間における利用者の視点を前方へ移動させる。例えば、動きセンサ48によって表示装置7が右向きに回転したことが検出された場合、視点制御部30は、仮想空間における利用者の視点を右向きに回転させる。このように、表示装置7の位置および方向の変化に合わせて仮想空間における利用者の視点の位置および方向を変化させることにより、現実の空間の画像に重ねて表示される仮想空間の画像の変化を現実の空間の画像の変化と一致させることができる。
 制御プログラム24hが提供する機能に基づく制御は、上記の制御プログラム24fの発注処理部29以外の制御と同様である。
 表示装置7を、ネットワークを介した商品販売に適用した例について説明する。図55から図59は、表示装置7を、ネットワークを介したピザの販売に適用した例について説明するための図である。
 図55は、ピザの発注処理の開始について説明するための図である。ピザの発注を開始するに際にして、利用者は、表示装置7を装着し、ある程度の広さの平面がある場所を見る。例えば、利用者がテーブルT2を見ると、表示装置7は、実際のテーブルT2が写った画像P3kを表示する。表示装置7は、利用者の指示に従って通信部16による通信によってピザの販売サイトからオブジェクトデータ24b、作用データ24c、および仮想空間データ24dを取得し、取得したデータに基づいて仮想空間を生成する。生成した仮想空間の画像と現実の空間の画像を重ねることにより、表示装置7は、画像P3mを表示する。
 画像P3mにおいては、テーブルT2上に複数の3次元オブジェクトが配置されている。配置されている3次元オブジェクトは、大きな生地161Lと、中くらいの生地161Mと、小さな生地161Sと、セサミ、トマト、チーズ等のトッピングが入ったケース162a~162fと、棒163と、ケチャップチューブ164と、オーブン165とを含む。生地161Lは、Lサイズのピザ用の生地であり、生地161Mは、Mサイズのピザ用の生地であり、生地161Sは、Sサイズのピザ用の生地である。このように、ピザの発注処理を開始することにより、ピザの材料およびオーブン165が3次元オブジェクトとして、平面上に配置される。
 表示装置7は、予め記憶部24に記憶されているオブジェクトデータ24b、作用データ24c、および仮想空間データ24dを用いて、ピザの材料およびオーブン165を表示してもよい。
 図56は、生地の大きさと厚みを決める工程について説明するための図である。図56のステップS311として、利用者は、生地161Mを手H1で掴んでいる。掴むことによって生地161Mは、選択され、手H1の移動に応じて移動する状態となる。ステップS312では、利用者は、生地161MをテーブルT2の平面のほぼ中央に置き、棒163を手H1で掴んでいる。掴むことによって棒63は、選択され、手H1の移動に応じて移動する状態となる。
 ステップS313において、利用者は、棒163を生地161Mの上に置き、手H1およびH2で回転させている。オブジェクトデータ24bにおいて、棒163は、剛体と定義され、生地161Mは、塑性体と定義されている。そして、作用データ24cにおいて、塑性体は、剛体によって押された場合、押された部分が凹むと定義されている。このため、利用者が生地161Mの上で棒163を回転させると、生地161Mは、円状に延ばされて薄くなっていく。利用者は、ステップS314のように生地161Mが所望の大きさと厚みになるまで、生地161Mの上で棒163を回転させる。
 生地の大きさと厚みを決める操作は図56に示した例に限定されない。例えば、利用者が生地161Mを両手で挟んだ後に両手の間隔を広げていくと、生地161Mが両手の間隔を直径とする円状に延ばされていくこととしてもよい。あるいは、利用者が生地161Mの一部を2本の指で摘むと、生地161M全体が、2本の指の間隔を厚みとする円状の薄い形に変形することとしてもよい。これらの操作では、手の間隔または指の間隔を調整することにより、生地の大きさと厚みを容易に調整することができる。
 図57は、トッピングを載せる工程について説明するための図である。図57のステップS315として、利用者は、手H1の指でケース162dに入っているセサミを摘んでいる。摘むことによってセサミは、選択され、手H1の移動に応じて移動する状態となる。ステップS316では、利用者は、セサミを生地161M上の所望の位置まで移動させた後、手H1の指の間隔を広げている。この結果、セサミは、生地161M上の所望の位置に配置される。
 同様の操作を繰り返すことにより、利用者は、所望のトッピングを、所望の量、所望の位置に配置する。
 ステップS317では、利用者は、手H1でケチャップチューブ164を掴んでいる。掴むことによってケチャップチューブ164は、選択され、手H1の移動に応じて移動する状態となる。ステップS318では、利用者は、出口を下向きにしてケチャップチューブ164を持ち、腹の部分を押しながら生地161Mの上を移動させている。作用データ24cにおいて、チューブは、腹の部分を押された場合に内容物が出口から押し出されるように定義されている。この作用を利用して、ステップS318では、利用者によって、生地161Mの上にケチャップで絵が描かれている。
 図58は、ピザを発注する工程について説明するための図である。図58のステップS319として、利用者は、手H1でオーブン165の前扉を開けている。利用者は、ステップS320では、手H1およびH2で生地161Mを持ってオーブン165内に入れ、ステップS321では、手H1の指でオーブン165のスイッチを押している。
 このように、ピザを加熱するための動作を行うと、ピザの発注が確定し、ピザの販売サイトに発注データが送信される。商品を作成するための最後の工程を、発注の実行に対応付けることにより、利用者は、商品を作成する工程を追いながら、無駄な操作をすることなく直感的に発注を実行することができる。ピザを発注するための操作は、他の操作であってもよい。例えば、ピザの材料とともに表示される発注用のボタンを有する3次元オブジェクトを表示し、このボタンを押す操作をピザを発注するための操作としてもよい。
 発注データは、ピザの価格を決める目的と、発注されたピザを再現する目的とに利用される。発注データには、選択された生地の大きさ、延ばされた生地の大きさおよび厚み、トッピングの種類、量、位置等に関する情報が含まれる。発注データは、利用者が作ったピザの3次元オブジェクトの画像、または利用者がピザの3次元オブジェクトを作ったときの操作の履歴を含んでもよい。これらの情報は、利用者がピザの材料の3次元オブジェクトを操作して実際にピザを作るのと同様の工程を再現する過程で取得される。このため、利用者は、数量の入力のような面倒な操作を行うことなく、出来上がるピザを容易に想像することができる方法でピザを発注することができる。
 図59は、配達されるピザの例を示す図である。その後、図59に示すように、発注データに従って、ピザボックス171に入ったピザ172が配達される。ピザ172は、図55から図58で作成されたピザの3次元オブジェクトをできるだけ正確に再現するように調理される。ピザの再現は、調理人が発注データを参照しながら行ってもよい。調理人は、利用者が3次元オブジェクトで作成したピザの画像を見ながら、または、利用者の操作履歴を再現する映像を見ながら、ピザを調理してもよい。あるいは、発注データに基づいて、調理機(ロボット)がピザを調理してもよい。
 このように、3次元オブジェクトに対する操作に基づいて発注データを作成することにより、商品を自分の好みにカスタマイズして発注することを容易に実現することができる。
 次に、図60を参照しながら、発注処理の処理手順について説明する。図60は、発注処理の処理手順を示すフローチャートである。図60に示す発注処理は、制御部22が、制御プログラム24hを実行することによって実現される。
 図60に示すように、制御部22は、まず、ステップS331として、商品に関連する3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。続いて、制御部22は、ステップS332として、発注データを初期設定する。具体的には、制御部22は、現状の3次元オブジェクトが示す商品の状態と、発注データが示す商品の状態とを一致させる。
 制御部22は、ステップS333として、3次元オブジェクトに対する操作を検出する。そして、制御部22は、ステップS334として、検出された操作が、発注の実行に対応付けられた操作であるかを判定する。検出された操作が、発注の実行に対応付けられた操作でない場合(ステップS334,No)、制御部22は、ステップS335へ進む。ステップS335で、制御部22は、検出された操作に応じて発注データを更新する。そして、制御部22は、ステップS336として、検出された操作に応じて、表示部32aおよび32bの表示を更新する。その後、制御部22は、ステップS333へ戻る。
 ステップS334において、検出された操作が、発注の実行に対応付けられた操作であった場合(ステップS334,Yes)、制御部22は、ステップS337として、発注処理を実行する。具体的には、制御部22は、通信部16による通信によって、発注データを発注先へ送信する。その後、制御部22は、発注処理を終了する。
 上記の発注方式は、ネットワーク経由で他の食べ物を発注する場合にも利用できる。例えば、麺類を発注する場合、麺をゆでる工程と、スープを作る工程と、トッピングを載せる工程とを3次元オブジェクトを用いて再現することにより、麺の量と、麺のゆで加減(硬さ)と、味の濃さと、トッピングの種類、量、および配置とを指定することができる。例えば、弁当を発注する場合、弁当箱におかずを詰める工程と、弁当箱にご飯を詰める工程とを3次元オブジェクトを用いて再現することにより、おかずの種類、量、および配置と、ご飯の量とを指定することができる。例えば、寿司を発注する場合、寿司を握る工程を3次元オブジェクトを用いて再現することにより、寿司ネタの種類と、寿司桶への寿司の並べ方とを指定することができる。
 上記の発注方式では、仮想空間を複数の利用者が共有できるようにしてもよい。この場合、複数の利用者が有する表示装置7の1つまたはサーバ装置等の他の装置で仮想空間が管理され、それぞれの表示装置7が検出した操作に関する情報が、通信によって、仮想空間を管理する装置へ送信される。仮想空間を管理する装置は、送信される操作に関する情報に基づいて、仮想空間内の3次元オブジェクトおよび発注データを更新する。このようにして仮想空間を複数の利用者で共有することにより、仮想空間でピザを作る作業を共同で行うことが可能になる。
 上記の発注方式は、食べ物以外の商品をネットワーク経由で発注する場合にも応用することができる。例えば、花束またはフラワーアレンジメントを発注する場合、花屋に在庫している花を3次元オブジェクトとして表示してもよい。この場合、利用者は、好みの花の3次元オブジェクトを組み合わせて花束またはフラワーアレンジメントを作成する工程を再現することにより、好みの花が好みの配置で組み合わされた花束またはフラワーアレンジメントを購入することができる。この場合、花屋の店内を3次元オブジェクトで再現し、出来上がった花束またはフラワーアレンジメントをレジまで持っていくことによって発注が行われてもよい。花束またはフラワーアレンジメントは、自宅または送り先へ届けてもらってもよいし、商品が出来上がるタイミングの通知を店に指示するか、店から通知してもらった上で、利用者が花屋を訪れて受け取ってもよい。
 上記の発注方式は、衣類およびアクセサリをネットワーク経由で発注する場合にも応用することができる。この場合、利用者は、衣類およびアクセサリの3次元オブジェクトを組み合わせて、コーディネートを確認した上で商品を購入することができる。組み合わせるのは、異なる売り場の商品の3次元オブジェクトであってもよい。さらに、利用者は、商品の3次元オブジェクトを、既に購入済みの現実の衣類またはアクセサリと組み合わせることができる。このように、衣類およびアクセサリを移動等の操作が可能な3次元オブジェクトとして表示することにより、多様な組み合わせを確認しながら商品を購入することができる。
 さらに、衣類およびアクセサリを3次元オブジェクトとして現実の空間と重ねて表示することにより、利用者は、商品のサイズを正確に把握することができる。
 衣類およびアクセサリをネットワーク経由で発注する場合、商品を、実際の店舗を模した仮想のショッピングモールに陳列してもよい。この場合、商品を空中に浮かせておく等、現実には不可能な展示をすることができる。さらに、紙のカタログと異なり、商品の在庫がなくなったならば、商品を非表示にする等の、在庫と表示を対応させることもできる。また、商品は仮想的に表示されているに過ぎないため、利用者が、いずれの店舗の商品であるかに関わらず、全ての商品の購入代金の支払いを1つの店舗で済ますことができるようにしてもよい。この場合、店舗毎の売り上げの振り分けは、バックグランドの処理において実行される。
 商品の発注は、例えば、商品の3次元オブジェクトをレジに持っていくことにより、実行される。あるいは、商品の発注は、クレジットカードを模した3次元オブジェクトを財布から取り出す操作または提示する操作をすることによって実行される。実際の代金の支払いは、予め登録されている実際のクレジットカードによって実行される。
 ショッピングモールを含む仮想空間を複数の利用者で共有できるようにしてもよい。この場合、仮想空間におけるそれぞれの利用者の視点に対応する位置に、アバター等の利用者を示す3次元オブジェクトを表示してもよい。利用者を示す3次元オブジェクトを表示することにより、店舗および商品の人気を把握し易くなる。
 なお、上記の各実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。また、上記の各実施例を適宜組み合わせてもよい。例えば、上記の実施例で示した制御プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。
 また、上記の実施例では、3次元オブジェクトを利用者自身が操作する例について説明したが、表示装置は、撮影部の撮影範囲における他人、動物、機械等の動きを3次元オブジェクトとして検出してもよい。また、表示装置は、仮想空間を他の装置と共有してもよい。すなわち、表示装置は、仮想空間内の3次元オブジェクトを当該表示装置の利用者以外の人が他の装置を介して見て操作できるように構成されてもよい。
 また、上記の実施例では、表示装置が単独で3次元オブジェクトに対する操作を検出することとしたが、表示装置がサーバ装置と協業して3次元オブジェクトに対する操作を検出することとしてもよい。この場合、表示装置は、撮影部が撮影した画像または検出部の検出した情報をサーバ装置へ逐次送信し、サーバ装置が操作を検出して検出結果を表示装置へ通知する。このような構成とすることにより、表示装置の負荷を低減することができる。
1~7 表示装置
1a 前面部
1b 側面部
1c 側面部
4d 外部装置
13 操作部
16 通信部
22 制御部
24 記憶部
24a、24e、24f、24h 制御プログラム
24b オブジェクトデータ
24c 作用データ
24d 仮想空間データ
24g カタログデータ
25 検出処理部
26 表示オブジェクト制御部
27 画像合成部
28 連動表示制御部
29 発注処理部
30 視点制御部
32a、32b 表示部
34 プロジェクタ
34a 投影部
40、42 撮影部
44 検出部
46 測距部
48 動きセンサ

Claims (60)

  1.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトの表示空間における所定の物体の変位を検出する検出部と、
     前記検出部によって検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行う制御部と
     を備えることを特徴とする表示装置。
  2.  前記制御部は、前記検出部によって前記所定の物体の前記オブジェクトに沿って移動する変位が検出された場合に、当該物体の移動方向に対応させて前記オブジェクトを回転させることを特徴とする請求項1に記載の表示装置。
  3.  前記制御部は、前記動作の移動量に応じた角度だけ前記オブジェクトを回転させることを特徴とする請求項2に記載の表示装置。
  4.  前記制御部は、前記検出部によって前記所定の物体が前記オブジェクトに接触した後に離れる動作が検出された場合に、前記オブジェクトの接触された位置に対応する処理を実行することを特徴とする請求項1に記載の表示装置。
  5.  画像を投影する投影部をさらに備え、
     前記制御部は、前記オブジェクトに関連する画像を前記投影部から投影させることを特徴とする請求項1に記載の表示装置。
  6.  第2の表示部をさらに備え、
     前記制御部は、前記オブジェクトに関連する画像を前記第2の表示部に表示させることを特徴とする請求項1に記載の表示装置。
  7.  前記検出部は、赤外線センサであることを特徴とする請求項1に記載の表示装置。
  8.  前記検出部は、画像を撮影する撮影部であることを特徴とする請求項1に記載の表示装置。
  9.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示装置によって実行される制御方法であって、
     所定のオブジェクトを表示装置に3次元表示するステップと、
     前記オブジェクトの表示空間における所定の物体の変位を検出するステップと、
     検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行うステップと
     を含むことを特徴とする制御方法。
  10.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示装置に、
     所定のオブジェクトを表示部に3次元表示するステップと、
     前記オブジェクトの表示空間における所定の物体の変位を検出するステップと、
     検出される前記所定の物体の変位に応じて前記オブジェクトに関連づけられた動作を行うステップと
     を実行させることを特徴とする制御プログラム。
  11.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトが表示される表示空間において第1の物体および第2の物体を検出する検出部と、
     前記表示空間において前記第1の物体と前記第2の物体の間に前記オブジェクトが位置することが検出されたときに、前記オブジェクトを変化させる制御部と
     を備えることを特徴とする表示装置。
  12.  前記検出部は、前記第1の物体と前記第2の物体の間に前記オブジェクトが位置する第1の状態を検出し、
     前記制御部は、前記第1の状態が検出されたときに、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  13.  前記検出部は、所定時間以上、前記第1の物体と前記第2の物体の間に前記オブジェクトが位置する第2の状態を検出し、
     前記制御部は、前記第2の状態が検出されたときに、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  14.  前記検出部は、前記第1の物体と前記第2の物体の間に前記オブジェクトが位置し、かつ、所定時間以上、前記第1の物体と前記第2の物体間の距離が開かない第3の状態を検出し、
     前記制御部は、前記第3の状態が検出されたときに、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  15.  前記検出部は、前記第1の物体と前記第2の物体の間に前記オブジェクトが位置してから、前記第1の物体あるいは前記第2の物体の少なくとも一方が移動し、かつ、所定時間以上、前記第1の物体と前記第2の物体間の距離が開かない第4の状態を検出し、
     前記制御部は、前記移動を検出したときから前記オブジェクトを変化させ始めることを特徴とする請求項11に記載の表示装置。
  16.  前記制御部は、前記第1の物体と前記第2の物体の間に前記オブジェクトが位置してから、前記第1の物体あるいは前記第2の物体の少なくとも一方が移動し、かつ、前記所定時間の経過前に前記第1の物体と前記第2の物体間の距離が開いたことが検出されたときには、前記オブジェクトの変化を元に戻す逆変化の表示を行うことを特徴とする請求項15に記載の表示装置。
  17.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトが表示される表示空間において第1の物体および第2の物体を検出する検出部と、
     前記表示空間において前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触する位置にあることが検出されたときに、前記オブジェクトを変化させる制御部と
     を備えることを特徴とする表示装置。
  18.  前記検出部は、所定時間以上、前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触する第1の状態を検出し、
     前記制御部は、前記第1の状態が検出されたときに、前記オブジェクトを変化させることを特徴とする請求項17に記載の表示装置。
  19.  前記検出部は、前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触し、かつ、所定時間以上、前記第1の物体と前記第2の物体間の距離が開かない第2の状態を検出し、
     前記制御部は、前記第2の状態が検出されたときに、前記オブジェクトを変化させることを特徴とする請求項17に記載の表示装置。
  20.  前記検出部は、前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触してから、前記第1の物体あるいは前記第2の物体の少なくとも一方が移動し、かつ、所定時間以上、前記第1の物体と前記第2の物体間の距離が開かない第3の状態を検出し、
     前記制御部は、前記移動を検出したときから前記オブジェクトを変化させ始めることを特徴とする請求項17に記載の表示装置。
  21.  前記制御部は、前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触してから、前記第1の物体あるいは前記第2の物体の少なくとも一方が移動し、かつ、前記所定時間の経過前に前記第1の物体と前記第2の物体間の距離が開いたことが検出されたときには、前記オブジェクトの変化を元に戻す逆変化の表示を行うことを特徴とする請求項20に記載の表示装置。
  22.  前記制御部は、前記変化に要した時間よりも短い時間で前記逆変化の表示を行うことを特徴とする請求項16または21に記載の表示装置。
  23.  前記制御部は、前記第1の物体あるいは前記第2の物体の移動にともなって、前記オブジェクトを移動させ、回転させ、またはこれらを組み合わせることにより、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  24.  前記制御部は、前記第1の物体あるいは前記第2の物体の移動にともなって、前記オブジェクトを変形させることにより、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  25.  前記制御部は、前記第1の物体あるいは前記第2の物体の移動にともなって、前記オブジェクトを消失させることにより、前記オブジェクトを変化させることを特徴とする請求項11に記載の表示装置。
  26.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトが表示される表示空間において第1の物体と第2の物体とが前記オブジェクトを挟む位置にあるときに、前記オブジェクトを変化させる制御部と
     を備えることを特徴とする表示装置。
  27.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     表示面において第1の物体および第2の物体を検出する検出部と、
     前記表示面において前記第1の物体と前記第2の物体の間に前記オブジェクトが位置することが検出されたときに、前記オブジェクトを変化させる制御部と
     を備えることを特徴とする表示装置。
  28.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     表示面において第1の物体および第2の物体を検出する検出部と、
     前記表示面において前記第1の物体または前記第2の物体の少なくとも一方が前記オブジェクトと接触する位置にあることが検出されたときに、前記オブジェクトを変化させる制御部と
     を備えることを特徴とする表示装置。
  29.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトが立体的に表示される表示空間において物体を検出する検出部と、
     前記表示空間において前記物体の移動が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させる制御部と
     を備えることを特徴とする表示装置。
  30.  前記検出部は、前記物体が前記オブジェクトの外側から内側へ移動する第1の状態を検出し、
     前記制御部は、前記第1の状態が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させることを特徴とする請求項29に記載の表示装置。
  31.  前記検出部は、所定時間以上、前記物体が前記オブジェクトと接触する位置にある第2の状態を検出し、
     前記制御部は、前記第2の状態が検出された後に、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させることを特徴とする請求項29に記載の表示装置。
  32.  前記検出部は、前記物体が前記オブジェクトの外側から内側へ向けて所定時間以上継続して移動する第3の状態を検出し、
     前記制御部は、前記第3の状態が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させることを特徴とする請求項29に記載の表示装置。
  33.  前記検出部は、前記物体が前記オブジェクトの外側から内側へ向けて所定時間以上継続して移動する第4の状態を検出し、
     前記制御部は、前記物体の前記オブジェクトの内側への移動が検出されたときから前記オブジェクトを変化させ始めることを特徴とする請求項29に記載の表示装置。
  34.  前記制御部は、前記オブジェクトを変化させ始めた後に、前記所定時間の経過前に前記物体の前記オブジェクトの内側への移動が検出されなくなった場合に、前記オブジェクトの変化を元に戻す逆変化の表示を行うことを特徴とする請求項33に記載の表示装置。
  35.  前記制御部は、前記変化に要した時間よりも短い時間で前記逆変化の表示を行うことを特徴とする請求項34に記載の表示装置。
  36.  前記制御部は、前記物体の移動にともなって、前記オブジェクトを移動させ、回転させ、またはこれらを組み合わせることにより、前記オブジェクトを変化させることを特徴とする請求項29に記載の表示装置。
  37.  前記制御部は、第1の物体あるいは第2の物体の移動にともなって、前記オブジェクトを変形させることにより、前記オブジェクトを変化させることを特徴とする請求項29に記載の表示装置。
  38.  前記制御部は、前記物体の移動にともなって、前記オブジェクトを消失させることにより、前記オブジェクトを変化させることを特徴とする請求項29に記載の表示装置。
  39.  装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、所定のオブジェクトを3次元表示する表示部と、
     前記オブジェクトが立体的に表示される表示空間において物体の移動が検出されたときに、前記物体の移動に応じて前記オブジェクトを前記表示空間において変化させる制御部と
     を備えることを特徴とする表示装置。
  40.  表示装置であって、
     装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、商品に対応するオブジェクトを3次元表示する表示部と、
     前記オブジェクトを操作する現実の物体を検出する検出部と、
     前記現実の物体による操作に応じて前記オブジェクトの位置を変化させ、前記現実の物体が前記オブジェクトを操作しなくなった場合には、前記オブジェクトをその場に留まらせる制御部と
     を備える表示装置。
  41.  前記制御部は、前記オブジェクトの位置に基づいて、前記オブジェクトに対応する商品に関連する商品を絞り込む請求項40に記載の表示装置。
  42.  前記制御部は、第1の現実の物体が第2の現実の物体を操作した場合に、当該第2の現実の物体を仮想的なオブジェクトとして前記表示部に表示させる請求項40に記載の表示装置。
  43.  表示装置の制御方法であって、
     ユーザの両目のそれぞれに対応した画像を表示することで、オブジェクトを3次元表示するステップと、
     前記オブジェクトを操作する現実の物体を検出するステップと、
     前記現実の物体による操作に応じて前記オブジェクトの位置を変化させるステップと、 前記現実の物体が前記オブジェクトを操作しなくなった場合には、前記オブジェクトをその場に留まらせるステップと
     を含む制御方法。
  44.  表示装置であって、
     装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示する表示部と、
     当該表示装置の現実の空間における方向の変化を検出するセンサと、
     前記センサの検出する前記方向の変化に応じて前記オブジェクトを変化させる制御部と
     を備える表示装置。
  45.  前記制御部は、前記方向の変化に応じて視点の方向を変化させることによって前記オブジェクトを変化させる請求項44に記載の表示装置。
  46.  ユーザの両目のそれぞれに対応した画像を撮影する撮影部をさらに備え、
     前記制御部は、前記撮影部によって撮影された画像と、視点から見た前記オブジェクトの画像とを重ねた画像をそれぞれの目毎に作成して前記表示部に表示させる請求項44に記載の表示装置。
  47.  前記撮影部の撮影範囲内の現実の物体を検出する検出部をさらに備え、
     前記制御部は、前記現実の物体の動きに応じて前記オブジェクトを変化させる請求項46に記載の表示装置。
  48.  前記センサは、当該表示装置の現実の空間における位置の変化をさらに検出し、
     前記制御部は、前記センサの検出する前記位置の変化に応じて視点の位置を変化させる請求項44に記載の表示装置。
  49.  前記センサは、前記ユーザが首を振る動作を検出し、
     前記制御部は、前記首を振る動作の方向に応じて、前記オブジェクトを変化させる請求項44に記載の表示装置。
  50.  表示装置の制御方法であって、
     ユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示するステップと、
     当該表示装置の現実の空間における方向の変化を検出するステップと、
     前記方向の変化に応じて前記オブジェクトを変化させるステップと
     を含む制御方法。
  51.  表示装置であって、
     装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示する表示部と、
     当該表示装置の現実の空間における位置の変化を検出するセンサと、
     前記センサの検出する前記位置の変化に応じて前記オブジェクトを変化させる制御部と
     を備える表示装置。
  52.  前記表示部は、仮想空間内の視点から見た前記オブジェクトを表示し、
     前記制御部は、前記位置の変化に応じて前記視点の位置を変化させることによって前記オブジェクトを変化させる請求項51に記載の表示装置。
  53.  ユーザの両目のそれぞれに対応した画像を撮影する撮影部をさらに備え、
     前記制御部は、前記撮影部によって撮影された画像と、視点から見た前記オブジェクトの画像とを重ねた画像をそれぞれの目毎に作成して前記表示部に表示させる請求項51に記載の表示装置。
  54.  前記撮影部の撮影範囲内の現実の物体を検出する検出部をさらに備え、
     前記制御部は、前記現実の物体の動きに応じて前記オブジェクトを変化させる請求項53に記載の表示装置。
  55.  前記センサは、当該表示装置の現実の空間における方向の変化をさらに検出し、
     前記制御部は、前記センサの検出する前記方向の変化に応じて視点の方向を変化させる請求項51に記載の表示装置。
  56.  前記制御部は、前記センサの検出する前記位置の変化に対して、前記オブジェクトを大きく変化させる請求項51に記載の表示装置。
  57.  前記制御部は、前記センサの検出する前記位置の変化に対して、前記オブジェクトを小さく変化させる請求項51に記載の表示装置。
  58.  前記オブジェクトを変化させることには、当該オブジェクト自体の形状や色彩や構造を変化させることが含まれる請求項51に記載の表示装置。
  59.  前記オブジェクトを変化させることには、当該オブジェクトのうちの一のオブジェクトから、他のオブジェクトに換えることが含まれる請求項51に記載の表示装置。
  60.  表示装置の制御方法であって、
     ユーザの両目のそれぞれに対応した画像を表示することで、仮想空間に配置されたオブジェクトを3次元表示するステップと、
     当該表示装置の現実の空間における位置の変化を検出するステップと、
     前記位置の変化に応じて前記オブジェクトを変化させるステップと
     を含む制御方法。
PCT/JP2013/076046 2012-09-27 2013-09-26 表示装置、制御方法および制御プログラム WO2014050957A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13842569.9A EP2903265A4 (en) 2012-09-27 2013-09-26 DISPLAY DEVICE, CONTROL METHOD, AND CONTROL PROGRAM
CN201380050460.9A CN104685869B (zh) 2012-09-27 2013-09-26 显示装置、控制方法
US14/431,194 US10341642B2 (en) 2012-09-27 2013-09-26 Display device, control method, and control program for stereoscopically displaying objects

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2012-215080 2012-09-27
JP2012215080A JP2014072576A (ja) 2012-09-27 2012-09-27 表示装置および制御方法
JP2012215081A JP6159069B2 (ja) 2012-09-27 2012-09-27 表示装置
JP2012214954A JP6125785B2 (ja) 2012-09-27 2012-09-27 表示装置および制御方法
JP2012-214954 2012-09-27
JP2012-215079 2012-09-27
JP2012215079A JP2014072575A (ja) 2012-09-27 2012-09-27 表示装置および制御方法
JP2012-215081 2012-09-27

Publications (1)

Publication Number Publication Date
WO2014050957A1 true WO2014050957A1 (ja) 2014-04-03

Family

ID=50388352

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076046 WO2014050957A1 (ja) 2012-09-27 2013-09-26 表示装置、制御方法および制御プログラム

Country Status (4)

Country Link
US (1) US10341642B2 (ja)
EP (1) EP2903265A4 (ja)
CN (2) CN104685869B (ja)
WO (1) WO2014050957A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111125273A (zh) * 2018-11-01 2020-05-08 百度在线网络技术(北京)有限公司 门店选址方法及装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR101839441B1 (ko) * 2014-09-17 2018-03-16 (주)에프엑스기어 두드림에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US10725297B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
WO2016171712A1 (en) * 2015-04-24 2016-10-27 Hewlett-Packard Development Company, L.P. Tracking a target with an imaging system
WO2017039348A1 (en) * 2015-09-01 2017-03-09 Samsung Electronics Co., Ltd. Image capturing apparatus and operating method thereof
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
JP6597235B2 (ja) 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6560974B2 (ja) * 2015-12-17 2019-08-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
JP2017182532A (ja) 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP7196834B2 (ja) 2017-03-22 2022-12-27 ソニーグループ株式会社 画像処理装置および方法、並びにプログラム
CN107679942A (zh) * 2017-09-26 2018-02-09 北京小米移动软件有限公司 基于虚拟现实的产品展示方法、装置及存储介质
CN107835403B (zh) 2017-10-20 2020-06-26 华为技术有限公司 一种以3d视差效果显示的方法及装置
CN107831920B (zh) * 2017-10-20 2022-01-28 广州视睿电子科技有限公司 光标移动显示方法、装置、移动终端及存储介质
CN110119194A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 虚拟场景处理方法、装置、交互系统、头戴显示装置、视觉交互装置及计算机可读介质
US11285368B2 (en) * 2018-03-13 2022-03-29 Vc Inc. Address direction guiding apparatus and method
CN108379780B (zh) * 2018-03-13 2020-06-02 北京小米移动软件有限公司 虚拟跑步场景控制方法和装置、跑步机

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH11312033A (ja) * 1998-04-28 1999-11-09 Sony Corp 眼鏡型画像表示装置
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP2011095547A (ja) 2009-10-30 2011-05-12 Sharp Corp 表示装置
JP2011175439A (ja) * 2010-02-24 2011-09-08 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200162A (ja) 1993-12-29 1995-08-04 Namco Ltd 仮想現実体験装置およびこれを用いたゲーム装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11237867A (ja) 1998-02-20 1999-08-31 Shimadzu Corp 仮想空間表示装置
JP3786154B2 (ja) 1998-04-30 2006-06-14 積水ハウス株式会社 Cg画像による建築物の表示方法
JP2001154781A (ja) 1999-11-29 2001-06-08 Nec Corp デスクトップ情報装置
JP2002042172A (ja) 2000-07-25 2002-02-08 Matsushita Electric Works Ltd 仮想物体の選択方法、この方法が適用される記録媒体およびサービス
JP2002092496A (ja) 2000-09-14 2002-03-29 Nec Corp ネット取引方法、データ処理方法および装置、データ通信システム、情報記憶媒体
JP2003030469A (ja) 2001-07-16 2003-01-31 Ricoh Co Ltd 仮想現実空間を利用したバーチャルデパートによる商品販売システム、商品販売システム、プログラム、及び記録媒体
JP3847634B2 (ja) 2002-02-15 2006-11-22 シャープ株式会社 仮想空間シミュレーション装置
US20030184525A1 (en) * 2002-03-29 2003-10-02 Mitac International Corp. Method and apparatus for image processing
JP2003296379A (ja) 2002-04-05 2003-10-17 Fuontaajiyu:Kk シミュレーション方法
JP2005157610A (ja) 2003-11-25 2005-06-16 Canon Inc 画像処理装置および方法
JP2005165776A (ja) 2003-12-03 2005-06-23 Canon Inc 画像処理方法、画像処理装置
JP2005174021A (ja) 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
EP3121697A1 (en) 2004-07-30 2017-01-25 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
SE0601216L (sv) 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
JP5228305B2 (ja) 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
AU2008270883B2 (en) 2007-05-18 2013-07-25 The Uab Research Foundation Virtual interactive presence systems and methods
GB2467461B (en) * 2007-09-14 2012-03-07 Nat Inst Of Advanced Ind Scien Virtual reality environment generating apparatus and controller apparatus
US8246170B2 (en) * 2007-11-21 2012-08-21 Panasonic Corporation Display apparatus
JP5125779B2 (ja) 2008-06-04 2013-01-23 株式会社ニコン ヘッドマウントディスプレイ装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP5407498B2 (ja) * 2009-04-08 2014-02-05 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
US20110057862A1 (en) * 2009-09-07 2011-03-10 Hsin-Liang Chen Image display device
JP2011086049A (ja) 2009-10-14 2011-04-28 Mitsubishi Electric Corp 保全用携帯端末装置
JP4999910B2 (ja) 2009-12-02 2012-08-15 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
JP4679661B1 (ja) 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
CN102906623A (zh) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
JP5759110B2 (ja) 2010-04-27 2015-08-05 泉陽興業株式会社 観覧車
JP5640486B2 (ja) 2010-06-15 2014-12-17 日産自動車株式会社 情報表示装置
JP2012048656A (ja) 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
US20120069055A1 (en) * 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus
JP5597087B2 (ja) 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP5472056B2 (ja) 2010-11-19 2014-04-16 コニカミノルタ株式会社 表示システム、表示処理装置、表示方法、および表示プログラム
JP5429198B2 (ja) 2011-01-12 2014-02-26 コニカミノルタ株式会社 画像処理装置、画像形成システム、および制御プログラム
WO2012105175A1 (ja) 2011-02-01 2012-08-09 パナソニック株式会社 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH11312033A (ja) * 1998-04-28 1999-11-09 Sony Corp 眼鏡型画像表示装置
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2007042055A (ja) * 2005-06-30 2007-02-15 Canon Inc 画像処理方法、画像処理装置
JP2007299326A (ja) * 2006-05-02 2007-11-15 Canon Inc 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
JP2011095547A (ja) 2009-10-30 2011-05-12 Sharp Corp 表示装置
JP2011175439A (ja) * 2010-02-24 2011-09-08 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2011198150A (ja) * 2010-03-19 2011-10-06 Fujifilm Corp ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOICHI HIROTA ET AL.: "Yawarakai Kaso Buttai no Hyogen Shuho - 2 Yubi ni yoru Henkei Sosa", THE VIRTUAL REALITY SOCIETY OF JAPAN DAI 4 KAI TAIKAI RONBUNSHU, 29 September 1999 (1999-09-29), pages 89 - 92, XP008179093 *
See also references of EP2903265A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111125273A (zh) * 2018-11-01 2020-05-08 百度在线网络技术(北京)有限公司 门店选址方法及装置

Also Published As

Publication number Publication date
EP2903265A1 (en) 2015-08-05
EP2903265A4 (en) 2016-05-18
CN106020620B (zh) 2019-07-26
US10341642B2 (en) 2019-07-02
CN104685869B (zh) 2018-12-28
CN104685869A (zh) 2015-06-03
CN106020620A (zh) 2016-10-12
US20150312559A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
WO2014050957A1 (ja) 表示装置、制御方法および制御プログラム
WO2014050959A1 (ja) 表示装置および制御方法
US20230093676A1 (en) Virtual reality system and method
JP2014072576A (ja) 表示装置および制御方法
US8872854B1 (en) Methods for real-time navigation and display of virtual worlds
CN107209570B (zh) 动态自适应虚拟列表
CN103635891B (zh) 大量同时远程数字呈现世界
US20170352188A1 (en) Support Based 3D Navigation
JP5718603B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP6159069B2 (ja) 表示装置
JP2017208820A (ja) 発注システム
JP2014072575A (ja) 表示装置および制御方法
JP6125785B2 (ja) 表示装置および制御方法
JP6302506B2 (ja) 表示装置、制御方法および制御プログラム
JP2016224959A (ja) 表示装置および制御方法
JP2017163560A (ja) 表示装置、システムおよび表示方法
GB2605302A (en) Virtual reality system and method
WO2016057997A1 (en) Support based 3d navigation
CN117136371A (zh) 在虚拟环境中显示产品的方法
GB2605300A (en) Virtual reality system and method
GB2605301A (en) Virtual reality system and method
GB2605298A (en) Virtual reality system and method
GB2605299A (en) Virtual reality system and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13842569

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14431194

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013842569

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE