WO2014054317A1 - ユーザインタフェース装置及びユーザインタフェース方法 - Google Patents

ユーザインタフェース装置及びユーザインタフェース方法 Download PDF

Info

Publication number
WO2014054317A1
WO2014054317A1 PCT/JP2013/066941 JP2013066941W WO2014054317A1 WO 2014054317 A1 WO2014054317 A1 WO 2014054317A1 JP 2013066941 W JP2013066941 W JP 2013066941W WO 2014054317 A1 WO2014054317 A1 WO 2014054317A1
Authority
WO
WIPO (PCT)
Prior art keywords
change
pointing
pointing position
unit
user
Prior art date
Application number
PCT/JP2013/066941
Other languages
English (en)
French (fr)
Inventor
克幸 永井
幸司 森下
尚志 野田
Original Assignee
Necソフト株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソフト株式会社 filed Critical Necソフト株式会社
Priority to EP13843524.3A priority Critical patent/EP2905676A4/en
Priority to JP2014539626A priority patent/JP5863984B2/ja
Priority to US14/433,456 priority patent/US9760180B2/en
Priority to CN201380052301.2A priority patent/CN104704449B/zh
Publication of WO2014054317A1 publication Critical patent/WO2014054317A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • the present invention relates to user interface technology.
  • Various devices such as a mouse, a joystick, a trackball, and a touch panel are provided as user interface (man-machine interface) devices that allow user input to a computer.
  • user interface devices that enable user input in accordance with body movements by detecting body movements (gestures) such as data gloves and data suits have been developed. With such a user interface device, the user can operate the computer with an intuitive feeling.
  • Patent Document 1 proposes a technology that facilitates operation input by a user's gesture.
  • the sensitivity of detecting the movement of the pointing point in the depth direction is determined based on the resolution of the distance sensor, the three-dimensional display performance of the display, and the measurement distance in the depth direction of the pointing point such as the finger of the user's hand.
  • the parameters to be determined are adjusted.
  • the operation input by the user's gesture is recognized by calculating the distance in the depth direction of the indication point based on the adjusted parameter.
  • the above-described proposed method only assumes user input corresponding to the movement of a specific part (instruction point) of the body such as a finger of a hand, and the action of grabbing an object with the hand or the finger.
  • the present invention has been made in view of such circumstances, and provides a user interface technique for operating a computer intuitively and easily by a gesture including a change in the shape of a specific part of a user.
  • a user interface device includes a position acquisition unit that sequentially acquires a pointing position indicating at least one representative position of a user's specific part used for a pointing operation, and a change of the user's specific part to a predetermined shape
  • a position detecting unit that detects the start and end of change, a position holding unit that holds a pointing position corresponding to the start of change detected by the change detecting unit among the pointing positions sequentially acquired by the position acquiring unit, and a position acquiring unit
  • Calculating unit that specifies a pointing position corresponding to the end of the change detected by the change detecting unit among the pointing positions acquired by calculating the difference between the specified pointing position and the pointing position held by the position holding unit
  • the position acquisition unit using the difference calculated by the calculation unit. It has a position adjusting unit for adjusting the in-coating position.
  • the second aspect relates to a user interface method.
  • at least one computer sequentially acquires a pointing position indicating at least one representative position of the user's specific part used for the pointing operation, and converts it into a predetermined shape of the user's specific part.
  • the start and end of the change are detected, and the pointing position corresponding to the detected change start is sequentially held among the sequentially acquired pointing positions, and the corresponding change end is detected among the sequentially acquired pointing positions.
  • the pointing position is specified, the difference between the specified pointing position and the held pointing position is calculated, and the sequentially acquired pointing position is adjusted using the calculated difference.
  • a program that causes at least one computer to realize each configuration in the first aspect described above may be used, or a computer-readable recording medium that records such a program may be used.
  • This recording medium includes a non-transitory tangible medium.
  • FIG. 2 is a diagram conceptually illustrating a hardware configuration example of a three-dimensional user interface device (3D-UI device) in the first embodiment. It is a figure which shows the example of the utilization form of the three-dimensional user interface apparatus (3D-UI apparatus) in 1st Embodiment. It is a figure which shows the example of the external appearance structure of HMD. It is a figure which shows notionally the process structural example of the sensor side apparatus in 1st Embodiment.
  • the user interface device includes a position acquisition unit that sequentially acquires a pointing position indicating at least one representative position of a user's specific part used for a pointing operation, and a change of the user's specific part to a predetermined shape
  • a position detecting unit that detects the start and end of change, a position holding unit that holds a pointing position corresponding to the start of change detected by the change detecting unit among the pointing positions sequentially acquired by the position acquiring unit, and a position acquiring unit Calculating unit that specifies a pointing position corresponding to the end of the change detected by the change detecting unit among the pointing positions acquired by calculating the difference between the specified pointing position and the pointing position held by the position holding unit And the difference calculated by the calculation unit It has a position adjusting unit for adjusting the pointing position that, a.
  • At least one computer sequentially obtains a pointing position indicating at least one representative position of the user's specific part used for the pointing operation, and changes to a predetermined shape of the user's specific part.
  • the start and end of the change are detected, and the pointing position corresponding to the detected change start is sequentially held among the sequentially acquired pointing positions, and the corresponding change end is detected among the sequentially acquired pointing positions.
  • Specifying a pointing position calculating a difference between the specified pointing position and a held pointing position, and adjusting the sequentially acquired pointing position using the calculated difference.
  • FIG. 1 is a diagram conceptually illustrating acquisition of a pointing position.
  • FIG. 2 is a diagram conceptually showing a problem related to the acquisition of the pointing position.
  • FIG. 3 is a diagram conceptually illustrating the adjustment of the pointing position in the above-described embodiment.
  • the pointing position corresponding to the specific part of the user is sequentially acquired.
  • at least one representative position of the specific part of the user is specified as the pointing position from the two-dimensional image or the three-dimensional information (for example, the two-dimensional image and the depth information) representing the specific part of the user.
  • the pointing position may be obtained from skeleton information obtained by skeleton tracking of a game controller system called Kinect (registered trademark).
  • the pointing position may be set to the position of the center of gravity obtained from the recognized outline of the specific part of the user.
  • the present embodiment does not limit the pointing position specifying method.
  • a hand is used as a specific part of the user, and a representative one point position in the hand that is farthest from the body is set as the pointing position.
  • the pointing positions P1 and P2 are sequentially acquired by moving the entire arm including the user's hand.
  • FIG. 2 when a cube is an object to be gripped, the pointing position with respect to the cube is appropriate, and a predetermined operation (gripping) is recognized, the computer sets the cube in a state of being gripped by the user.
  • the pointing position P ⁇ b> 1 acquired when the user opens his hand is set at the fingertip of that hand.
  • a position farthest from the body in the grasped hand is acquired as the pointing position P2.
  • the pointing position corresponding to the specific part is shifted before and after the change in the shape. This does not depend on the method of determining the pointing position in the specific part of the user. For example, even when the center of gravity of the hand as a specific part is set as the pointing position, the position of the center of gravity when the hand is opened is different from the position of the center of gravity when the hand is gripped. It will shift.
  • Such a deviation of the pointing position before and after the specific gesture causes a distance between the position of the display object to be operated with the specific gesture and the pointing position after the specific gesture, and the specific gesture is There is a possibility that it is erroneously recognized as a user input different from the intended user input. In other words, there is a possibility that the display object cannot be operated by the specific gesture.
  • the user-intended operation is not performed by the change of the pointing position according to the shape change. There is a case.
  • the start of change and the end of change of the specific part to the predetermined shape are detected.
  • the change in the shape of the specific part of the user is detected from information obtained from a sensor such as a strain sensor mounted on a data glove or a data suit, for example. Further, the change may be detected from a two-dimensional image or three-dimensional information (for example, a two-dimensional image and depth information) representing a specific part of the user.
  • the present embodiment does not limit the detection method of the change in the shape of the specific part.
  • the predetermined shape is, for example, the shape of the hand in a state where an object is held when the specific part is a hand.
  • the change start is detected, for example, when the shape has changed in a predetermined shape direction beyond a predetermined change width held in advance.
  • the end of change is detected, for example, when a specific part of the user has a predetermined shape.
  • the end of change may be detected when the shape further changes beyond the predetermined change information (such as strain information) obtained from the sensor in a state where the shape of the specific part is the predetermined shape.
  • the end of the change may be detected when the shape change stops for a predetermined time held in advance.
  • the pointing position P1 corresponding to the start of the change detected by the change detecting unit among the sequentially acquired pointing positions is held and further detected by the change detecting unit.
  • the pointing position P2 corresponding to the end of the change is specified.
  • the pointing position corresponding to the start of the change means a pointing position acquired before or after the start of the change is detected by the change detection unit. The same applies to the pointing position corresponding to the end of the change.
  • the pointing position P2 corresponding to the end of the change and the held pointing position P1 is calculated, and the pointing position is adjusted using the calculated difference.
  • the pointing position P4 related to the specific part in the shape at the end of the change detected by the change detecting unit is calculated as described above by the position acquisition unit related to the specific part having the shape.
  • the value is adjusted by the difference.
  • the addition of the difference is used as the adjustment of the pointing position.
  • the adjustment of the pointing position is not limited to the addition of the difference, and the adjustment may be performed by adding a difference multiplied by a predetermined coefficient.
  • the pointing position after the end of the change is determined using the deviation of the pointing position corresponding to the specific part before and after the change in the shape of the specific part of the user used for the pointing operation. Is adjusted. Therefore, according to the present embodiment, it is possible to prevent misrecognition of user input due to a displacement of the pointing position before and after the specific gesture, and as a result, it is possible to intuitively use the computer by the gesture including the change in the shape of the specific part of the user. It is possible to realize a user interface that is easy to understand.
  • FIG. 4 is a diagram conceptually illustrating a hardware configuration example of the three-dimensional user interface device (hereinafter referred to as a 3D-UI device) 1 in the first embodiment.
  • the 3D-UI device 1 in the first embodiment is large and has a sensor side configuration and a display side configuration.
  • the sensor side configuration is formed by a three-dimensional sensor (hereinafter referred to as a 3D sensor) 8 and a sensor side device 10.
  • the display side configuration is formed of a head mounted display (hereinafter referred to as HMD) 9 and a display side device 30.
  • HMD head mounted display
  • 3D is abbreviated as 3D as appropriate.
  • FIG. 5 is a diagram illustrating an example of a usage mode of the 3D-UI device 1 in the first embodiment.
  • the 3D sensor 8 is disposed at a position where a specific part of the user can be detected.
  • the HMD 9 is mounted on the user's head and allows the user to visually recognize the above-described virtual 3D space synthesized with the line-of-sight video together with the line-of-sight video corresponding to the user's line of sight.
  • the 3D sensor 8 detects 3D information used for detecting a specific part of the user.
  • the 3D sensor 8 is realized by a visible light camera and a distance image sensor like Kinect (registered trademark), for example.
  • a distance image sensor also called a depth sensor, irradiates a user with a pattern of near-infrared light from a laser and captures the pattern with a camera that detects the near-infrared light from the distance image sensor to the user.
  • the distance (depth) of is calculated.
  • the method of realizing the 3D sensor 8 itself is not limited, and the 3D sensor 8 may be realized by a three-dimensional scanner method using a plurality of visible light cameras. In FIG. 4, the 3D sensor 8 is illustrated as one element, but the 3D sensor 8 is realized by a plurality of devices such as a visible light camera that captures a two-dimensional image of the user and a sensor that detects a distance to the user. May be.
  • FIG. 6 is a diagram showing an example of the external configuration of the HMD 9.
  • FIG. 6 shows the configuration of an HMD 9 called a video see-through type.
  • the HMD 9 has two line-of-sight cameras 9a and 9b and two displays 9c and 9d.
  • Each line-of-sight camera 9a and 9b captures each line-of-sight image corresponding to each line of sight of the user.
  • the HMD 9 can also be called an imaging unit.
  • Each display 9c and 9d is arranged so as to cover most of the visual field of the user, and displays a combined 3D image in which a virtual 3D space is combined with each line-of-sight image.
  • the sensor-side device 10 and the display-side device each have a CPU (Central Processing Unit) 2, a memory 3, a communication device 4, an input / output interface (I / F) 5, and the like that are connected to each other via a bus or the like.
  • the memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.
  • the input / output I / F 5 of the sensor side device 10 is connected to the 3D sensor 8, and the input / output I / F 5 of the display side device 30 is connected to the HMD 9. Further, the input / output I / F 5 of the sensor-side device 10 may be connected to a sensor that acquires information on the shape change of a specific part of the user, such as a distortion sensor.
  • the input / output I / F 5 and the 3D sensor 8 and the input / output I / F 5 and the HMD 9 may be connected so as to be communicable by radio.
  • Each communication device 4 communicates with other devices (such as the sensor-side device 10 and the display-side device 30) in a wireless or wired manner. The present embodiment does not limit the form of such communication. Further, the specific hardware configurations of the sensor side device 10 and the display side device 30 are not limited.
  • FIG. 7 is a diagram conceptually illustrating a processing configuration example of the sensor-side device 10 in the first embodiment.
  • the sensor-side device 10 in the first embodiment includes a 3D information acquisition unit 11, a first object detection unit 12, a first reference setting unit 13, a position calculation unit 14, a state acquisition unit 15, a transmission unit 16, a change detection unit 21, A position holding unit 22, a calculation unit 23, a position adjustment unit 24, and the like are included.
  • Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2.
  • the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 5 and stored in the memory 3. Good.
  • CD Compact Disc
  • the 3D information acquisition unit 11 sequentially acquires 3D information detected by the 3D sensor 8.
  • the 3D information includes a two-dimensional image of the user obtained by visible light and information on the distance (depth) from the 3D sensor 8.
  • the first object detection unit 12 detects a known common real object from the 3D information acquired by the 3D information acquisition unit 11.
  • the common real object is an image or an object arranged in the real world, and is called an AR (Augmented Reality) marker or the like.
  • AR Augmented Reality
  • the first object detection unit 12 holds in advance information on the shape, size, color, and the like indicated by the common real object, and detects the common real object from the 3D information using such known information.
  • the first reference setting unit 13 sets a 3D coordinate space based on the common real object detected by the first object detection unit 12, and calculates the position and orientation of the 3D sensor 8 in the 3D coordinate space. For example, the first reference setting unit 13 sets a 3D coordinate space having the reference point extracted from the common real object as the origin and three axes orthogonal to each other from the reference point.
  • the first reference setting unit 13 includes a known shape and size related to the common real object (corresponding to the original shape and size) and a shape and size indicated by the common real object extracted from the 3D information (how to see from the 3D sensor 8 And the position and orientation of the 3D sensor 8 are calculated.
  • the position calculation unit 14 uses the 3D information sequentially acquired by the 3D information acquisition unit 11 to sequentially calculate the 3D pointing position on the 3D coordinate space related to the specific part of the user. Thereby, the position calculation part 14 can also be called a position acquisition part.
  • the position calculation unit 14 calculates the 3D pointing position specifically as follows.
  • the position calculation unit 14 first extracts a 3D pointing position indicating at least one representative position of the user's specific part from the 3D information acquired by the 3D information acquisition unit 11.
  • the extraction of the 3D pointing position is performed by skeleton tracking as described above, for example.
  • the 3D pointing position extracted here corresponds to the camera coordinate system of the 3D sensor 8.
  • the position calculation unit 14 determines the 3D pointing position corresponding to the camera coordinate system of the 3D sensor 8 based on the position and orientation of the 3D sensor 8 and the 3D coordinate space calculated by the first reference setting unit 13 as the first reference.
  • the 3D pointing position in the 3D coordinate space set by the setting unit 13 is converted. This conversion means conversion from the camera coordinate system of the 3D sensor 8 to the 3D coordinate system set based on the common real object.
  • the position calculation unit 14 extracts the 3D pointing positions of a plurality of specific parts from the 3D information acquired by the 3D information acquisition unit 11, and each 3D pointing position in the 3D coordinate space is extracted from each 3D pointing position.
  • the specific part is a part of the body used by the user to operate the virtual object displayed on the displays 9c and 9d of the HMD 9, and therefore has a certain area or volume. Therefore, the 3D pointing position calculated by the position calculation unit 14 may be a position of a certain point in the specific part, or may be a position of a plurality of points.
  • the change detection unit 21 detects the start and end of change of a specific part of the user to a predetermined shape. Furthermore, the change detection unit 21 detects a recovery change in the recovery direction from the predetermined shape of the shape of the specific part of the user.
  • the recovery direction from the predetermined shape means a change direction from the shape corresponding to the end of the change (predetermined shape) to the shape corresponding to the start of the change (original shape).
  • the change detection unit 21 acquires distortion (motion) information of the specific part obtained from a sensor such as a distortion sensor connected to the input / output I / F 5, and based on this information, starts change, ends change, and recovers. Detect changes.
  • the change detection unit 21 may detect from the 3D information representing the specific part of the user acquired by the 3D information acquisition unit 11.
  • the recovery change may be detected by restarting the shape change after detecting the end of change.
  • the position holding unit 22 holds the 3D pointing position corresponding to the start of the change detected by the change detecting unit 21 among the 3D pointing positions sequentially calculated by the position calculating unit 14. For example, the position holding unit 22 receives a change start detection notification from the change detection unit 21 and holds the latest 3D pointing position at that time calculated by the position calculation unit 14.
  • the position holding unit 22 releases the held 3D pointing position in response to the detection of the above-described recovery change by the change detection unit 21.
  • the release of the 3D pointing position may be realized by deleting the 3D pointing position, or may be realized by setting no value (NULL) of the 3D pointing position.
  • the calculation unit 23 specifies a 3D pointing position corresponding to the end of the change detected by the change detection unit 21 among the 3D pointing positions acquired by the position calculation unit 14, and specifies the specified 3D pointing position and the position holding unit 22.
  • the difference from the 3D pointing position held in step S is calculated.
  • the calculation unit 23 receives a notification of detection of the end of change from the change detection unit 21 and specifies the latest 3D pointing position calculated by the position calculation unit 14 as the 3D pointing position corresponding to the end of change.
  • the calculation unit 23 calculates a distance in the 3D coordinate space as the difference. Note that the calculation unit 23 may calculate the distance between the specific axis in the 3D coordinate space, that is, the axis parallel to the depth direction of the 3D sensor 8, as the difference.
  • the calculation unit 23 calculates the above-described difference when the position holding unit 22 holds the 3D pointing position.
  • the calculation unit 23 may not calculate the above difference in a state where the 3D pointing position is released by the position holding unit 22.
  • the position adjustment unit 24 uses the difference calculated by the calculation unit 23 to adjust the 3D pointing position sequentially acquired by the position calculation unit 14. For example, the position adjusting unit 24 sets the position obtained by adding the difference to the 3D pointing position corresponding to the end of the change as the adjusted 3D pointing position. The position adjustment unit 24 may add the difference multiplied by the predetermined coefficient.
  • the position adjusting unit 24 stops adjusting the 3D pointing position in response to the release of the 3D pointing position by the position holding unit 22. Therefore, in the position adjustment unit 24, the calculation unit 23 calculates each 3D pointing position sequentially calculated by the position calculation unit 14 after the change detection unit 21 detects the end of the change until the recovery change is detected. Adjust each of these differences.
  • the state acquisition unit 15 specifies the state of the specific part based on the shape of the specific part of the user detected by the change detection unit 21, and acquires state information. For example, the state acquisition unit 15 acquires state information indicating at least one of a state in which the hand is held and a state in which the hand is opened. The present embodiment does not limit the number of states that can be indicated by this state information within a detectable range. When a plurality of specific parts are used, the state acquisition unit 15 acquires state information regarding each specific part.
  • the transmission unit 16 displays the 3D pointing position calculated by the position calculation unit 14 or the 3D pointing position adjusted by the position adjustment unit 24 and the state information acquired by the state acquisition unit 15 regarding the specific part of the user on the display side device Send to 30.
  • FIG. 8 is a diagram conceptually illustrating a processing configuration example of the display-side device 30 in the first embodiment.
  • the display-side device 30 in the first embodiment includes a line-of-sight image acquisition unit 31, a second object detection unit 32, a second reference setting unit 33, a virtual data generation unit 34, an operation specification unit 35, an object processing unit 36, and an image composition unit. 37, a display processing unit 38, and the like.
  • Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2.
  • the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 5 and stored in the memory 3. Good.
  • CD Compact Disc
  • the line-of-sight image acquisition unit 31 acquires the line-of-sight image of the user from the HMD 9.
  • This line-of-sight image may show a specific part of the user. This specific part is also the same as the specific part to be detected by the sensor-side device 10.
  • the line-of-sight image acquisition unit 31 acquires line-of-sight images corresponding to the left eye and the right eye, respectively. Note that each processing unit performs the same processing on both line-of-sight images corresponding to the left eye and the right eye, and therefore, in the following description, a single line-of-sight image will be described.
  • the second object detection unit 32 detects a known common real object from the line-of-sight image acquired by the line-of-sight image acquisition unit 31.
  • This common real object may be the same as the object detected by the sensor-side device 10 described above, a specific part of the object is used in the sensor-side device 10, and the entire object is used on the HMD 9 side. The form used may be sufficient. Since the processing of the second object detection unit 32 is the same as that of the first object detection unit 12 of the sensor-side device 10 described above, detailed description thereof is omitted here. Note that the common real object included in the line-of-sight image has a different imaging direction from the common real object included in the 3D information obtained by the 3D sensor 8.
  • the second reference setting unit 33 sets the 3D coordinate space set by the first reference setting unit 13 of the sensor side device 10 based on the common real object detected by the second object detection unit 32, and the HMD 9 Are calculated respectively. Since the processing of the second reference setting unit 33 is also the same as that of the first reference setting unit 13 of the sensor side device 10, detailed description thereof is omitted here. Since the 3D coordinate space set by the second reference setting unit 33 is also set based on the same common real object as the 3D coordinate space set by the first reference setting unit 13 of the sensor-side device 10, as a result, 3D The coordinate space is shared between the sensor side device 10 and the display side device 30.
  • the virtual data generation unit 34 generates virtual 3D object data arranged in a 3D coordinate space shared with the sensor side device 10 by the second reference setting unit 33.
  • the virtual data generation unit 34 may generate virtual 3D space data in which the virtual 3D object is arranged together with the virtual 3D object data.
  • the operation specifying unit 35 receives the 3D pointing position and state information on the 3D coordinate space related to the specific part of the user from the sensor side device 10, and based on the combination of the state information and the change of the 3D pointing position, One predetermined process executed by the object processing unit 36 is specified from the predetermined processes. The change in the 3D pointing position is calculated from the relationship with the 3D pointing position obtained in the previous process. When a plurality of specific parts (for example, both hands) are used, the operation specifying unit 35 calculates the positional relationship between the plurality of specific parts from the plurality of 3D pointing positions acquired from the sensor side device 10.
  • one predetermined process is specified from the plurality of predetermined processes based on the calculated positional change between the plurality of specific parts and the plurality of state information.
  • the plurality of predetermined processes include a moving process, a rotating process, an enlarging process, a reducing process, and a function menu display data adding process.
  • the operation specifying unit 35 corresponds to the linear movement amount of the one hand while the user's one hand is maintaining the specific state (the predetermined shape) (for example, the gripped state). Specify the process to move by the distance.
  • the operation specifying unit 35 changes the distance between the two hands in a state where the user's both hands maintain a specific state (the predetermined shape) (for example, a gripped state).
  • An enlargement process using the position of one hand of the user as a reference point is specified with an enlargement ratio corresponding to the amount. Note that the present embodiment does not limit the predetermined process itself specified by the operation specifying unit 35.
  • the operation specifying unit 35 holds an ID for identifying each predetermined process as described above, and specifies the predetermined process by selecting an ID corresponding to the predetermined process.
  • the operation specifying unit 35 causes the object processing unit 36 to execute the predetermined processing by passing the selected ID, the 3D pointing position in the 3D coordinate space, and the like to the object processing unit 36.
  • the object processing unit 36 applies the predetermined process specified by the operation specifying unit 35 to the virtual 3D object data generated by the virtual data generating unit 34.
  • the object processing unit 36 is realized so as to be able to execute a plurality of supported predetermined processes.
  • the image composition unit 37 Based on the position and orientation of the HMD 9 calculated by the second reference setting unit 33 and the 3D coordinate space, the image composition unit 37 applies predetermined processing to the line-of-sight image acquired by the line-of-sight image acquisition unit 31 by the object processing unit 36. A virtual 3D object corresponding to the applied virtual 3D object data is synthesized. It should be noted that since a known method used in augmented reality (AR) or the like may be used for the composition processing by the image composition unit 37, description thereof is omitted here.
  • AR augmented reality
  • the display processing unit 38 causes the HMD 9 to display the synthesized image obtained by the image synthesizing unit 37.
  • the display processing unit 38 displays each combined image combined with each line-of-sight image on the display 9c of the HMD 9 and 9d is displayed.
  • FIG. 9 is a diagram illustrating an example of a composite image displayed on the HMD 9.
  • the composite image shown in the example of FIG. 9 is formed from a spherical virtual 3D object VO and a line-of-sight image (including a desk VA) including one hand of the user.
  • the user can freely operate the virtual 3D object included in the image by moving his / her hand while viewing the image on the HMD 9.
  • FIG. 10 is a sequence chart showing an operation example of the 3D-UI device 1 in the first embodiment.
  • the sensor side device 10 sequentially acquires 3D information from the 3D sensor 8 (S101).
  • the sensor side device 10 operates as follows with respect to the 3D information of a predetermined frame rate.
  • the sensor side device 10 detects a common real object from the 3D information (S102). Subsequently, the sensor-side device 10 sets a 3D coordinate space based on the detected common real object, and calculates the position and orientation of the 3D sensor 8 in the 3D coordinate space (S103).
  • the sensor-side device 10 calculates the 3D pointing position of the specific part of the user using the 3D information (S104). Furthermore, the sensor side device 10 sets the 3D pointing position calculated in the step (S104) in the step (S103) based on the position and orientation of the 3D sensor 8 calculated in the step (S103) and the 3D coordinate space. The 3D pointing position on the 3D coordinate space is converted (S105).
  • the sensor side device 10 adjusts the 3D pointing position converted in the step (S105) according to the shape change of the specific part of the user (S106). Details of the step (S106) will be described later. Further, the sensor-side device 10 specifies the state of the specific part based on the shape of the specific part of the user, and acquires state information (S107).
  • the sensor side device 10 sends the 3D pointing position obtained in the step (S106) and the state information obtained in the step (S107) to the display side device 30 with respect to the specific part of the user (S108).
  • the display-side device 30 is sequentially acquiring the line-of-sight images from the HMD 9 (S111) asynchronously with the acquisition of the 3D information (S101).
  • the display-side device 30 operates as follows for the line-of-sight image having a predetermined frame rate.
  • the display-side device 30 detects a common real object from the line-of-sight image (S112). Subsequently, the display-side device 30 sets a 3D coordinate space based on the detected common real object, and calculates the position and orientation of the HMD 9 in the 3D coordinate space (S113).
  • the display side device 30 generates virtual 3D object data arranged in the set 3D coordinate space (S114).
  • the display-side device 30 When the display-side device 30 receives the 3D pointing position and state information related to the specific part of the user from the sensor-side device 10 (S115), the display-side device 30 changes the 3D pointing position and the state information of the specific part according to the combination of the user A predetermined process corresponding to the gesture is specified (S116). When there are a plurality of specific parts, the display-side device 30 specifies a predetermined process according to a combination of a change in the positional relationship between the plurality of specific parts and a plurality of state information.
  • the display-side device 30 applies the predetermined process specified in the step (S116) to the virtual 3D object data generated in the step (S114) (S117). Subsequently, the display-side device 30 synthesizes the virtual 3D object corresponding to the virtual 3D object data that has undergone the predetermined processing and the line-of-sight image (S118), and generates display data.
  • the display-side device 30 displays the image obtained by the synthesis on the HMD 9 (S119).
  • FIG. 10 shows an example in which the acquisition of 3D information (S101) and the acquisition of state information (S107) are performed sequentially for convenience of explanation, but the state information of a specific part can be obtained from other than 3D information. In some cases, steps (S101) and (S107) are performed in parallel.
  • FIG. 10 shows an example in which the steps (S102) and (S103) are executed at a predetermined frame rate of 3D information. However, the steps (S102) and (S103) are executed only during calibration. May be.
  • step (S 115) to step (S 117) on information related to a specific part of the user sent from the sensor-side device 10 and virtual 3D object data generation processing (step (S 112)).
  • step (S 112) virtual 3D object data generation processing
  • FIG. 11 is a flowchart showing details of the step (S106) shown in FIG.
  • the sensor-side device 10 detects a change start, a change end, or a recovery change for the shape of the specific part of the user.
  • the sensor-side device 10 detects the change start of the shape of the specific part of the user (S121; YES)
  • the 3D pointing position corresponding to the start of change in the 3D pointing position converted in the step (S105) of FIG. Is held (S122).
  • the sensor side device 10 When detecting the end of the change in the shape of the specific part of the user (S121; NO, 123; YES), the sensor side device 10 responds to the end of the change in the 3D pointing position converted in the step (S105) of FIG.
  • the 3D pointing position to be identified is specified (S124).
  • the sensor-side device 10 calculates a difference between the 3D pointing position corresponding to the end of the change and the 3D pointing position held in the step (S122) (S125).
  • the sensor side device 10 adjusts the 3D pointing position corresponding to the end of the change by using the calculated difference (S129).
  • the sensor side apparatus 10 detects the recovery
  • the sensor-side device 10 When none of the change start, change end, and recovery change is detected for the shape of the specific part of the user (S121; NO, S123; NO, S126; NO), the sensor-side device 10 is holding the 3D pointing position. It is determined whether or not (S128). When the 3D pointing position is being held (S128; YES), the sensor-side device 10 uses the difference calculated in step (S125) to adjust the 3D pointing position converted in step (S105) in FIG. (S129). Accordingly, the 3D pointing position is adjusted while the shape of the specific part of the user maintains at least the shape at the end of the change.
  • the sensor-side device 10 uses the 3D pointing position converted in the step (S105) in FIG. 10 without adjustment.
  • a user's line-of-sight image in which a specific part (hand or the like) used for the pointing operation is captured is acquired, and an image obtained by combining the virtual 3D object with the line-of-sight image is a video see-through method. Is displayed in the user's field of view.
  • the state information regarding the change in the 3D pointing position of the specific part of the user and the shape of the specific part is acquired, and the predetermined process specified from the combination is performed on the virtual 3D object. Applied.
  • the user can feel as if he / she is operating the virtual 3D object at his / her specific part. That is, according to the first embodiment, the user can be provided with an intuitive operational feeling for the virtual 3D object.
  • the pointing position after the end of the change is adjusted using the deviation of the pointing position corresponding to the specific part before and after the change of the shape of the specific part of the user used for the pointing operation.
  • the held 3D pointing position is released, and the 3D pointing position is not adjusted after the release.
  • the 3D pointing position is not adjusted in the process of changing from a state where the hand is held (the predetermined shape) to a state where the hand is opened. This is because the displacement of the pointing position corresponding to the specific part is eliminated, and the position adjustment is not necessary.
  • the pointing operation of the user is more intuitively recognized by eliminating the displacement of the pointing position before and after the specific gesture and stopping the position adjustment accompanying the shape change of the specific area.
  • the operation can be performed.
  • such an effect is not limited to a form in which a specific part of the user is copied in the line-of-sight image and a virtual 3D object to be operated is synthesized. This is because the user may operate the operation target at his / her specific part without directing his / her line of sight toward the operation target. Even in such a case, according to the first embodiment, the displacement of the pointing position corresponding to the specific part can be similarly eliminated.
  • the HMD 9 is used, and a mode in which the operation of the virtual 3D object is enabled by the operation of the specific part of the user shown in the user line-of-sight image is exemplified.
  • the present invention can also be applied to a mode in which a virtual 3D object can be operated by an operation of a specific part of a user shown in the user image taken from the opposite side instead of the user line-of-sight image. This is because even in such a form, the displacement of the pointing position before and after the specific gesture can occur.
  • the 3D-UI device 1 in the second embodiment will be described focusing on the content different from the first embodiment. In the following description, the same contents as those in the first embodiment are omitted as appropriate.
  • the 3D-UI device 1 in the second embodiment includes only the sensor-side device 10 and displays the composite image on a display unit connected to the input / output I / F 5 of the sensor-side device 10.
  • FIG. 12 is a diagram conceptually illustrating a processing configuration example of the 3D-UI apparatus 1 in the second embodiment.
  • the processing configuration of the 3D-UI device 1 in the second embodiment includes a first object detection unit 12, a first reference setting unit 13, a position calculation unit 14, a transmission unit 16, a line-of-sight image acquisition unit 31, and a second object detection unit 32.
  • the point from which the 2nd standard setting part 33 is removed differs from a 1st embodiment.
  • the second embodiment is different from the first embodiment in that processing is performed based on a 3D pointing position corresponding to the camera coordinate system of the 3D sensor 8.
  • the user moves his / her specific part on the image while viewing his / her image captured from the opposite side displayed on the display unit of the sensor-side device 10.
  • a virtual 3D object appearing on the screen can be manipulated.
  • the sensor side device 10 according to the second embodiment may display a pseudo user image instead of the user image.
  • the pointing position is shifted before and after the specific gesture, and this difference is determined by using the difference between the 3D pointing position corresponding to the end of the change and the 3D pointing position corresponding to the held start of the change. It can be solved by adjusting the position.
  • the position of the specific part of the user used for the pointing operation is specified by the three-dimensional coordinate system, but may be specified by the two-dimensional coordinate system (third embodiment).
  • the sensor-side device 10 in the third embodiment has a 2D sensor such as an imaging device for 2D images, an infrared sensor, or the like instead of the 3D sensor 8.
  • the 3D information acquisition unit 11 is replaced with a 2D information acquisition unit, and the 2D information acquisition unit acquires 2D information that can be obtained from the 2D sensor and that can identify a specific part of the user.
  • the position calculation unit 14 sequentially calculates the 2D pointing position of the specific part of the user, and the 2D pointing position is adjusted in accordance with the shape change of the specific part.
  • the virtual data generation unit 34 may generate 2D virtual object data.
  • the image of a specific part of a user does not need to be contained in 2D information.
  • the sensor-side device 10 does not have to include the image composition unit 37, and displays 2D virtual object data subjected to predetermined processing on the display unit.
  • the 2D pointing position may be displaced before and after the specific gesture. This shift can be eliminated by adjusting the position using the difference between the 2D pointing position corresponding to the end of the change and the 2D pointing position corresponding to the held start of the change.
  • the 3D pointing position converted from the camera coordinate system to the 3D coordinate system set based on the common real object is adjusted, but the 3D pointing position of the camera coordinate system before conversion is adjusted. Also good.
  • the adjusted 3D pointing position is converted into a 3D coordinate system set based on the common real object.
  • the step (S106) of FIG. 10 is executed after the step (S104) and before the step (S105).
  • the adjustment of the 3D pointing position or the 2D pointing position in each of the above-described embodiments may be further performed as follows.
  • the change detection unit 21 measures the change time from the start of change to the end of change, and the position holding unit 22 sets the pointing position to be held when the measured change time is larger than a predetermined threshold.
  • the position adjustment unit 24 stops the adjustment of the pointing position in response to the release of the pointing position by the position holding unit 22.
  • the position holding unit 22 releases the held pointing position when the difference calculated by the calculation unit 23 is larger than a predetermined threshold, and the position adjusting unit 24 sets the pointing position by the position holding unit 22. The adjustment of the pointing position is stopped in response to the release of.
  • a position acquisition unit that sequentially acquires a pointing position indicating at least one representative position of the specific part of the user used for the pointing operation;
  • a change detection unit that detects a change start and a change end of the specific part of the user to a predetermined shape;
  • a position holding unit that holds a pointing position corresponding to the start of the change detected by the change detection unit;
  • the pointing position corresponding to the end of the change detected by the change detection unit is specified, and the specified pointing position and the pointing position held by the position holding unit
  • a user interface device comprising:
  • the change detection unit detects a recovery change in the recovery direction from the predetermined shape of the shape of the specific part of the user,
  • the position holding unit releases the held pointing position in response to detection of the recovery change by the change detection unit,
  • the position adjusting unit stops adjusting the pointing position acquired by the position acquiring unit in response to the release of the pointing position by the position holding unit;
  • the user interface device according to attachment 1.
  • the change detection unit measures a change time from detection of the change start to detection of the change end, The position holding unit releases the held pointing position when the change time is greater than a predetermined threshold; The position adjusting unit stops adjusting the pointing position acquired by the position acquiring unit in response to the release of the pointing position by the position holding unit;
  • the user interface device according to appendix 1 or 2.
  • the position holding unit releases the held pointing position when the difference calculated by the calculation unit is larger than a predetermined threshold;
  • the position adjusting unit stops adjusting the pointing position acquired by the position acquiring unit in response to the release of the pointing position by the position holding unit;
  • the user interface device according to any one of appendices 1 to 3.
  • Appendix 5 In a user interface method executed by at least one computer, Sequentially acquiring a pointing position indicating at least one representative position of the specific part of the user used for the pointing operation; Detecting the change start and change end of the specific part of the user to a predetermined shape; Among the sequentially acquired pointing positions, the pointing position corresponding to the detected change start time is held, Among the obtained pointing positions, a pointing position corresponding to the detected change end time is specified, Calculating a difference between the identified pointing position and the held pointing position; Adjusting the obtained pointing position using the calculated difference;
  • a user interface method comprising:
  • Appendix 7 Measure the change time from the detection of the change start to the detection of the change end, If the change time is greater than a predetermined threshold, release the held pointing position; Stopping the adjustment of the obtained pointing position in response to the release of the pointing position;
  • the user interface method is: Sequentially acquiring a pointing position indicating at least one representative position of the specific part of the user used for the pointing operation; Detecting the change start and change end of the specific part of the user to a predetermined shape; Among the sequentially acquired pointing positions, the pointing position corresponding to the detected change start time is held, Among the obtained pointing positions, a pointing position corresponding to the detected change end time is specified, Calculating a difference between the identified pointing position and the held pointing position; Adjusting the obtained pointing position using the calculated difference; A program that includes that.
  • the user interface method is: Detecting a recovery change in the recovery direction from the predetermined shape of the shape of the specific part of the user; In response to detection of the recovery change by the change detection unit, the held pointing position is released, Stopping the adjustment of the pointing position in response to the release of the pointing position;
  • the user interface method is: Measure the change time from the detection of the change start to the detection of the change end, If the change time is greater than a predetermined threshold, release the held pointing position; Stopping the adjustment of the obtained pointing position in response to the release of the pointing position;
  • the user interface method is: If the calculated difference is greater than a predetermined threshold, release the held pointing position; Stopping the adjustment of the obtained pointing position in response to the release of the pointing position;
  • Appendix 13 A computer-readable recording medium on which the program according to any one of appendices 9 to 12 is recorded.

Abstract

ユーザインタフェース装置は、ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得する取得部と、ユーザの特定部位の所定形状への変化開始及び変化終了を検出する検出部と、検出部により検出される変化開始時に対応するポインティング位置を保持する保持部と、検出部により検出される変化終了時に対応するポインティング位置を特定し、特定されたポインティング位置と保持部で保持されるポインティング位置との差を算出する算出部と、算出部で算出される差を用いて、取得部により取得されるポインティング位置を調節する位置調節部と、を有する。

Description

ユーザインタフェース装置及びユーザインタフェース方法
 本発明は、ユーザインタフェース技術に関する。
 コンピュータに対するユーザ入力を可能とするユーザインタフェース(マンマシンインタフェース)装置として、マウス、ジョイスティック、トラックボール、タッチパネルなど様々な機器が提供されている。近年では、データグローブやデータスーツ等のように、体の動き(ジェスチャ)を検出することにより、体の動きに応じたユーザ入力を可能とするユーザインタフェース装置も開発されている。このようなユーザインタフェース装置によりユーザは直感的感覚でコンピュータを操作することができる。
 例えば、下記特許文献1には、ユーザのジェスチャによる操作入力を容易にする技術が提案されている。この提案技術では、距離センサの分解能とディスプレイの3次元表示性能とユーザの手の指などの指示ポイントの奥行き方向の測定距離とに基づいて、その指示ポイントの奥行き方向の動きを検出する感度を決めるパラメータが調整される。そして、この調整されたパラメータに基づいて指示ポイントの奥行き方向の距離を算出することにより、ユーザのジェスチャによる操作入力が認識される。
特開2012-137989号公報
 しかしながら、上述の提案手法は、手の指などのような体の特定の一部(指示ポイント)の移動に対応するユーザ入力を想定しているに過ぎず、手で物をつかむ動作や指で物をつまむ動作など、ポインティング操作に用いられるユーザの特定部位の形状(状態)の変化に対応するユーザ入力を想定していない。
 本発明は、このような事情に鑑みてなされたものであり、ユーザの特定部位の形状の変化を含むジェスチャによりコンピュータを直感的に分かり易く操作するユーザインタフェース技術を提供する。
 本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
 第1の態様は、ユーザインタフェース装置に関する。第1態様に係るユーザインタフェース装置は、ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得する位置取得部と、ユーザの特定部位の所定形状への変化開始及び変化終了を検出する変化検出部と、位置取得部により逐次取得されるポインティング位置のうち、変化検出部により検出される変化開始時に対応するポインティング位置を保持する位置保持部と、位置取得部により取得されるポインティング位置のうち、変化検出部により検出される変化終了時に対応するポインティング位置を特定し、特定されたポインティング位置と位置保持部で保持されるポインティング位置との差を算出する算出部と、算出部で算出される差を用いて、位置取得部により取得されるポインティング位置を調節する位置調節部と、を有する。
 第2の態様は、ユーザインタフェース方法に関する。第2態様に係るユーザインタフェース方法では、少なくとも1つのコンピュータが、ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得し、ユーザの特定部位の所定形状への変化開始及び変化終了を検出し、逐次取得されるポインティング位置のうち、検出される変化開始時に対応するポインティング位置を保持し、逐次取得されるポインティング位置のうち、検出される変化終了時に対応するポインティング位置を特定し、特定されたポインティング位置と保持されるポインティング位置との差を算出し、算出される差を用いて、逐次取得されるポインティング位置を調節する。
 なお、他の態様としては、以上の第1態様における各構成を少なくとも1つのコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
 上記各態様によれば、ユーザの特定部位の形状の変化を含むジェスチャによりコンピュータを直感的に分かり易く操作するユーザインタフェース技術を提供することができる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施形態、およびそれに付随する以下の図面によってさらに明らかになる。
ポインティング位置の取得を概念的に示す図である。 ポインティング位置の取得に関する問題点を概念的に示す図である。 実施形態におけるポインティング位置の調節を概念的に示す図である。 第1実施形態における3次元ユーザインタフェース装置(3D-UI装置)のハードウェア構成例を概念的に示す図である。 第1実施形態における3次元ユーザインタフェース装置(3D-UI装置)の利用形態の例を示す図である。 HMDの外観構成の例を示す図である。 第1実施形態におけるセンサ側装置の処理構成例を概念的に示す図である。 第1実施形態における表示側装置の処理構成例を概念的に示す図である。 HMDに表示される合成画像の例を示す図である。 第1実施形態における3次元ユーザインタフェース装置(3D-UI装置)の動作例を示すシーケンスチャートである。 図10に示される工程(S106)の詳細を示すフローチャートである。 第2実施形態における3次元ユーザインタフェース装置(3D-UI装置)の処理構成例を概念的に示す図である。
 以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。
 本実施形態に係るユーザインタフェース装置は、ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得する位置取得部と、ユーザの特定部位の所定形状への変化開始及び変化終了を検出する変化検出部と、位置取得部により逐次取得されるポインティング位置のうち、変化検出部により検出される変化開始時に対応するポインティング位置を保持する位置保持部と、位置取得部により取得されるポインティング位置のうち、変化検出部により検出される変化終了時に対応するポインティング位置を特定し、特定されたポインティング位置と位置保持部で保持されるポインティング位置との差を算出する算出部と、算出部で算出される差を用いて、位置取得部により取得されるポインティング位置を調節する位置調節部と、を有する。
 本実施形態に係るユーザインタフェース方法は、少なくとも1つのコンピュータが、ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得し、ユーザの特定部位の所定形状への変化開始及び変化終了を検出し、逐次取得されるポインティング位置のうち、検出される変化開始時に対応するポインティング位置を保持し、逐次取得されるポインティング位置のうち、検出される変化終了時に対応するポインティング位置を特定し、特定されたポインティング位置と保持されるポインティング位置との差を算出し、算出される差を用いて、逐次取得されるポインティング位置を調節する、ことを含む。
 以下、上述の実施形態における作用及び効果について図1から図3を用いて説明する。図1は、ポインティング位置の取得を概念的に示す図である。図2は、ポインティング位置の取得に関する問題点を概念的に示す図である。図3は、上述の実施形態におけるポインティング位置の調節を概念的に示す図である。
 本実施形態では、ユーザの特定部位に対応するポインティング位置が逐次取得される。例えば、ユーザの特定部位を表す2次元画像又は3次元情報(例えば、2次元画像及び深度情報)から、ユーザの特定部位の少なくとも1つの代表的な位置が当該ポインティング位置として特定される。より具体的には、ポインティング位置は、Kinect(登録商標)と呼ばれるゲームコントローラシステムのスケルトントラッキングにより得られるスケルトン情報の中から得られるようにしてもよい。また、当該ポインティング位置は、ユーザの特定部位の外形が認識され、その認識された外形から得られる重心位置に設定されるようにしてもよい。本実施形態は、このポインティング位置の特定手法を制限しない。
 図1から図3の例では、ユーザの特定部位として手が用いられ、当該手の中の、体から最も離れた位置にある、代表的な1点の位置がポインティング位置に設定される。また、図1の例では、ユーザの手を含む腕全体が動かされることにより、ポインティング位置P1及びP2が逐次取得されている。
 ここで、手で物をつかむ動作を検出し、この動作をコンピュータに対するユーザ入力として用いることを考える。図2では、立方体が掴みたい物であり、立方体に対するポインティング位置が適正で、かつ、所定動作(握る)が認識された場合に、当該コンピュータは、その立方体をユーザに掴まれた状態とする。この場合、図2に示されるように、ユーザが手を開いた状態において取得されるポインティング位置P1は、その手の指先に設定される。この状態で、ユーザが手で物をつかむために手を握ると、握った状態の手における体から最も離れた位置がポインティング位置P2として取得される。このように、ポインティング操作に用いられるユーザの特定部位の形状の変化を含む動作(ジェスチャ)を認識する場合、形状の変化の前後で、その特定部位に対応するポインティング位置がずれてしまう。これは、ユーザの特定部位の中でのポインティング位置の決定方法に依存しない。例えば、特定部位としての手における重心がポインティング位置に設定される場合においても、手を開いた時の重心と手を握った時の重心とでは位置が異なるため、両状態の間でポインティング位置もずれることになる。
 このような特定ジェスチャの前後でのポインティング位置のずれは、その特定ジェスチャでの操作対象となる表示物の位置と、特定ジェスチャ後のポインティング位置との間に距離を生じさせ、その特定ジェスチャが、意図されたユーザ入力とは異なるユーザ入力として誤認識される可能性がある。即ち、その特定ジェスチャによりその表示物に対する操作ができない可能性がある。このように、ユーザの特定部位の形状変化により所定処理を実施し、かつ、形状変化によりポインティング位置が変化しうるユーザインタフェースにおいて、形状変化に応じたポインティング位置の変化によりユーザの意図した動作とならない場合がある。
 そこで、本実施形態では、まず、上記特定部位の所定形状への変化開始及び変化終了が検出される。ユーザの特定部位の形状の変化は、例えば、データグローブやデータスーツに搭載されるひずみセンサ等のセンサから得られる情報から検出される。また、当該変化は、ユーザの特定部位を表す2次元画像又は3次元情報(例えば、2次元画像及び深度情報)から検出されるようにしてもよい。本実施形態は、当該特定部位の形状の変化の検出手法自体を制限しない。
 所定形状とは、例えば、特定部位が手の場合、物をつかんだ状態における手の形状である。変化開始は、例えば、予め保持される所定の変化幅を超えて、形状が所定形状方向へ変化したことにより検出される。また、変化終了は、例えば、ユーザの特定部位が所定形状となったことにより検出される。変化終了は、特定部位の形状が所定形状となっている状態において当該センサから得られる所定の変化情報(ひずみ情報など)を超えて更に形状が変化したことにより検出されるようにしてもよい。変化終了は、予め保持される所定時間、形状変化が止まったことにより検出されるようにしてもよい。
 本実施形態では、図3に示されるように、逐次取得されるポインティング位置の中の、変化検出部により検出される変化開始時に対応するポインティング位置P1が保持され、更に、変化検出部により検出される変化終了時に対応するポインティング位置P2が特定される。ここで、変化開始時に対応するポインティング位置とは、変化検出部により変化開始が検出された時点、又は、その時点の前後に、取得されているポインティング位置を意味する。これは、変化終了時に対応するポインティング位置についても同様である。
 そして、変化終了時に対応するポインティング位置P2と、保持されるポインティング位置P1との差が算出され、この算出される差を用いて、ポインティング位置が調節される。これにより、変化検出部で検出される変化終了時の形状となっている当該特定部位に関するポインティング位置P4は、その形状の特定部位に関し位置取得部で取得されるポインティング位置が、上述のように算出される差で調節された値となる。図3の例では、ポインティング位置の調節として、当該差の加算が用いられる。本実施形態は、ポインティング位置の調節は、当該差の加算のみに制限せず、所定係数が掛け合わされた差が加算されることで当該調節が行われてもよい。
 このように、本実施形態によれば、ポインティング操作に用いられるユーザの特定部位の形状の変化の前後での、その特定部位に対応するポインティング位置のずれを用いて、変化終了時以降のポインティング位置が調節される。従って、本実施形態によれば、特定ジェスチャの前後でのポインティング位置のずれによるユーザ入力の誤認識を防ぐことができ、結果として、ユーザの特定部位の形状の変化を含むジェスチャによりコンピュータを直感的に分かり易く操作するユーザインタフェースを実現することができる。
 以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として、第1実施形態、第2実施形態及び第3実施形態、並びにそれらの変形例を例示する。
 [第1実施形態]
 〔装置構成〕
 図4は、第1実施形態における3次元ユーザインタフェース装置(以降、3D-UI装置と表記する)1のハードウェア構成例を概念的に示す図である。第1実施形態における3D-UI装置1は、大きく、センサ側構成と表示側構成とを持つ。センサ側構成は、3次元センサ(以降、3Dセンサと表記する)8及びセンサ側装置10から形成される。表示側構成は、ヘッドマウントディスプレイ(以降、HMDと表記する)9及び表示側装置30から形成される。以降、3次元を3Dと適宜省略して表記する。
 図5は、第1実施形態における3D-UI装置1の利用形態の例を示す図である。図5に示されるように、3Dセンサ8は、ユーザの特定部位を検出できる位置に配置される。HMD9は、ユーザの頭部に装着され、ユーザの視線に対応する視線映像と共に、その視線映像に合成された上述の仮想3D空間をユーザに視認させる。
 3Dセンサ8は、ユーザの特定部位の検出などのために利用される3D情報を検出する。3Dセンサ8は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンをユーザに照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサからユーザまでの距離(深度)が算出される。なお、3Dセンサ8自体の実現手法は制限されず、3Dセンサ8は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図4では、3Dセンサ8が1つ要素で図示されるが、3Dセンサ8は、ユーザの2次元画像を撮像する可視光カメラ及びユーザまでの距離を検出するセンサといった複数の機器で実現されてもよい。
 図6は、HMD9の外観構成の例を示す図である。図6には、ビデオシースルー型と呼ばれるHMD9の構成が示されている。図6の例では、HMD9は、2つの視線カメラ9a及び9b、2つのディスプレイ9c及び9dを有する。各視線カメラ9a及び9bは、ユーザの各視線に対応する各視線画像をそれぞれ撮像する。これにより、HMD9は撮像部と呼ぶこともできる。各ディスプレイ9c及び9dは、ユーザの視野の大部分を覆う形に配置され、各視線画像に仮想3D空間が合成された合成3D画像を表示する。
 センサ側装置10及び表示側装置は、バスなどで相互に接続される、CPU(Central Processing Unit)2、メモリ3、通信装置4、入出力インタフェース(I/F)5などをそれぞれ有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体などである。
 センサ側装置10の入出力I/F5は、3Dセンサ8と接続され、表示側装置30の入出力I/F5は、HMD9と接続される。また、センサ側装置10の入出力I/F5は、ゆがみセンサ等のようなユーザの特定部位の形状変化の情報を取得するセンサと接続されてもよい。入出力I/F5と3Dセンサ8との間、及び、入出力I/F5とHMD9との間は無線により通信可能に接続されてもよい。各通信装置4は、無線又は有線にて、他の装置(センサ側装置10、表示側装置30など)と通信を行う。本実施形態は、このような通信の形態を制限しない。また、センサ側装置10及び表示側装置30の具体的ハードウェア構成についても制限されない。
 〔処理構成〕
 〈センサ側装置〉
 図7は、第1実施形態におけるセンサ側装置10の処理構成例を概念的に示す図である。第1実施形態におけるセンサ側装置10は、3D情報取得部11、第1オブジェクト検出部12、第1基準設定部13、位置算出部14、状態取得部15、送信部16、変化検出部21、位置保持部22、算出部23、位置調節部24などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
 3D情報取得部11は、3Dセンサ8により検出された3D情報を逐次取得する。3D情報は、可視光により得られるユーザの2次元画像と、3Dセンサ8からの距離(深度)の情報とを含む。
 第1オブジェクト検出部12は、3D情報取得部11により取得された3D情報から既知の共通実オブジェクトを検出する。共通実オブジェクトとは、現実世界に配置された画像や物であり、AR(Augmented Reality)マーカ等と呼ばれる。本実施形態は、この共通実オブジェクトから、参照方向によらず、或る基準点及びこの基準点からの相互に直交する3つの方向を一定に得ることができるのであれば、この共通実オブジェクトの具体的形態を制限しない。第1オブジェクト検出部12は、その共通実オブジェクトが示す形状、サイズ、色などについての情報を予め保持しており、このような既知の情報を用いて、共通実オブジェクトを3D情報から検出する。
 第1基準設定部13は、第1オブジェクト検出部12により検出される共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する。例えば、第1基準設定部13は、共通実オブジェクトから抽出される基準点を原点とし、その基準点からの相互に直交する3方向を各軸とする3D座標空間を設定する。第1基準設定部13は、共通実オブジェクトに関する既知の形状及びサイズ(本来の形状及びサイズに相当)と、3D情報から抽出された共通実オブジェクトが示す形状及びサイズ(3Dセンサ8からの見え方に相当)との比較により、3Dセンサ8の位置及び向きを算出する。
 位置算出部14は、3D情報取得部11により逐次取得される3D情報を用いて、ユーザの特定部位に関する上記3D座標空間上の3Dポインティング位置を逐次算出する。これにより、位置算出部14は、位置取得部と呼ぶこともできる。第1実施形態では、位置算出部14は、具体的に次のように当該3Dポインティング位置を算出する。位置算出部14は、まず、3D情報取得部11により取得される3D情報からユーザの特定部位の少なくとも1つの代表的な位置を示す3Dポインティング位置を抽出する。この3Dポインティング位置の抽出は、例えば、上述したようなスケルトントラッキングにより行われる。ここで抽出される3Dポインティング位置は、3Dセンサ8のカメラ座標系に対応する。そこで、位置算出部14は、第1基準設定部13により算出される3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、3Dセンサ8のカメラ座標系に対応する3Dポインティング位置を第1基準設定部13で設定された3D座標空間上の3Dポインティング位置に変換する。この変換は、3Dセンサ8のカメラ座標系から、上記共通実オブジェクトに基づき設定される3D座標系への変換を意味する。
 ここで、検出すべきユーザの特定部位は複数であってもよい。例えば、複数の特定部位としてユーザの両手が利用される形態があり得る。この場合、位置算出部14は、3D情報取得部11により取得される3D情報から、複数の特定部位の3Dポインティング位置をそれぞれ抽出し、この各3Dポインティング位置を3D座標空間上の各3Dポインティング位置にそれぞれ変換する。また、特定部位とは、ユーザがHMD9のディスプレイ9c及び9dに表示される仮想オブジェクトを操作するために用いる体の一部であるため、或る程度の面積又は体積を有する。よって、位置算出部14により算出される3Dポインティング位置は、当該特定部位の中の或る1点の位置であってもよいし、複数点の位置であってもよい。
 変化検出部21は、上述の実施形態で述べたように、ユーザの特定部位の所定形状への変化開始及び変化終了を検出する。更に、変化検出部21は、ユーザの特定部位の形状の、上記所定形状から回復方向への回復変化を検出する。ここで、所定形状から回復方向とは、変化終了時に対応する形状(所定形状)から変化開始時に対応する形状(元の形状)に向かう変化方向を意味する。変化検出部21は、入出力I/F5に接続されるゆがみセンサ等のセンサから得られる、当該特定部位のゆがみ(動き)情報を取得し、この情報に基づいて、変化開始及び変化終了並びに回復変化を検出する。また、変化検出部21は、3D情報取得部11で取得されるユーザの特定部位を表す3D情報から検出してもよい。変化終了が形状変化の所定時間の停止により検出される場合には、回復変化は、変化終了の検出後、形状変化が再開されたことにより検出されてもよい。
 位置保持部22は、位置算出部14により逐次算出される3Dポインティング位置のうち、変化検出部21により検出される変化開始時に対応する3Dポインティング位置を保持する。例えば、位置保持部22は、変化検出部21から変化開始の検出の通知を受け、位置算出部14で算出されたその時点で最新の3Dポインティング位置を保持する。
 更に、位置保持部22は、変化検出部21による上述の回復変化の検出に応じて、保持される3Dポインティング位置を解放する。ここで、3Dポインティング位置の解放は、3Dポインティング位置の削除により実現されてもよいし、3Dポインティング位置の値無し(NULL)設定により実現されてもよい。
 算出部23は、位置算出部14により取得される3Dポインティング位置のうち、変化検出部21により検出される変化終了時に対応する3Dポインティング位置を特定し、特定された3Dポインティング位置と位置保持部22で保持される3Dポインティング位置との差を算出する。例えば、算出部23は、変化検出部21から変化終了の検出の通知を受け、位置算出部14で算出されたその時点で最新の3Dポインティング位置を変化終了時に対応する3Dポインティング位置として特定する。また、算出部23は、当該差として、3D座標空間上の距離を算出する。なお、算出部23は、当該差として、即ち、3D座標空間における特定の1軸、即ち、3Dセンサ8の深度方向と平行な軸の距離を算出してもよい。
 算出部23は、位置保持部22により3Dポインティング位置が保持されている場合に、上述差を算出する。算出部23は、位置保持部22により3Dポインティング位置が解放された状態では、上述の差の算出を行わないようにしてもよい。
 位置調節部24は、算出部23で算出される差を用いて、位置算出部14により逐次取得される3Dポインティング位置を調節する。例えば、位置調節部24は、変化終了時に対応する3Dポインティング位置に当該差を加算することにより得られた位置を、調節された3Dポインティング位置とする。位置調節部24は、所定係数が掛け合わされた差を加算するようにしてもよい。
 位置調節部24は、位置保持部22による3Dポインティング位置の解放に応じて、3Dポインティング位置の調節を停止する。よって、位置調節部24は、変化検出部21により変化終了が検出されてから回復変化が検出されるまでの間、位置算出部14により逐次算出される各3Dポインティング位置を算出部23により算出される当該差を用いてそれぞれ調節する。
 状態取得部15は、変化検出部21により検出されるユーザの特定部位の形状に基づいて、当該特定部位の状態を特定し、状態情報を取得する。例えば、状態取得部15は、手が握られた状態及び手が開かれた状態の少なくとも2つの中の一方を示す状態情報を取得する。本実施形態は、検出可能な範囲で、この状態情報が示し得る状態の数を制限しない。また、複数の特定部位が利用される場合には、状態取得部15は、各特定部位に関する状態情報をそれぞれ取得する。
 送信部16は、ユーザの特定部位に関する、位置算出部14により算出される3Dポインティング位置又は位置調節部24により調節された3Dポインティング位置と、状態取得部15により取得された状態情報を表示側装置30に送る。
 〈表示側装置〉
 図8は、第1実施形態における表示側装置30の処理構成例を概念的に示す図である。第1実施形態における表示側装置30は、視線画像取得部31、第2オブジェクト検出部32、第2基準設定部33、仮想データ生成部34、操作特定部35、オブジェクト処理部36、画像合成部37、表示処理部38などを有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F5を介してインストールされ、メモリ3に格納されてもよい。
 視線画像取得部31は、HMD9からユーザの視線画像を取得する。この視線画像には、ユーザの特定部位が写る場合もある。この特定部位も、センサ側装置10で検出対象とされる特定部位と同一である。本実施形態では、視線カメラ9a及び9bが設けられているため、視線画像取得部31は、左目及び右目の各々に対応する各視線画像をそれぞれ取得する。なお、各処理部は、左目及び右目に対応する両視線画像に対してそれぞれ同様に処理されるため、以下の説明では、1つの視線画像を対象に説明する。
 第2オブジェクト検出部32は、視線画像取得部31により取得される視線画像から既知の共通実オブジェクトを検出する。この共通実オブジェクトは、上述のセンサ側装置10で検出されたオブジェクトと同一であってもよいし、センサ側装置10ではそのオブジェクトの特定の一部が利用され、HMD9側ではそのオブジェクトの全体が利用されるような形態であってもよい。第2オブジェクト検出部32の処理は、上述のセンサ側装置10の第1オブジェクト検出部12と同様であるため、ここでは詳細説明を省く。なお、視線画像に含まれる共通実オブジェクトは、3Dセンサ8で得られる3D情報に含まれる共通実オブジェクトとは、撮像方向が異なる。
 第2基準設定部33は、第2オブジェクト検出部32により検出される共通実オブジェクトに基づいて、センサ側装置10の第1基準設定部13により設定された3D座標空間を設定し、かつ、HMD9の位置及び向きをそれぞれ算出する。第2基準設定部33の処理についても、センサ側装置10の第1基準設定部13と同様であるため、ここでは詳細説明を省く。第2基準設定部33により設定される3D座標空間も、センサ側装置10の第1基準設定部13により設定される3D座標空間と同じ共通実オブジェクトに基づいて設定されるため、結果として、3D座標空間がセンサ側装置10と表示側装置30との間で共有されることになる。
 仮想データ生成部34は、第2基準設定部33によりセンサ側装置10と共有される3D座標空間に配置される仮想3Dオブジェクトデータを生成する。仮想データ生成部34は、この仮想3Dオブジェクトデータと共に、仮想3Dオブジェクトが配置される仮想3D空間のデータを生成してもよい。
 操作特定部35は、ユーザの特定部位に関する当該3D座標空間上の3Dポインティング位置及び状態情報をセンサ側装置10から受信し、この状態情報と3Dポインティング位置の変化との組み合わせに基づいて、複数の所定処理の中からオブジェクト処理部36により実行される1つの所定処理を特定する。3Dポインティング位置の変化は、前回の処理の際に得られた3Dポインティング位置との関係から算出される。また、複数の特定部位(例えば、両手)が利用される場合には、操作特定部35は、センサ側装置10から取得される複数の3Dポインティング位置から、複数の特定部位間の位置関係を算出し、算出された複数の特定部位間の位置関係の変化及び複数の状態情報に基づいて、複数の所定処理の中から1つの所定処理を特定する。複数の所定処理には、移動処理、回転処理、拡大処理、縮小処理、及び、機能メニューの表示データの付加処理等がある。
 例えば、操作特定部35は、ユーザの特定部位が片手の場合、ユーザの片手が特定状態(上記所定形状)(例えば握った状態)を維持している間におけるその片手の直線移動量に対応する距離分、移動させる処理を特定する。また、操作特定部35は、ユーザの複数特定部位が両手の場合、ユーザの両手が特定状態(上記所定形状)(例えば、握られた状態)を維持した状態でのその両手間の距離の変化量に対応する拡大率でユーザの片手の位置を基準点とした拡大処理を特定する。なお、本実施形態は、操作特定部35により特定される所定処理自体を制限しない。
 操作特定部35は、上述のような各所定処理を識別するためのIDをそれぞれ保持しており、所定処理に対応するIDを選択することにより、所定処理の特定を実現する。操作特定部35は、オブジェクト処理部36にその選択されたID、当該3D座標空間上の3Dポインティング位置などを渡すことで、オブジェクト処理部36にその所定処理を実行させる。
 オブジェクト処理部36は、仮想データ生成部34により生成された仮想3Dオブジェクトデータに対して、操作特定部35により特定された所定処理を適用する。オブジェクト処理部36は、サポートする複数の所定処理を実行可能となるように実現されている。
 画像合成部37は、第2基準設定部33により算出されるHMD9の位置及び向き並びに3D座標空間に基づいて、視線画像取得部31により取得される視線画像に、オブジェクト処理部36により所定処理が施された仮想3Dオブジェクトデータに対応する仮想3Dオブジェクトを合成する。なお、画像合成部37による合成処理には、拡張現実(AR)等で用いられる周知の手法が利用されればよいため、ここでは説明を省略する。
 表示処理部38は、画像合成部37により得られる合成画像をHMD9に表示させる。本実施形態では、ユーザの各視線に対応する2つの視線画像が上述のようにそれぞれ処理されるため、表示処理部38は、各視線画像と合成された各合成画像をそれぞれHMD9のディスプレイ9c及び9dに表示させる。
 図9は、HMD9に表示される合成画像の例を示す図である。図9の例に示される合成画像は、球状の仮想3DオブジェクトVOと、ユーザの片手を含む視線画像(机VAを含む)とから形成される。ユーザは、HMD9でこの画像を見ながら、自身の手を動かすことにより、その画像に含まれる仮想3Dオブジェクトを自由に操作することができる。
 〔動作例〕
 以下、第1実施形態におけるユーザインタフェース方法について図10を用いて説明する。図10は、第1実施形態における3D-UI装置1の動作例を示すシーケンスチャートである。
 センサ側装置10は、3Dセンサ8から3D情報を逐次取得する(S101)。センサ側装置10は、所定のフレームレートの当該3D情報に対して次のように動作する。
 センサ側装置10は、当該3D情報から共通実オブジェクトを検出する(S102)。
 続いて、センサ側装置10は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間における3Dセンサ8の位置及び向きを算出する(S103)。
 更に、センサ側装置10は、当該3D情報を用いて、ユーザの特定部位の3Dポインティング位置を算出する(S104)。更に、センサ側装置10は、工程(S103)で算出された3Dセンサ8の位置及び向き並びに3D座標空間に基づいて、工程(S104)で算出された3Dポインティング位置を工程(S103)で設定された3D座標空間上の3Dポインティング位置に変換する(S105)。
 センサ側装置10は、ユーザの特定部位の形状変化に応じて、工程(S105)で変換された3Dポインティング位置を調節する(S106)。工程(S106)の詳細については後述する。更に、センサ側装置10は、ユーザの特定部位の形状に基づいて、当該特定部位の状態を特定し、状態情報を取得する(S107)。
 センサ側装置10は、ユーザの特定部位に関し、工程(S106)で得られた3Dポインティング位置、及び、工程(S107)で得られた状態情報を表示側装置30に送る(S108)。
 一方で、表示側装置30は、3D情報の取得(S101)とは非同期で、HMD9から視線画像を逐次取得している(S111)。表示側装置30は、所定のフレームレートの当該視線画像に対して次のように動作する。
 表示側装置30は、当該視線画像から共通実オブジェクトを検出する(S112)。続いて、表示側装置30は、検出された共通実オブジェクトに基づいて、3D座標空間を設定し、かつ、この3D座標空間におけるHMD9の位置及び向きを算出する(S113)。
 表示側装置30は、設定された3D座標空間に配置される仮想3Dオブジェクトデータを生成する(S114)。
 表示側装置30は、センサ側装置10から、ユーザの特定部位に関する3Dポインティング位置及び状態情報を受信すると(S115)、当該特定部位の3Dポインティング位置の変化及び状態情報の組み合わせに応じて、ユーザのジェスチャに対応する所定処理を特定する(S116)。特定部位が複数存在する場合には、表示側装置30は、複数の特定部位間の位置関係の変化と複数の状態情報との組み合わせに応じて、所定処理を特定する。
 表示側装置30は、工程(S114)で生成された仮想3Dオブジェクトデータに対して、工程(S116)で特定された所定処理を適用する(S117)。続いて、表示側装置30は、所定処理が施された仮想3Dオブジェクトデータに対応する仮想3Dオブジェクトと視線画像とを合成し(S118)、表示データを生成する。
 表示側装置30は、その合成により得られた画像をHMD9に表示させる(S119)。
 図10では、説明の便宜のため、3D情報の取得(S101)と状態情報の取得(S107)とがシーケンシャルに実行される例が示されるが、特定部位の状態情報が3D情報以外から得られる場合には、工程(S101)及び(S107)は並列に実行される。また、図10では、工程(S102)及び(S103)が3D情報の所定のフレームレートで実行される例が示されるが、工程(S102)及び(S103)はキャリブレーション時のみ実行されるようにしてもよい。
 図10では、説明の便宜のため、センサ側装置10から送られるユーザの特定部位に関する情報に対する処理(工程(S115)から工程(S117))と、仮想3Dオブジェクトデータの生成処理(工程(S112)から工程(S114))とがシーケンシャルに実行される例が示される。しかしながら、工程(S115)から工程(S117)と、工程(S112)から工程(S114)とは並列に実行される。
 図11は、図10に示される工程(S106)の詳細を示すフローチャートである。
 センサ側装置10は、ユーザの特定部位の形状について、変化開始、変化終了又は回復変化を検出する。センサ側装置10は、ユーザの特定部位の形状の変化開始を検出すると(S121;YES)、図10の工程(S105)で変換される3Dポインティング位置の中の、変化開始時に対応する3Dポインティング位置を保持する(S122)。
 センサ側装置10は、ユーザの特定部位の形状の変化終了を検出すると(S121;NO、123;YES)、図10の工程(S105)で変換される3Dポインティング位置の中の、変化終了時に対応する3Dポインティング位置を特定する(S124)。続いて、センサ側装置10は、変化終了時に対応する3Dポインティング位置と、工程(S122)で保持された3Dポインティング位置との差を算出する(S125)。センサ側装置10は、算出された差を用いて、変化終了時に対応する3Dポインティング位置を調節する(S129)。
 また、センサ側装置10は、ユーザの特定部位の形状の回復変化を検出すると(S121;NO、S123;NO、S126;YES)、工程(S122)で保持された3Dポインティング位置を解放する(S127)。
 センサ側装置10は、ユーザの特定部位の形状について、変化開始、変化終了、及び、回復変化のいずれも検出されない場合(S121;NO、S123;NO、S126;NO)、3Dポインティング位置が保持中であるか否かを判定する(S128)。センサ側装置10は、3Dポインティング位置が保持中である場合(S128;YES)、工程(S125)で算出された差を用いて、図10の工程(S105)で変換される3Dポインティング位置を調節する(S129)。これにより、ユーザの特定部位の形状が少なくとも変化終了時の形状を維持している間は、3Dポインティング位置が調節される。
 一方、センサ側装置10は、3Dポインティング位置が保持されていない場合(S128;NO)、調節することなく、図10の工程(S105)で変換される3Dポインティング位置をそのまま利用する。
 〔第1実施形態の作用及び効果〕
 上述したように、第1実施形態では、ポインティング操作に用いられる特定部位(手など)が写されたユーザの視線画像が取得され、その視線画像に仮想3Dオブジェクトが合成された画像がビデオシースルー方式でユーザの視野内に表示される。その上で、第1実施形態では、ユーザの当該特定部位の3Dポインティング位置の変化とその特定部位の形状に関する状態情報が取得され、それらの組み合わせから特定される所定処理が、仮想3Dオブジェクトに対して適用される。これにより、第1実施形態によれば、ユーザは、仮想3Dオブジェクトを自身の特定部位で操作しているかのように感じることができる。即ち、第1実施形態によれば、ユーザに、仮想3Dオブジェクトに対する直感的操作感を与えることができる。
 第1実施形態では、ポインティング操作に用いられるユーザの特定部位の形状の変化の前後での、その特定部位に対応するポインティング位置のずれを用いて、変化終了時以降のポインティング位置が調節される。更に、第1実施形態では、変化終了の検出後、形状の回復変化が検出されると、保持される3Dポインティング位置が解放され、その解放以降、3Dポインティング位置の調節が行われなくなる。例えば、手を握った状態(上記所定形状)から手を開いた状態に変化していく過程で、3Dポインティング位置の調節が行われなくなる。これは、当該特定部位に対応するポインティング位置のずれが解消され、当該位置調節が不要となるからである。
 従って、本実施形態によれば、特定ジェスチャの前後でのポインティング位置のずれの解消、及び、更なる特定部位の形状変化に伴う位置調節の停止により、ユーザの当該ポインティング操作を一層直感的に認識される操作とすることができる。但し、このような作用効果は、視線画像に、ユーザの特定部位が写され、かつ、操作対象となる仮想3Dオブジェクトが合成されている形態に限定的に生じるわけではない。ユーザは、視線を操作対象に向けることなく、自身の特定部位でその操作対象を操作する場合もあり得るからである。このような場合であっても、第1実施形態によれば、当該特定部位に対応するポインティング位置のずれは、同様に解消することができる。
 [第2実施形態]
 上述の第1実施形態では、HMD9が用いられ、ユーザ視線画像に写るユーザの特定部位の動作により、仮想3Dオブジェクトの操作を可能とする形態が例示された。しかしながら、本発明は、ユーザ視線画像ではなく、向かい側から写されたユーザ画像に写るユーザの特定部位の動作により、仮想3Dオブジェクトの操作を可能とする形態にも適用可能である。このような形態においても、特定ジェスチャの前後でのポインティング位置のずれは起こり得るからである。以下、第2実施形態における3D-UI装置1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
 第2実施形態における3D-UI装置1は、センサ側装置10のみを有し、センサ側装置10の入出力I/F5に接続される表示部に、当該合成画像を表示させる。
 図12は、第2実施形態における3D-UI装置1の処理構成例を概念的に示す図である。第2実施形態における3D-UI装置1の処理構成は、第1オブジェクト検出部12、第1基準設定部13、位置算出部14、送信部16、視線画像取得部31、第2オブジェクト検出部32、及び、第2基準設定部33が除かれる点において第1実施形態と異なる。また、第2実施形態では、3Dセンサ8のカメラ座標系に対応する3Dポインティング位置に基づいて処理される点において第1実施形態と異なる。
 第2実施形態によれば、ユーザは、センサ側装置10の表示部に表示される、向かい側から写された自身の映像を見ながら、その映像上の自身の特定部位を動かすことにより、その映像に写る仮想3Dオブジェクトを操作することができる。第2実施形態におけるセンサ側装置10は、ユーザの画像に替え、疑似的なユーザ画像を表示させるようにしてもよい。
 第2実施形態においても、特定ジェスチャの前後でのポインティング位置のずれは起こり、このずれを、変化終了時に対応する3Dポインティング位置と、保持される変化開始時に対応する3Dポインティング位置との差を用いた位置調節により解消することができる。
 [第3実施形態]
 上述の第2実施形態では、ポインティング操作に用いられるユーザの特定部位の位置が、3次元座標系により特定されたが、2次元座標系により特定されるようにしてもよい(第3実施形態)。第3実施形態におけるセンサ側装置10は、3Dセンサ8に替え、2D画像の撮像装置、赤外線センサなどのような2Dセンサを有する。3D情報取得部11は、2D情報取得部に替えられ、2D情報取得部は、2Dセンサから得られる、ユーザの特定部位を特定し得る2D情報を取得する。これにより、位置算出部14が、ユーザの特定部位の2Dポインティング位置を逐次算出し、この2Dポインティング位置が当該特定部位の形状変化に伴って調節される。
 仮想データ生成部34は、2Dの仮想オブジェクトデータを生成すればよい。第3実施形態では、2D情報にユーザの特定部位の画像が含まれていなくてもよい。この場合には、センサ側装置10は、画像合成部37を有しなくてもよく、所定の処理が施された2Dの仮想オブジェクトデータを表示部に表示する。
 このような第3実施形態においても、特定ジェスチャの前後での2Dポインティング位置のずれは起こり得る。このずれを、変化終了時に対応する2Dポインティング位置と、保持される変化開始時に対応する2Dポインティング位置との差を用いた位置調節により解消することができる。
 [変形例]
 上述の第1実施形態では、カメラ座標系から共通実オブジェクトに基づき設定される3D座標系へ変換された3Dポインティング位置が調節されたが、変換前のカメラ座標系の3Dポインティング位置が調節されてもよい。この場合には、調節された3Dポインティング位置が共通実オブジェクトに基づき設定される3D座標系へ変換される。この場合、図10の工程(S106)は、工程(S104)の後、かつ、工程(S105)の前に実行される。
 また、上述の各実施形態における3Dポインティング位置又は2Dポインティング位置の調節は、更に、次のように実施されてもよい。例えば、変化検出部21が、変化開始の検出から変化終了の検出までの変化時間を計測し、位置保持部22が、計測された変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、位置調節部24が、位置保持部22によるポインティング位置の解放に応じて、ポインティング位置の調節を停止する。他の例として、位置保持部22は、算出部23により算出される当該差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、位置調節部24は、位置保持部22によるポインティング位置の解放に応じて、ポインティング位置の調節を停止する。
 これにより、ユーザの特定部位における形状の変化開始から所定の形状への変化終了までに掛かる時間が通常時よりも長い場合、及び、ユーザの特定部位の位置が形状の変化開始から所定の形状への変化終了までの間に通常時よりも大きく動いた場合に、ポインティング位置の調節を行わなくすることができる。これにより、ユーザが、意図せず、自身の特定部位の形状を変化させた場合や、想定外の動作と共に当該特定部位の形状を変化させた場合等に、その動作をコンピュータの入力と認識しなくすることができる。従って、この変形例によれば、ユーザが意図しない動作でコンピュータが操作されることを防ぐことができるため、ユーザにとって、より直感的に分かり易いコンピュータ操作とすることができる。
 なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、本実施形態で実行される工程の実行順序は、その記載の順番に制限されない。本実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
 上記の各実施形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
 (付記1)
 ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得する位置取得部と、
 前記ユーザの前記特定部位の所定形状への変化開始及び変化終了を検出する変化検出部と、
 前記位置取得部により逐次取得されるポインティング位置のうち、前記変化検出部により検出される前記変化開始時に対応するポインティング位置を保持する位置保持部と、
 前記位置取得部により取得されるポインティング位置のうち、前記変化検出部により検出される前記変化終了時に対応するポインティング位置を特定し、該特定されたポインティング位置と前記位置保持部で保持されるポインティング位置との差を算出する算出部と、
 前記算出部で算出される差を用いて、前記位置取得部により取得されるポインティング位置を調節する位置調節部と、
 を備えるユーザインタフェース装置。
 (付記2)
 前記変化検出部は、前記ユーザの前記特定部位の形状の、前記所定形状から回復方向への回復変化を検出し、
 前記位置保持部は、前記変化検出部による前記回復変化の検出に応じて、保持されるポインティング位置を解放し、
 前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
 付記1に記載のユーザインタフェース装置。
 (付記3)
 前記変化検出部は、前記変化開始の検出から前記変化終了の検出までの変化時間を計測し、
 前記位置保持部は、前記変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
 付記1又は2に記載のユーザインタフェース装置。
 (付記4)
 前記位置保持部は、前記算出部により算出される前記差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
 付記1から3のいずれか1つに記載のユーザインタフェース装置。
 (付記5)
 少なくとも1つのコンピュータにより実行されるユーザインタフェース方法において、
 ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得し、
 前記ユーザの前記特定部位の所定形状への変化開始及び変化終了を検出し、
 前記逐次取得されるポインティング位置のうち、前記検出される変化開始時に対応するポインティング位置を保持し、
 前記取得されるポインティング位置のうち、前記検出される変化終了時に対応するポインティング位置を特定し、
 前記特定されたポインティング位置と前記保持されるポインティング位置との差を算出し、
 前記算出される差を用いて、前記取得されるポインティング位置を調節する、
 ことを含むユーザインタフェース方法。
 (付記6)
 前記ユーザの前記特定部位の形状の、前記所定形状から回復方向への回復変化を検出し、
 前記変化検出部による前記回復変化の検出に応じて、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記ポインティング位置の調節を停止する、
 ことを更に含む付記5に記載のユーザインタフェース方法。
 (付記7)
 前記変化開始の検出から前記変化終了の検出までの変化時間を計測し、
 前記変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
 ことを更に含む付記5又は6に記載のユーザインタフェース方法。
 (付記8)
 前記算出される差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
 ことを更に含む付記5から7のいずれか1つに記載のユーザインタフェース方法。
 (付記9)
 少なくとも1つのコンピュータにユーザインタフェース方法を実行させるプログラムにおいて、
 前記ユーザインタフェース方法は、
 ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得し、
 前記ユーザの前記特定部位の所定形状への変化開始及び変化終了を検出し、
 前記逐次取得されるポインティング位置のうち、前記検出される変化開始時に対応するポインティング位置を保持し、
 前記取得されるポインティング位置のうち、前記検出される変化終了時に対応するポインティング位置を特定し、
 前記特定されたポインティング位置と前記保持されるポインティング位置との差を算出し、
 前記算出される差を用いて、前記取得されるポインティング位置を調節する、
 ことを含むプログラム。
 (付記10)
 前記ユーザインタフェース方法は、
 前記ユーザの前記特定部位の形状の、前記所定形状から回復方向への回復変化を検出し、
 前記変化検出部による前記回復変化の検出に応じて、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記ポインティング位置の調節を停止する、
 ことを更に含む付記9に記載のプログラム。
 (付記11)
 前記ユーザインタフェース方法は、
 前記変化開始の検出から前記変化終了の検出までの変化時間を計測し、
 前記変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
 ことを更に含む付記9又は10に記載のプログラム。
 (付記12)
 前記ユーザインタフェース方法は、
 前記算出される差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
 前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
 ことを更に含む付記9から11のいずれか1つに記載のプログラム。
 (付記13)
 付記9から12のいずれか1つに記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
 この出願は、2012年10月5日に出願された日本特許出願特願2012-222884を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1.  ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得する位置取得部と、
     前記ユーザの前記特定部位の所定形状への変化開始及び変化終了を検出する変化検出部と、
     前記位置取得部により逐次取得されるポインティング位置のうち、前記変化検出部により検出される前記変化開始時に対応するポインティング位置を保持する位置保持部と、
     前記位置取得部により取得されるポインティング位置のうち、前記変化検出部により検出される前記変化終了時に対応するポインティング位置を特定し、該特定されたポインティング位置と前記位置保持部で保持されるポインティング位置との差を算出する算出部と、
     前記算出部で算出される差を用いて、前記位置取得部により取得されるポインティング位置を調節する位置調節部と、
     を備えるユーザインタフェース装置。
  2.  前記変化検出部は、前記ユーザの前記特定部位の形状の、前記所定形状から回復方向への回復変化を検出し、
     前記位置保持部は、前記変化検出部による前記回復変化の検出に応じて、保持されるポインティング位置を解放し、
     前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
     請求項1に記載のユーザインタフェース装置。
  3.  前記変化検出部は、前記変化開始の検出から前記変化終了の検出までの変化時間を計測し、
     前記位置保持部は、前記変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
     前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
     請求項1又は2に記載のユーザインタフェース装置。
  4.  前記位置保持部は、前記算出部により算出される前記差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
     前記位置調節部は、前記位置保持部によるポインティング位置の解放に応じて、前記位置取得部で取得されるポインティング位置の調節を停止する、
     請求項1から3のいずれか1項に記載のユーザインタフェース装置。
  5.  少なくとも1つのコンピュータが、
     ポインティング操作に用いられるユーザの特定部位の少なくとも1つの代表的な位置を示すポインティング位置を逐次取得し、
     前記ユーザの前記特定部位の所定形状への変化開始及び変化終了を検出し、
     前記逐次取得されるポインティング位置のうち、前記検出される変化開始時に対応するポインティング位置を保持し、
     前記取得されるポインティング位置のうち、前記検出される変化終了時に対応するポインティング位置を特定し、
     前記特定されたポインティング位置と前記保持されるポインティング位置との差を算出し、
     前記算出される差を用いて、前記取得されるポインティング位置を調節する、
     ことを含むユーザインタフェース方法。
  6.  前記少なくとも1つのコンピュータが、
     前記ユーザの前記特定部位の形状の、前記所定形状から回復方向への回復変化を検出し、
     前記変化検出部による前記回復変化の検出に応じて、保持されるポインティング位置を解放し、
     前記ポインティング位置の解放に応じて、前記ポインティング位置の調節を停止する、
     ことを更に含む請求項5に記載のユーザインタフェース方法。
  7.  前記少なくとも1つのコンピュータが、
     前記変化開始の検出から前記変化終了の検出までの変化時間を計測し、
     前記変化時間が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
     前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
     ことを更に含む請求項5又は6に記載のユーザインタフェース方法。
  8.  前記少なくとも1つのコンピュータが、
     前記算出される差が所定閾値より大きい場合に、保持されるポインティング位置を解放し、
     前記ポインティング位置の解放に応じて、前記取得されるポインティング位置の調節を停止する、
     ことを更に含む請求項5から7のいずれか1項に記載のユーザインタフェース方法。
  9.  請求項5から8のいずれか1項に記載のユーザインタフェース方法を少なくとも1つのコンピュータに実行させるプログラム。
PCT/JP2013/066941 2012-10-05 2013-06-20 ユーザインタフェース装置及びユーザインタフェース方法 WO2014054317A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13843524.3A EP2905676A4 (en) 2012-10-05 2013-06-20 USER INTERFACE DEVICE AND USER INTERFACE PROCEDURE
JP2014539626A JP5863984B2 (ja) 2012-10-05 2013-06-20 ユーザインタフェース装置及びユーザインタフェース方法
US14/433,456 US9760180B2 (en) 2012-10-05 2013-06-20 User interface device and user interface method
CN201380052301.2A CN104704449B (zh) 2012-10-05 2013-06-20 用户界面设备和用户界面方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-222884 2012-10-05
JP2012222884 2012-10-05

Publications (1)

Publication Number Publication Date
WO2014054317A1 true WO2014054317A1 (ja) 2014-04-10

Family

ID=50434653

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/066941 WO2014054317A1 (ja) 2012-10-05 2013-06-20 ユーザインタフェース装置及びユーザインタフェース方法

Country Status (5)

Country Link
US (1) US9760180B2 (ja)
EP (1) EP2905676A4 (ja)
JP (1) JP5863984B2 (ja)
CN (1) CN104704449B (ja)
WO (1) WO2014054317A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016103521A1 (ja) * 2014-12-26 2017-09-14 株式会社ニコン 検出装置およびプログラム
JPWO2016103520A1 (ja) * 2014-12-26 2017-09-14 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム
EP3274965A4 (en) * 2015-03-24 2018-08-15 Intel Corporation Augmentation modification based on user interaction with augmented reality scene

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140010616A (ko) * 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337962A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
WO2006041097A1 (ja) * 2004-10-12 2006-04-20 Nippon Telegraph And Telephone Corporation 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム
JP2010522380A (ja) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法
WO2011158605A1 (ja) * 2010-06-15 2011-12-22 日産自動車株式会社 情報表示装置、及び、オンスクリーンボタンの移動操作方法
JP2012137989A (ja) 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
DE60325536D1 (de) 2002-09-20 2009-02-12 Nippon Telegraph & Telephone Vorrichtung zum Erzeugen eines pseudo-dreidimensionalen Bildes
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP5094663B2 (ja) * 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
JP5495821B2 (ja) * 2010-01-29 2014-05-21 キヤノン株式会社 画像形成装置及びその制御方法
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP5732783B2 (ja) 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20120117514A1 (en) * 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US8736583B2 (en) * 2011-03-29 2014-05-27 Intel Corporation Virtual links between different displays to present a single virtual object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337962A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
WO2006041097A1 (ja) * 2004-10-12 2006-04-20 Nippon Telegraph And Telephone Corporation 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム
JP2010522380A (ja) * 2007-03-19 2010-07-01 ゼブラ・イメージング・インコーポレイテッド ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法
WO2011158605A1 (ja) * 2010-06-15 2011-12-22 日産自動車株式会社 情報表示装置、及び、オンスクリーンボタンの移動操作方法
JP2012137989A (ja) 2010-12-27 2012-07-19 Sony Computer Entertainment Inc ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2905676A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016103521A1 (ja) * 2014-12-26 2017-09-14 株式会社ニコン 検出装置およびプログラム
JPWO2016103520A1 (ja) * 2014-12-26 2017-09-14 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム
EP3274965A4 (en) * 2015-03-24 2018-08-15 Intel Corporation Augmentation modification based on user interaction with augmented reality scene

Also Published As

Publication number Publication date
CN104704449B (zh) 2017-09-12
JP5863984B2 (ja) 2016-02-17
CN104704449A (zh) 2015-06-10
JPWO2014054317A1 (ja) 2016-08-25
US20150268735A1 (en) 2015-09-24
EP2905676A4 (en) 2016-06-15
US9760180B2 (en) 2017-09-12
EP2905676A1 (en) 2015-08-12

Similar Documents

Publication Publication Date Title
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
WO2014147858A1 (ja) 3次元ロック解除装置、3次元ロック解除方法及びプログラム
TWI722280B (zh) 用於多個自由度之控制器追蹤
KR101171660B1 (ko) 증강현실의 포인팅 장치
US20170140552A1 (en) Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
EP2814000A1 (en) Image processing apparatus, image processing method, and program
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP2012208705A (ja) 画像操作装置、画像操作方法およびプログラム
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
WO2019106862A1 (ja) 操作案内システム
JP2024056455A (ja) 情報処理システム、情報処理方法、プログラム
CN115803786A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13843524

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014539626

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2013843524

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013843524

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14433456

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE