WO2018198272A1 - 制御装置、情報処理システム、制御方法、及びプログラム - Google Patents

制御装置、情報処理システム、制御方法、及びプログラム Download PDF

Info

Publication number
WO2018198272A1
WO2018198272A1 PCT/JP2017/016770 JP2017016770W WO2018198272A1 WO 2018198272 A1 WO2018198272 A1 WO 2018198272A1 JP 2017016770 W JP2017016770 W JP 2017016770W WO 2018198272 A1 WO2018198272 A1 WO 2018198272A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
pose
hand
finger
Prior art date
Application number
PCT/JP2017/016770
Other languages
English (en)
French (fr)
Inventor
英樹 森
泰史 奥村
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2019514986A priority Critical patent/JP6716028B2/ja
Priority to PCT/JP2017/016770 priority patent/WO2018198272A1/ja
Priority to CN201780089798.3A priority patent/CN110520822B/zh
Priority to EP17906974.5A priority patent/EP3617845A4/en
Priority to US16/603,115 priority patent/US11501552B2/en
Publication of WO2018198272A1 publication Critical patent/WO2018198272A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Definitions

  • the present invention relates to a control device, an information processing system, a control method, and a program.
  • VR virtual reality
  • the user's hand is imaged with a camera or the like, the shape of the hand is recognized, and whether the user's finger is bent or stretched is detected. There is something.
  • the present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a control device, an information processing system, a control method, and a program that can increase the chance of detecting a pose of a user's hand.
  • a control device an information processing system, a control method, and a program that can increase the chance of detecting a pose of a user's hand.
  • the present invention that solves the problems of the above-described conventional example is that the control device accepts information relating to the movement of the user's finger and information relating to the shape of the user's hand, and the accepted movement of the user's finger.
  • First pose information generating means for generating first pose information representing the pose of the user's hand based on the information related to the information, and the received pose of the user's hand based on the information related to the shape of the user's hand
  • the second pose information generating means for generating the second pose information to be expressed, the generated first pose information, and the second pose information are combined according to a criterion based on a predetermined condition,
  • pose information output means for generating and outputting information representing the pose.
  • the information processing system 1 includes operation devices 10 ⁇ / b> L and 10 ⁇ / b> R that are worn on the left and right hands of a user (hereinafter, if there is no need to distinguish between them)
  • a display device 20 that is worn on the user's head, and a control device 30 that is connected to the operation device 10 and the display device 20 so as to be communicable in a wired or wireless manner. Consists of.
  • the control device 30 includes a control unit 31, a storage unit 32, an operation receiving unit 33, and a display control unit 34 as illustrated in FIG.
  • the operation device 10 includes, for example, a grip portion 11 and an operation portion 12 that are gripped by the user, as illustrated in FIG. 2 (a) on the front side and FIG. 2 (b) on the back side.
  • the grip portion 11 is substantially a polygonal column, and the operation portion 12 is formed continuously from the grip portion 11.
  • the operation unit 12 includes a sensor unit 15 and a button operation unit 16 on the front side, and includes a finger sensor 17 and a button 18 on the back side.
  • the operation device 10 includes a control circuit 19 inside.
  • the control circuit 19 includes a program control device such as a microcomputer and operates according to a program stored in a storage means such as a memory.
  • the control circuit 19 is connected to the sensor unit 15, the button operation unit 16, the finger sensor 17, and the button 18 of the operation unit 12 and detects a user's finger input from the sensor unit 15, the button operation unit 16, and the like.
  • Various signals such as a result and a signal representing the contents of the operation are received and transmitted to the control device 30.
  • the control circuit 19 includes, for example, a wireless communication interface such as Bluetooth (registered trademark) or a wired communication interface such as a USB or a wired LAN, and the control circuit 19 is connected to the control device 30 via the wireless communication interface or the wired communication interface. Send and receive various signals.
  • the fixture 14 is fixed to either the left side surface or the right side surface of the operation device 10.
  • This fixture is, for example, an annular flexible belt.
  • the user who operates the operation device 10 in this example passes the user's own index finger to the little finger through the fixing tool 14 and uses the operation device 10 by fixing the main body of the operation device 10 to the base of the user's thumb.
  • FIG. 2 an example is shown in which the operation device 10 is fixed by pressing the right side surface of the operation device 10 against the palm of the user.
  • the size of the operation device 10 is such that when the user who wears the operation device 10 through his / her finger through the fixing tool 14 naturally holds the operation device 10, the user's thumb terminal is a button operation on the front side of the operation device 10.
  • the size is sufficient to reach the portion 16. That is, in the present embodiment, at least a part of the buttons of the operation unit 12 including the buttons 18 are arranged in a range where the user's finger can reach when the grip unit 11 is gripped.
  • the index finger of the user is in a position where the user touches the button 18 of the operation device 10, and the user holds the grip unit 11 with the palm, middle finger, ring finger, Grab with your little finger. But even if a user opens a hand from this state, since the operation device 10 is fixed to a user's hand with the fixing tool 14, the operation device 10 does not fall.
  • the sensor unit 15 is disposed, for example, at a position slightly below the position where the terminal node side of the user's thumb reaches when the user naturally grips the operation device 10, and at a position where the proximal side of the user's thumb is close.
  • the sensor unit 15 is, for example, a relatively wide angle range from the left side of the front of the operation device 10 to the right side, with the normal direction of the surface of the operation device 10 as the center, on the front side of the operation device 10.
  • the user's thumb is detected in the detectable range. Then, the position where the thumb is detected (angle within the above angle range) and the distance from the sensor unit 15 to the user's thumb are detected, and detection result information including these pieces of information is output to the control circuit 19.
  • the sensor unit 15 may be anything such as a camera, an optical sensor, a pyroelectric sensor, or a capacitance sensor.
  • the senor 17 is arranged at a position where each of the user's index finger, middle finger, ring finger, and little finger reaches when the user naturally holds the operation device 10.
  • the sensor 17 is a capacitance sensor or the like that generates information indicating whether or not the finger is in proximity, and each of the sensors 17 indicates whether or not the finger is in proximity. Information to be expressed is generated and output to the control circuit 19.
  • the operation device 10 realizes the first detection device of the present invention.
  • the display device 20 is, for example, a head mounted display (HMD) that the user wears on the head.
  • the display device 20 receives the image data output from the control device 30 by wire or wireless, displays the received image data, and presents it to the user.
  • the display device 20 includes, for example, a left-eye image display unit that is configured using a display element such as an organic EL display panel or a liquid crystal display panel, and a user's right eye.
  • the control device 30 generates and outputs the left-eye image data and the right-eye image data to be displayed on the respective image display units.
  • the display device 20 displays and outputs the left-eye image data on the left-eye image display unit, and displays and outputs the right-eye image data on the right-eye image display unit.
  • the display device 20 may be a non-transmissive display device that cannot visually recognize the state of the outside world when worn by the user, or displayed on an image of the outside world when worn by the user. It may be a transmissive display device that synthesizes and displays a video to be translucent.
  • the example of the present embodiment includes a camera 21 that has a field of view on the front side of the display device 20 (the side on the user's face when worn by the user).
  • the camera 21 repeatedly captures an image within a field of view (FOV (FieldFof View)) in front of the user, and sequentially outputs image data obtained by the imaging to the control device 30.
  • FOV FieldFof View
  • the control unit 31 of the control device 30 is a program control device such as a CPU, and operates according to a program stored in the storage unit 32.
  • the control unit 31 receives information transmitted from the operation device 10.
  • the control unit 31 receives the image data transmitted from the display device 20 and executes a process of detecting the shape of the hand if the user's hand is captured in the image data. That is, in this example of the present embodiment, the display device 20 and the control unit 31 implement a second detection device.
  • control unit 31 is configured so that information relating to the movement of the user's finger detected by the operation device 10 (in this example, each finger from the user's index finger to the little finger is bent so as to contact the operation device 10.
  • First pose information representing the pose of the user's hand is generated based on information indicating whether or not the user is present and information on the position and distance of the thumb.
  • control unit 31 generates second pose information representing the pose of the user's hand based on the information related to the hand shape detected from the image data sent from the display device 20.
  • the control unit 31 combines the first pose information generated here and the second pose information according to a criterion based on a predetermined condition to generate and output information representing the pose of the user's hand. As an example, the control unit 31 selects either the first pose information or the second pose information based on a predetermined condition, and outputs it as information representing the pose of the user's hand.
  • control unit 31 executes processing of an application such as a game, generates image data to be displayed by the display device 20 according to the processing, and outputs the image data to the display device 20. . Detailed operation of the control unit 31 will be described later.
  • the storage unit 32 is a disk device, a memory device, or the like, and holds a program executed by the control unit 31.
  • the program may be provided by being stored in a computer-readable non-transitory recording medium such as a DVD-ROM and stored in the storage unit 32.
  • the storage unit 32 also operates as a work memory for the control unit 31.
  • the operation accepting unit 33 performs wired or wireless communication with the operation device 10, receives information related to user operations and information related to finger movements output from the operation device 10, and sends them to the control unit 31. Output.
  • the display control unit 34 performs wired or wireless communication with the display device 20 and sends the image data output by the control unit 31 to the display device 20.
  • the display control unit 34 receives image data captured by the camera 21 of the display device 20 output from the display device 20 and outputs the image data to the control unit 31.
  • control unit 31 functionally includes a hand image detection unit 51, a first pose information generation unit 52, and a second pose information generation unit as illustrated in FIG. 53, a condition determination unit 54, a pause information output unit 55, and an image data generation processing unit 56.
  • the hand image detection unit 51 sequentially receives input of image data obtained by sequentially capturing images by the camera 21 of the display device 20, and sets each image data as a processing target. If the user's hand is imaged in the image data, a process for detecting the shape of the hand is executed. Specifically, the hand image detection unit 51 detects a range in which the user's left hand is imaged and a range in which the right hand is imaged from image data captured by the camera 21 of the display device 20, and If the hand is imaged, information representing the position of the joint of the finger and the reliability of the detection is generated for each finger included in the hand.
  • the hand image detection unit 51 uses a predetermined skeleton model of a human hand and an image of a hand portion included in the image data to be processed, to bend each joint of the finger in the skeleton model.
  • Information relating to (angle, direction, etc.) is generated, the shape of the user's hand is estimated by a skeleton model, and information indicating the position of the finger joint and the reliability of the detection is generated.
  • the hand image detection unit 51 may output information indicating that the position of the joint of the finger is unknown for the finger of the user's hand not captured in the image data to be processed.
  • the hand image detection unit 51 also includes a case in which part of the finger of the user's hand is hidden by, for example, the back of the user's hand in the image data acquired by the camera 21 of the display device 20. If the concealed finger is imaged in the image data captured immediately before the image data and received from the display device 20, it is assumed that there is no change in the position of the joint of the finger and is subject to processing. Estimate and output the position of the finger joint concealed in the image data. Since this process can be a widely known process, a detailed description thereof is omitted here.
  • the first pose information generation unit 52 receives information related to the movement of the user's finger received from the operation device 10 (in this example, each finger from the user's index finger to the little finger is bent so as to contact the operation device 10.
  • First pose information representing the pose of the user's hand is generated based on information indicating whether or not the user is present and information on the position and distance of the thumb.
  • the first pose information generation unit 52 generates information indicating whether each finger of the user is in a stretched state or a bent state as the first pose information.
  • the sensor unit 15 of the operation device 10 is in a position where the user's thumb is close (that is, is in contact with the casing of the operation device 10), and the sensors 17 that detect the index finger, the middle finger, and the ring finger of the user correspond respectively.
  • the sensor 17 that detects the little finger does not detect that the finger that is to be approaching has detected that the corresponding finger is approaching.
  • About the hand Information of thumb: bent index finger: extended middle finger: extended ring finger: extended little finger: bent is generated as first pose information.
  • the degree to which the joint is bent is defined as “1.0” when the finger is extended and “0.0” when the finger is bent to the limit.
  • the first pose information generation unit 52 may express the first pose information as a numerical value in accordance with the first pose information. However, when the sensor 17 of the operation device 10 can determine only in two stages, such as whether the finger is bent or stretched, it is in a state where the finger is extended to “1.0” and the limit is bent. Only one of the values “0.0” is output.
  • the first pose information generation unit 52 uses the thumb: 0.0 as the first pose information. Index finger: 1.0 Middle finger: 1.0 Ring finger: 1.0 Little finger: 0.0 The information is generated.
  • the second pose information generation unit 53 extends each finger of the user based on information generated by the hand image detection unit 51 such as the position of the finger joint, the position of the palm, and the direction (normal direction of the palm). It is determined whether it is in a bent state or a bent state.
  • the second pose information generation unit 53 represents the extension / bending state for each finger based on the position of the finger joint, the palm position, etc. generated by the hand image detection unit 51. As information, information indicating how much each finger is bent is generated as second pose information.
  • the second pose information generation unit 53 determines that the user has extended the forefinger and the middle finger and the other finger is bent lightly, so that the two fingers form a so-called V-shape, About hands Thumb: 0.2 Index finger: 1.0 Middle finger: 1.0 Ring finger: 0.2 Little finger: 0.1 (Information on the opening degree of each finger) is generated as second pose information.
  • the stretched state is expressed as “1”
  • the state bent to the limit is “0”
  • the bent ratio is expressed as a numerical value.
  • the second pose information generation unit 53 when there is a finger that outputs information indicating that the position of the joint is unknown, the second pose information generation unit 53 is in a bent or extended state for the finger. Information indicating whether it is present or not (for example, a negative value) is output.
  • the hand image detection unit 51 is based on the information of the previous image data.
  • the second pose information generation unit 53 generates the second pose information based on the output information.
  • the condition determination unit 54 determines whether or not a predetermined condition is satisfied.
  • a predetermined condition is satisfied.
  • an example of the condition set in advance here is a condition based on whether or not the user's finger is included in the visual field range of the camera 21 of the display device 20, that is, the image captured by the camera 21 of the display device 20.
  • the image data includes a condition as to whether or not the finger of the user's hand has been imaged.
  • the hand image detection unit 51 determines the range in which the user's left hand is captured and the range in which the right hand is captured from the image data captured by the camera 21 of the display device 20.
  • the process of enumerating the fingers being imaged is executed. Since this process can adopt a widely known method, a detailed description thereof is omitted here.
  • the finger of the user's hand is not captured in the image data captured by the camera 21 of the display device 20, for example, as shown in FIG. 4A, the entire user's hand L1 is displayed on the display device 20.
  • the present invention is not limited to this case. That is, as illustrated in FIG.
  • the condition determination unit 54 enumerates the fingers included in the image data imaged by the camera 21 of the display device 20 as described above, and satisfies the conditions for the imaged fingers, and the fingers not imaged Outputs information indicating whether the condition is satisfied for each finger, assuming that the condition is not satisfied.
  • the pose information output unit 55 determines the first pose information output from the first pose information generation unit 52 and the second pose information output from the second pose information generation unit 53 based on the information output from the condition determination unit 54. Information is generated and output to represent the pose of the user's hand. As described above, the pose information output unit 55 refers to the information output from the condition determination unit 54 and selects either the first pose information or the second pose information, Output as information representing hand pose. In an example of the present embodiment, this selection is performed for each finger.
  • the pose information output unit 55 refers to the condition indicating whether the finger is imaged in the image data captured by the camera 21 of the display device 20 and output from the condition determining unit 54, and the display device 20.
  • the corresponding finger information included in the second pose information output by the second pose information generation unit 53 is selected and output for display.
  • the corresponding finger information included in the first pose information output by the first pose information generation unit 52 is selected and output.
  • the condition determination unit 54 outputs information (information indicating whether the condition is satisfied) that all fingers are not captured in the image data captured by the camera 21 of the display device 20 for the left hand. . Further, the condition determination unit 54 assumes that the right hand is not captured by the image data captured by the camera 21 of the display device 20 for the thumb, ring finger, and little finger as illustrated in FIG. 4B. Information is output, and for the index finger and the middle finger, information that the image data captured by the camera 21 of the display device 20 is captured is output.
  • the second pose information also includes information indicating whether the thumb, ring finger, and little finger are bent or extended.
  • the pose information output unit 55 outputs the corresponding finger information included in the first pose information for each finger of the left hand based on the condition information output by the condition determination unit 54, and the index finger and the middle finger for the right hand. For the other fingers, the corresponding finger information included in the first pose information is output for the other fingers.
  • the image data generation processing unit 56 generates image data to be displayed on the display device 20 using the information output from the pause information output unit 55.
  • this image data can be an image of a virtual character's hand, and the image data generation processing unit 56 determines the shape of the virtual character's hand (the state of bending and stretching each finger).
  • the character is determined based on the pose information output by the pose information output unit 55, the character is placed in a predetermined field of view (for example, the same field of view as the camera 21 of the display device 20), and rendered to generate image data. Since the processing of the image data generation processing unit 56 is also a well-known processing, detailed description thereof is omitted here.
  • the information processing system 1 has the above-described configuration, for example, and operates as follows.
  • the control device 30 executes a paint program that draws an image in a virtual three-dimensional space (virtual space) according to a user instruction as an application program. While the user's left hand finger is bent, the control device 30 according to the paint program can move the fingertip of the right hand of the user in the virtual space corresponding to the movement locus of the fingertip of the right hand in the real space.
  • spheres of designated colors are arranged one after another along the corresponding movement trajectory. Further, it is assumed that the radius of the sphere increases as the number of extended fingers among the fingers of the right hand increases.
  • control device 30 when it is determined that all the fingers of the user's left hand are extended, the control device 30 according to the paint program displays a menu for selecting a color and allows the user to select a color. While this color is selected, the process of arranging the sphere of the specified color is not performed along the movement locus of the fingertip of the user's right hand.
  • the user wears the operation devices 10L and 10R on the left and right hands, respectively.
  • the user initially draws with the fingers of the right hand aligned and stretched.
  • the user mainly focuses on the fingertip of the right hand during drawing, and therefore the user's right hand is captured by the camera 21 of the display device 20.
  • the user's left hand may be outside the field of view of the camera 21 of the display device 20.
  • the control device 30 executes processing for detecting the shape of the right hand included in the image data obtained by the camera 21 of the display device 20 (S1).
  • the control device 30 generates information representing the position of the finger joint (corresponding coordinates in the virtual space) for each finger included in the right hand of the user.
  • the control device 30 generates first pose information representing the poses of the left and right hands of the user based on the information related to the movement of the user's finger received from each of the operation devices 10L and 10R (S2).
  • control device 30 uses the information generated in the process S1 so that each finger of the right hand included in the image data acquired by the camera 21 of the display device 20 is stretched or bent. It is determined whether it is in a state, and information indicating the stretch / bend state for each finger is generated as second pose information (S3). In this process S3, for the finger of the left hand, the control device 30 generates information indicating that it is unknown whether the finger is in a bent state or an extended state.
  • the control device 30 determines whether or not the left and right fingers satisfy the condition that the image data captured by the camera 21 of the display device 20 is captured (S4).
  • each finger of the right hand is imaged and each finger of the left hand is not imaged. Therefore, the control device 30 determines that the condition from the thumb of the right hand to the little finger satisfies the condition, and the thumb of the left hand to the little finger. Until it is judged that the condition is not satisfied.
  • the control device 30 refers to a condition indicating whether the finger is being imaged in the image data captured by the camera 21 of the display device 20, and image data captured by the camera 21 of the display device 20.
  • the corresponding finger information included in the second pose information generated in step S3 is selected and output, and the image data captured by the camera 21 of the display device 20 is captured.
  • the corresponding finger information included in the first pose information generated in step S2 is selected and output (S5: combination output based on conditions).
  • the information indicating the extension / bending state for each finger generated in process S3 is output as it is, and from the thumb to the little finger in the left hand is generated in process S2.
  • the information indicating the stretch / bend state for each finger is output as it is.
  • the control device 30 determines whether or not an output indicating that any finger of the left hand is bent is output (S6), and an output indicating that any finger is bent. (S6: Yes), the menu for selecting a color is not displayed, and all of the fingers of the right hand are in the extended state (all five), so this corresponds to when the five are in the extended state A sphere of the last selected color (or a color that is preliminarily determined to be used when there is no selection) is drawn around the fingertip position of the right hand, for example, the index finger (S7: Drawing process). Then, the control device 30 returns to the process S1 and continues the process.
  • step S6 determines whether all fingers of the left hand are extended. If it is determined in step S6 that all fingers of the left hand are extended (S6: No), the control device 30 outputs a color selection screen to the display device 20 and selects a color for the user. (S8: Palette display). When the user selects a color here, the control device 30 sets the selected color to be used in the next drawing, and returns to step S1 to continue the process.
  • finger bending / extension is determined based on a captured image such as the camera 21 of the display device 20, and is not captured by the camera 21.
  • the bending and stretching of the finger is determined by the device attached to the hand.
  • hand pose determination based on image data can estimate the shape of the hand skeleton, so it can be numerically determined how much the fingers are bent, while the capacitance With the sensor 17 or the like of the operation device 10 using the sensor or the like, it can be determined at most in two or three stages whether it is close or remote. That is, the second pose information based on the image data can generally estimate a hand shape that is more detailed than the first pose information.
  • the second pose information is generated based on the image data acquired by the camera 21 of the display device 20, the position of the fingertip being watched by the user can be determined with relatively high accuracy.
  • the position of the fingertip outside the user's field of view is determined based on the sensor 17 of the operation device 10 or the like, the hand pose can be estimated, although the accuracy is relatively low.
  • the image data captured by the camera 21 of the display device 20 is captured by the camera 21 of the display device 20 based on the condition whether each finger of the user is captured.
  • Information on each finger is selectively acquired from each of the second pose information generated based on the image data and the first pose information generated based on information detected by the device worn on the user's hand.
  • the present embodiment is not limited to this.
  • control device 30 calculates the parameter ⁇ of the corresponding hand from the reliability information about the left and right hands, and uses the parameter ⁇ to pose information (finger information on each finger of the corresponding hand).
  • the value representing the degree of opening) F is obtained by the above-described mathematical formula.
  • the parameter ⁇ may be corrected based on not only the reliability information but also the position of the hand in the image data captured by the camera 21. For example, in consideration of the possibility that distortion due to the optical system of the camera 21 may affect the peripheral portion of the image data, the reliability of the parameter ⁇ is low for a finger imaged in a predetermined range of the peripheral portion. May be corrected to be reduced to the current value (a value close to “0” in this example).
  • the first pose information and the second pose information are combined with the image data captured by the camera 21 of the display device 20 depending on whether or not each finger of the user is captured.
  • the condition used in the present embodiment is not limited to this condition.
  • condition for determining the mode of combination the user's finger movement detected by the operation device 10 and the image data captured by the camera 21 of the display device 20 are detected.
  • Conditions relating to temporal changes with the information relating to the shape of the hand may be included.
  • Whether or not this condition is satisfied is, for example, a statistic (dispersion or the like) ⁇ 1 representing variation within the past predetermined period of information on the degree of opening for each finger obtained from information detected by the operation device 10
  • the determination is based on the statistic (variance or the like) ⁇ 2 representing the variation of the finger opening information obtained based on the image data captured by the camera 21 of the display device 20 within the past predetermined period.
  • the opening value of the first pose information is included in the pose information and output for the finger, and if the statistic is ⁇ 1 ⁇ ⁇ 2, For the finger, the opening value of the second pose information may be included in the pose information and output.
  • the detection result that the judgment fluctuates (the value changes frequently) is handled as unreliable.
  • a plurality of conditions may be used in combination. For example, even when a finger is imaged, if the difference ⁇ 2- ⁇ 1 between the statistics for the finger exceeds a predetermined threshold, the opening degree of the first pose information for the finger The value of may be included in the pause information and output. This is equivalent to treating the detection result based on the imaged image data as unreliable when the judgment fluctuates relatively greatly even if the finger is imaged (the value changes frequently). .
  • the information representing the hand pose is not limited to the information representing the opening degree of the finger (how much the joint is bent / stretched) as described above.
  • the information representing the pose of the hand may include information on the direction of the hand (the direction of the normal of the palm), the direction of the thumb, and the like.
  • the information representing the pose of the hand includes a plurality of information elements (information such as the opening degree of each finger, the direction of the hand, the direction of the thumb, etc.) You may determine which information element contained in 1 pose information and 2nd pose information is used (or by what kind of weight it combines).
  • the control device 30 includes, for each element of information, a statistic (variance or the like) ⁇ 1 representing the variation of the first pose information within the past predetermined period, and image data captured by the camera 21 of the display device 20. If the above-mentioned statistic for an element of information is ⁇ 1 ⁇ 2 by comparison with a statistic (variance etc.) ⁇ 2 representing variation within the past predetermined period of the second pose information obtained based on For the information element, the value of the first pose information is output by including it in the pose information. If the statistic is ⁇ 1 ⁇ ⁇ 2, the value of the second pose information is output by including the value of the second pose information for the information element. It is good as well.
  • the value of the second pose information may be used for the opening degree of all fingers of the right hand, but the value of the first pose information may be used for the orientation of the hand.
  • the camera 21 that captures the image data that is the basis for the second pose information is arranged on the front side of the user of the display device 20, but the present embodiment is not limited to this. Further, it may be arranged on the top of the display device 20 or the temporal region. Furthermore, this camera does not necessarily need to move with the display device 20, and may be a camera arranged in a room where the user is located. Also, there may be a plurality of cameras instead of only one.
  • the camera may not be an optical camera, but may be a so-called depth camera (a camera that acquires distance information to the subject) that projects infrared rays to obtain a shaded image.
  • depth camera a camera that acquires distance information to the subject
  • the operation device 10 may not be exemplified so far as long as it can measure the opening degree of the user's finger without dropping even if the user opens the finger.
  • it may be a glove that the user wears on the hand and measures the opening (joint bending angle) of each finger with a strain gauge or the like.
  • the control device 30 not only changes the shape of the virtual character hand included in the image data generated and output to the display device 20 based on the pose information of the user's hand, You may change the display mode of the object in the image data. For example, when the information on the opening degree of each finger is selected from either the first pose information or the second pose information, the control device 30 is based on the information selected from the first pose information. The finger is drawn in a different manner between the finger that is drawn by determining the position of the finger and the finger that is drawn by determining the position in the virtual space based on the information selected from the second pose information. Also good.
  • control device 30 determines the position in the virtual space based on the information selected from the first pose information, performs translucent synthesis (alpha blending) on the background,
  • the finger drawn by determining the position in the virtual space based on the information selected from the two pose information may be drawn without transmitting the background.
  • the display mode may be made different by other methods such as changing the color of the contour line instead of whether or not to perform semi-transparent composition.
  • control apparatus 30 of this Embodiment is based on the information selected from 1st pose information, when the information of the opening degree of each finger is selected from either 1st pose information or 2nd pose information.
  • a finger that determines the position in the virtual space and draws, a finger that determines the position in the virtual space based on the information selected from the second pose information, and an object in the virtual space The contact determination method (so-called collision determination) may be made different.
  • control device 30 determines the position in the virtual space based on the determination result with relatively low accuracy (in the above example, the position is determined by the first pose information). It may be determined that the finger touched the object when the finger touches the circumscribed cuboid regardless of the shape of the object.
  • control device 30 determines the finger of the object whose position in the virtual space is determined based on the determination result with relatively high accuracy (the finger whose position is determined by the second pose information in the above example). When the finger touches the outer surface, it is determined that the object has been touched.
  • contact determination with an object on a finger that is not visually recognized by the user outside the field of view of the camera 21 of the display device 20
  • the user is visually recognized (within the field of view of the camera 21 of the display device 20).
  • the determination method is different depending on the contact determination of the finger with respect to the object, and the contact determination for the finger that is visually recognized is performed relatively strictly, whereas the finger that is not visually recognized is determined easily. I will do it.
  • the finger whose position in the virtual space has been determined by the first pose information moves to the visual field range of the camera 21, so that the second pose information in the virtual space It is possible to switch so that the position at is determined.
  • the control device 30 determines the difference between the information such as the finger and hand position from the previous position information. If it exceeds the value, to prevent rapid changes, the weighted average is weighted with the weight that changes according to the time between the previous position and the position calculated this time, and gradually becomes the position calculated this time. You may adjust so that it may move.
  • a widely known method can be adopted as such an adjustment processing method.
  • the control device 30 may generate and output information on the position of the user's hand using both information detected by the operation device 10 and image data captured by the camera 21 of the display device 20. . Specifically, when the operation device 10 outputs information on the palm angle of the user's palm with respect to the direction of gravity, the control device 30 detects the position of the hand detected from this information and image data captured by the camera 21 of the display device 20. Information on the position of the hand in the user's real space (such as information on the position of the center of gravity of the hand in the predetermined coordinate system set in the real space) is generated and output. Further, the control device 30 generates and outputs position information in the virtual space corresponding to the information on the center of gravity position of the hand.
  • the pose of a hand such as a finger
  • information such as the posture of the user, the position and rotation angle of each joint, and the camera of the display device 20 are detected.
  • 21 may be generated using both of the image data captured by 21.
  • the control device 30 may notify the user whether or not the user's finger has been detected from the image data captured by the camera 21 of the display device 20. This notification may be performed by displaying on the display device 20, or may be sounded by voice or the like.
  • the control device 30 may notify the user by presenting the haptic sense using the device.
  • control device 30 is generated using the first pose information generated from the information related to the movement of the user's finger received from the operation device 10 and the image data captured by the camera 21 of the display device 20.
  • the second pose information may be compared and notification indicating whether or not they match each other may be performed.
  • first pose information and the second pose information are numerical information such as the opening degree of each finger, whether the numerical values are rounded (for example, rounded) and then compared to determine whether they match. May be judged.
  • control device 30 is supposed to generate information on the pose of the user's finger, but instead of using the pose of the finger, detection is performed using a plurality of types of detection means having different detection methods. Using information (detection information) on the condition of the affected foot (ankle angle, toe direction, etc.) and physical condition (posture, etc.), combine the obtained information under a predetermined condition and output The information indicating the state of the foot as the target of or the information indicating the state of the body may be generated and output.

Abstract

制御装置が、ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れ、当該受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成し、また、上記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成し、当該生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力する。

Description

制御装置、情報処理システム、制御方法、及びプログラム
 本発明は、制御装置、情報処理システム、制御方法、及びプログラムに関する。
 近年では、仮想空間の画像を生成して提示する仮想現実(VR)デバイスが普及しており、ユーザの実際の手や指の動きを検出して、仮想空間内のオブジェクトの動きに反映させることが行われている。
 このような処理のために、従来から手を検出するデバイスとして、カメラ等でユーザの手を撮像して、手の形状を認識し、ユーザの指が曲げられているか伸ばされているかを検出するものがある。
 しかしながら、上記従来の、カメラを利用した手を検出するデバイスでは、カメラの位置から指が視認できない姿勢となっている場合や、そもそもカメラの視野外にユーザの手がある場合は、その形状の認識ができず、ユーザの指がどのような状態となっているかを検出できない。
 本発明は上記実情に鑑みて為されたもので、ユーザの手のポーズの検出が可能となる機会を増大できる制御装置、情報処理システム、制御方法、及びプログラムを提供することを、その目的の一つとする。
 上記従来例の問題点を解決する本発明は、制御装置が、ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れる受入手段と、前記受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、前記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、を含むこととしたものである。
 本発明によると、ユーザの手のポーズの検出が可能となる機会を増大できる。
本発明の実施の形態の一例に係る情報処理システムの構成例を表す概略ブロック図である。 本発明の実施の形態の一例に係る情報処理システムで用いる操作デバイスの例を表す概略斜視図である。 本発明の実施の形態の一例に係る情報処理システムに含まれる制御装置の例を表す機能ブロック図である。 本発明の実施の形態の一例に係る情報処理システムによるユーザの手の検出動作を表す説明図である。 本発明の実施の形態の一例に係る情報処理システムの処理の一例を表すフローチャート図である。
 本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理システム1は、図1に例示するように、ユーザの左右の手のそれぞれに装着される操作デバイス10L,10R(以下、区別の必要がない場合は、操作デバイス10と表記する)と、ユーザの頭部に装着される表示デバイス20と、これら操作デバイス10及び表示デバイス20に対して有線または無線にて通信可能に接続される、制御装置30とを含んで構成される。
 また制御装置30は、図1にその概要を例示するように、制御部31と、記憶部32と、操作受入部33と、表示制御部34とを含んで構成される。
 操作デバイス10は、例えば図2(a)にその正面側、図2(b)にその背面側を例示するように、ユーザにより把持される把持部11と、操作部12とを含む。把持部11は、実質的に多角形柱状をなし、操作部12が、この把持部11から連続して形成されている。図2の例では、操作部12は、正面側にセンサ部15と、ボタン操作部16とを含み、背面側に、指センサ17と、ボタン18とを備えて構成される。またこの操作デバイス10は、内部に制御回路19を含んで構成されている。
 この制御回路19は、マイクロコンピュータ等のプログラム制御デバイスを含み、メモリ等の記憶手段に格納されたプログラムに従って動作する。またこの制御回路19は、操作部12のセンサ部15,ボタン操作部16,指センサ17,ボタン18に接続され、これらセンサ部15や、ボタン操作部16等から入力されるユーザの指の検出結果や、操作の内容表す信号等、各種の信号を受け入れて制御装置30に対して送出する。この制御回路19は、例えばブルートゥース(登録商標)等の無線通信インタフェース、またはUSBや有線LAN等の有線通信インタフェース等を含み、この無線通信インタフェースや有線通信インタフェースを介して、制御装置30との間で種々の信号を授受する。
 また、本実施の形態では、この操作デバイス10の左側面または右側面のいずれか一方側に固定具14が固定される。この固定具は例えば可撓性あるベルトを環状としたものである。この例の操作デバイス10を操作するユーザは、固定具14にユーザ自身の人差指から小指までを通し、操作デバイス10の本体をユーザの親指の付根に当接させた位置に固定して用いる。図2の例では、操作デバイス10の右側面側がユーザの手の平に押付けられて操作デバイス10が固定される状態とした例が示されている。またこの操作デバイス10の大きさは、固定具14に指を通して操作デバイス10を装着したユーザが、自然に操作デバイス10を把持したときに、ユーザの親指末節が操作デバイス10の正面側のボタン操作部16に到達する程度の大きさとする。つまり本実施の形態では、ボタン18を含む、操作部12の少なくとも一部のボタン等が、把持部11を把持したときに、ユーザの指が到達する範囲に配される。
 すなわち、操作デバイス10を装着したユーザが、自然に操作デバイス10を把持したときには、当該ユーザの人差指は操作デバイス10のボタン18に触れる位置となり、ユーザは把持部11を手の平と、中指、薬指、小指とで握りこむようになる。もっとも、この状態からユーザが手を開いても、固定具14により操作デバイス10がユーザの手に固定されるので、操作デバイス10が落下することはない。
 センサ部15は、例えば、ユーザが自然に操作デバイス10を把持したとき、ユーザの親指の末節側が到達する位置よりやや下方、ユーザの親指の基節側が近接する位置に配される。このセンサ部15は、例えば、操作デバイス10の正面側であって操作デバイス10の表面の法線方向を中心とし、操作デバイス10正面の左側面側から右側面側までの比較的広角の角度範囲を検出可能範囲として、この検出可能範囲においてユーザの親指を検出する。そして当該親指を検出した位置(上記角度範囲内の角度)と、センサ部15からユーザの親指までの距離とを検出し、これらの情報を含む、検出結果情報を制御回路19に出力する。このセンサ部15は例えば、カメラや、光学センサ、焦電センサ、静電容量センサ等、どのようなものでも構わない。
 またセンサ17は、ユーザが自然に操作デバイス10を把持したとき、ユーザの人差指、中指、薬指、小指の各指がそれぞれ到達する位置にそれぞれ配される。このセンサ17は、指が近接した状態にあるか、そうでないかを表す情報を生成する静電容量センサ等であり、センサ17の各々は、指が近接した状態にあるか、そうでないかを表す情報を生成して、制御回路19に出力している。本実施の形態の例では、この操作デバイス10が、本発明の第1の検出装置を実現している。
 表示デバイス20は、例えばユーザが頭部に装着するヘッドマウントディスプレイ(HMD)等である。この表示デバイス20は、制御装置30が出力する画像データを、有線または無線にて受信し、当該受信した画像データを表示してユーザに提示する。本実施の形態の一例では、この表示デバイス20は、例えば有機EL表示パネルや液晶表示パネルなどの表示素子を用いて構成される、ユーザの左目に提示する左目用画像表示部と、ユーザの右目に提示する右目用画像表示部とを含んでもよく、この場合、制御装置30はそれぞれの画像表示部にて表示されるべき左目用画像データと右目用画像データとを生成して出力することとなる。この場合、表示デバイス20は、当該左目用画像データを、左目用画像表示部で表示出力し、右目用画像データを、右目用画像表示部で表示出力する。
 本実施形態においてこの表示デバイス20は、ユーザが装着した状態では外界の様子を視認することができない非透過型の表示装置あってもよいし、ユーザが装着した状態で、外界の像に、表示するべき映像を半透明に合成して提示する透過型の表示装置であってもよい。
 また、本実施の形態の一例では、この表示デバイス20の正面側(ユーザが装着したときに、ユーザの顔面側にある側)を視野とするカメラ21を含む。このカメラ21は、ユーザの前方の所定範囲の視野(FOV(Field of View))内の画像を繰り返し撮像し、当該撮像して得た画像データを、順次、制御装置30に対して出力する。
 制御装置30の制御部31は、CPU等のプログラム制御デバイスであり、記憶部32に格納されたプログラムに従って動作する。本実施の形態では、この制御部31は、操作デバイス10が送出する情報を受け入れる。また制御部31は、表示デバイス20が送出する画像データを受け入れて、当該画像データにユーザの手が撮像されていれば、当該手の形状を検出する処理を実行する。すなわち、本実施の形態のこの例では、表示デバイス20とこの制御部31とにより、第2の検出装置が実現される。
 さらに、この制御部31は、操作デバイス10により検出されたユーザの指の動きに係る情報(ここでの例では、ユーザの人差し指から小指までの各指が操作デバイス10に接触するよう曲げられているか否かを表す情報、並びに、親指の位置と距離に関する情報)に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する。また、制御部31は、上記表示デバイス20が送出した画像データから検出した、手の形状に係る情報に基づいて、ユーザの手のポーズを表す第2のポーズ情報を生成する。
 制御部31は、ここで生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力する。一例としてこの制御部31は、予め定めた条件に基づき、と、第1のポーズ情報と、第2のポーズ情報とのいずれかを選択して、ユーザの手のポーズを表す情報として出力する。
 さらに、この制御部31は、ゲームなどのアプリケーションの処理を実行しており、当該処理に応じて、表示デバイス20が表示するべき画像データを生成して、表示デバイス20に当該画像データを出力する。この制御部31の詳しい動作については後に述べる。
 記憶部32は、ディスクデバイスやメモリデバイス等であり、制御部31によって実行されるプログラムを保持する。このプログラムは、DVD-ROM等のコンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部32に格納されたものであってもよい。また、この記憶部32は、制御部31のワークメモリとしても動作する。
 操作受入部33は、操作デバイス10との間で有線または無線にて通信を行い、操作デバイス10が出力する、ユーザの操作に関する情報や、指の動きに係る情報を受け入れて、制御部31に出力する。
 表示制御部34は、表示デバイス20との間で有線または無線にて通信を行い、制御部31が出力する画像データを表示デバイス20に送出する。またこの表示制御部34は、表示デバイス20が出力する、表示デバイス20のカメラ21にて撮像された画像データを受け入れて、制御部31に出力する。
 次に、制御装置30の制御部31の動作について説明する。本実施の形態のある例では、この制御部31は、機能的には、図3に例示するように、手画像検出部51と、第1ポーズ情報生成部52と、第2ポーズ情報生成部53と、条件判定部54と、ポーズ情報出力部55と、画像データ生成処理部56とを含んで構成される。
 ここで、手画像検出部51は、表示デバイス20のカメラ21が逐次的に撮像して得た画像データの入力を順次受けて、それぞれの画像データを処理の対象として、処理の対象となった画像データにユーザの手が撮像されていれば、当該手の形状を検出する処理を実行する。具体的にこの手画像検出部51は、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの左手が撮像されている範囲と右手の撮像されている範囲とを検出し、また、手が撮像されていれば、当該手に含まれる各指について、指の関節の位置やその検出の信頼度を表す情報を生成する。例えば手画像検出部51は、予め定められた人間の手の骨格モデルと、処理の対象となった画像データに含まれる手の部分の画像とから、当該骨格モデルにおける指の各関節の曲がり方(角度や方向等)に関する情報を生成し、骨格モデルによりユーザの手がどのような形状にあるかを推定して、指の関節の位置やその検出の信頼度を表す情報を生成する。
 また、手画像検出部51は、処理の対象となった画像データに撮像されていないユーザの手の指については、指の関節の位置が不明である旨の情報を出力してもよい。なお、この手画像検出部51は、表示デバイス20のカメラ21が撮像して得た画像データにおいて、ユーザの手の指の一部が、例えばユーザの手の甲などによって隠蔽されている場合も、当該画像データの直前に撮像され、表示デバイス20から受信された画像データに、当該隠蔽された指が撮像されていれば、その指の関節の位置に変化がないものとして、処理の対象となった画像データにおいて隠蔽されている指の関節の位置を推定して出力する。この処理については、既に広く知られた処理を用いることができるので、ここでの詳しい説明を省略する。
 第1ポーズ情報生成部52は、操作デバイス10から受信した、ユーザの指の動きに係る情報(ここでの例では、ユーザの人差し指から小指までの各指が操作デバイス10に接触するよう曲げられているか否かを表す情報、並びに、親指の位置と距離に関する情報)に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する。具体的に、この第1ポーズ情報生成部52は、ユーザの各指が伸ばされた状態にあるか、曲げられた状態にあるかを表す情報を、第1ポーズ情報として生成する。例えば、操作デバイス10のセンサ部15がユーザの親指が近接した位置にあり(つまり操作デバイス10の筐体に接触しており)、ユーザの人差し指と中指と薬指とを検出するセンサ17がそれぞれ対応する指が近接していることを検出しておらず、小指を検出するセンサ17が、対応する指が近接していることを検出している場合、
当該手について、
親指:曲げ
人差し指:伸び
中指:伸び
薬指:伸び
小指:曲げ
という情報を、第1ポーズ情報として生成する。なお、後に述べるように、第2ポーズ情報において、指を伸ばした状態を「1.0」、限界まで曲げた状態を「0.0」として、関節が曲げられた度合い(指の開度)を数値として表現している場合、第1ポーズ情報生成部52は、第1ポーズ情報を、これに合わせて数値として表してもよい。もっとも、操作デバイス10のセンサ17が、指が曲げられているか伸びているかといった2段階でのみ判断できる場合は、指を伸ばした状態である「1.0」と、限界まで曲げた状態である「0.0」とのいずれかの値のみが出力される。例えば上記の例であれば、第1ポーズ情報生成部52は、第1ポーズ情報として
親指:0.0
人差し指:1.0
中指:1.0
薬指:1.0
小指:0.0
という情報を生成する。
 第2ポーズ情報生成部53は、手画像検出部51が生成した、指の関節の位置や手の平の位置、方向(手の平の法線方向)等の情報に基づいて、ユーザの各指が伸ばされた状態にあるか、曲げられた状態にあるかを判断する。本実施の形態のある例では、この第2ポーズ情報生成部53は、手画像検出部51が生成した、指の関節の位置や手の平の位置などから、指ごとの伸び/曲げの状態を表す情報として、各指がどの程度曲げられているかを表す情報を第2ポーズ情報として生成する。具体的に第2ポーズ情報生成部53は、ユーザが人差し指と中指とを伸ばし、他の指を軽く曲げた状態として、二本の指でいわばV字を形成していると判断した場合、当該手について、
親指:0.2
人差し指:1.0
中指:1.0
薬指:0.2
小指:0.1
などという情報(各指の開度の情報)を、第2ポーズ情報として生成する。なお、ここでは伸びている状態を「1」、限界まで曲げられた状態を「0」として、曲げられた割合を数値として表現している。
 また、この第2ポーズ情報生成部53は、手画像検出部51が関節の位置が不明である旨の情報を出力する指がある場合は、当該指については、曲げまたは伸びのいずれの状態にあるか不明である旨の情報(例えば負の値などとする)を出力する。
 なお、既に述べたように、最後に表示デバイス20から受信した画像データにおいて、ユーザの指の一部が隠蔽されていたとしても、手画像検出部51がそれより以前の画像データの情報に基づいて関節の位置を表す情報を出力している場合は、この第2ポーズ情報生成部53は、当該出力されている情報に基づいて第2ポーズ情報を生成する。
 条件判定部54は、予め定めた条件が充足されるか否かを判断する。具体的にここで予め定めた条件の一例は、表示デバイス20のカメラ21の視野範囲に、ユーザの指が含まれるか否かに基づく条件、つまり、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されているか否かの条件を含む。
 本実施の形態のある例では、手画像検出部51が、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの左手が撮像されている範囲と右手の撮像されている範囲とを検出し、さらにそれぞれの指を検出する処理を行う際に、撮像されている指を列挙する処理を実行する。この処理も広く知られた方法を採用できるので、ここでの詳しい説明を省略する。なお、ここで表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されない例は、例えば図4(a)に示すように、ユーザの手L1全体が表示デバイス20のカメラ21の視野から外れている場合があるが、この場合だけに限られない。すなわち、図4(b)に例示するように、ユーザの手L2は表示デバイス20のカメラ21の視野に含まれていても、ユーザ自身の手L2の甲などによってその少なくとも一部の指が隠蔽されてしまっている場合も、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの手の指が撮像されない場合(表示デバイス20のカメラ21の視野範囲に、ユーザの指が含まれない場合)に含まれる。なお、図4(b)では説明のため、手L2の隠れている指を破線で仮想的に示している。
 条件判定部54は、このように表示デバイス20のカメラ21にて撮像された画像データに含まれる指を列挙し、撮像されている指については条件を満足するものとし、撮像されていない指については条件を満足しないものとして、指ごとに、条件を充足するか否かを表す情報を出力する。
 ポーズ情報出力部55は、第1ポーズ情報生成部52が出力する第1ポーズ情報と、第2ポーズ情報生成部53が出力する第2ポーズ情報とを、条件判定部54が出力する情報によって定められる基準に従って組み合わせ、ユーザの手のポーズを表す情報を生成して出力する。既に述べたように、このポーズ情報出力部55は、条件判定部54が出力する情報を参照して、第1のポーズ情報と、第2のポーズ情報とのいずれかを選択して、ユーザの手のポーズを表す情報として出力する。本実施の形態の一例では、この選択は指ごとに行われる。
 すなわちポーズ情報出力部55は、条件判定部54が出力する、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指であるか否かを表す条件を参照し、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指については、第2ポーズ情報生成部53が出力する第2ポーズ情報に含まれる、対応する指の情報を選択して出力し、表示デバイス20のカメラ21にて撮像された画像データに撮像されていない指については第1ポーズ情報生成部52が出力する第1ポーズ情報に含まれる、対応する指の情報を選択して出力する。
 一例として、ユーザが前方を見たまま、左手を頭部後方に移動し、右手は前方に突き出して、人差し指と中指とでV字を形成している場合を想定する。この場合、条件判定部54は、左手についてはすべての指が表示デバイス20のカメラ21にて撮像された画像データに撮像されていないとする情報(条件の充足の有無を表す情報)を出力する。また、条件判定部54は、右手については、図4(b)に例示したように、親指、薬指、小指については表示デバイス20のカメラ21にて撮像された画像データに撮像されていないとする情報を出力し、人差し指と中指については、表示デバイス20のカメラ21にて撮像された画像データに撮像されているとする情報を出力する。
 もっとも、この場合であっても、直前の表示デバイス20のカメラ21にて撮像された画像データに基づいて、右手の親指、薬指、小指についても各関節の位置を表す情報は出力され得る。従って当該親指、薬指、小指についても第2ポーズ情報にそれぞれ曲げられているか伸びているかを表す情報が含まれる。
 ポーズ情報出力部55は、条件判定部54が出力する条件の情報に基づき、左手の各指については第1ポーズ情報に含まれる、対応する指の情報を出力し、右手については、人差し指と中指とについて、第2ポーズ情報に含まれる、対応する指の情報を出力し、その他の指については、第1ポーズ情報に含まれる、対応する指の情報を出力する。
 画像データ生成処理部56は、ポーズ情報出力部55が出力する情報を用いて、表示デバイス20において表示する画像データを生成する。一例として、この画像データは、仮想的なキャラクタの手の画像とすることができ、画像データ生成処理部56は、当該仮想的なキャラクタの手の形(各指の曲げ伸ばしの状態)を、ポーズ情報出力部55が出力するポーズ情報に基づいて決定して、当該キャラクタを所定の視野(例えば表示デバイス20のカメラ21と同じ視野)内に配し、レンダリングして画像データを生成する。この画像データ生成処理部56の処理も、広く知られた処理であるので、ここでの詳しい説明を省略する。
[動作]
 本発明の実施の形態に係る情報処理システム1は、例えば以上の構成を備えており、次のように動作する。なお、以下の例では、制御装置30が、アプリケーションプログラムとして、仮想的な三次元空間(仮想空間)内に、ユーザの指示に従って画像を描画するペイントプログラムを実行しているものとする。このペイントプログラムに従う制御装置30は、ユーザの左手の指が少なくとも一つ曲げられている間、ユーザの右手の指先の移動軌跡(実空間での右手の指先の移動軌跡に対応する、仮想空間内の対応する移動軌跡)に沿って、指定された色の球を次々に配して行くものとする。また右手の指のうち伸ばされている指が多くなるほど、球の半径を大きくするものとする。さらに、このペイントプログラムに従う制御装置30は、ユーザの左手のすべての指が伸ばされた状態となったと判断すると、色を選択するメニューを表示して、ユーザに色を選択させるものとする。この色を選択させている間は、ユーザの右手の指先の移動軌跡に沿って、指定された色の球を配する処理を行わない。
 本実施の形態のこの例において、ユーザは左右の手のそれぞれに、操作デバイス10L,10Rを装着する。以下の例では当初、ユーザは右手の各指を揃えて伸ばした状態で描画を行うものとする。なお通常、ユーザは、描画中は主に右手の指先を注視するので、表示デバイス20のカメラ21にはユーザの右手が撮像されるものとする。このときユーザの左手は、表示デバイス20のカメラ21の視野外にあってもよい。
 制御装置30は、図5に例示するように、表示デバイス20のカメラ21が撮像して得た画像データに含まれる右手の形状を検出する処理を実行する(S1)。制御装置30は、ユーザの右手に含まれる各指について、指の関節の位置(仮想空間内の対応する座標)を表す情報を生成する。
 制御装置30は、操作デバイス10L,10Rのそれぞれから受信した、ユーザの指の動きに係る情報に基づいてユーザの左右の手のポーズを表す第1のポーズ情報を生成する(S2)。
 また制御装置30は、処理S1で生成された情報を用いて、表示デバイス20のカメラ21が撮像して得た画像データに含まれる右手の各指が伸ばされた状態にあるか、曲げられた状態にあるかを判断して、指ごとの伸び/曲げの状態を表す情報を第2ポーズ情報として生成する(S3)。この処理S3において、左手の指については、制御装置30は、曲げまたは伸びのいずれの状態にあるか不明である旨の情報を生成する。
 制御装置30は、左右のそれぞれの指について、表示デバイス20のカメラ21にて撮像された画像データに撮像されているとの条件を満足するか否かを判断する(S4)。ここでは上述のように、右手の各指が撮像され、左手の各指は撮像されていないので、制御装置30は、右手の親指から小指までは条件を満足すると判断し、左手の親指から小指までは条件を満足しないと判断する。
 制御装置30はそして、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指であるか否かを表す条件を参照し、表示デバイス20のカメラ21にて撮像された画像データに撮像されている指については、処理S3で生成した、第2ポーズ情報に含まれる、対応する指の情報を選択して出力し、表示デバイス20のカメラ21にて撮像された画像データに撮像されていない指については処理S2で生成した、第1ポーズ情報に含まれる、対応する指の情報を選択して出力する(S5:条件に基づく組み合わせ出力)。
 つまりここでの例では、右手の親指から小指までについては、処理S3で生成した指ごとの伸び/曲げの状態を表す情報がそのまま出力され、左手の親指から小指までについては、処理S2において生成した、指ごとの伸び/曲げの状態を表す情報がそのまま出力される。
 制御装置30は、ここで左手のいずれかの指が曲げられた状態にある旨の出力をしているか否かを判断し(S6)、いずれかの指が曲げられた状態にある旨の出力をしているときには(S6:Yes)、色を選択するメニューを表示せず、右手の指がいずれも(5本とも)伸びた状態であるので、5本が伸びた状態であるときに対応する半径であって、最後に選択された色(または選択がないときに使用されるものとして予め定められた色)の球を、右手の、例えば人差し指の指先位置を中心として描画する(S7:描画処理)。制御装置30は、そして、処理S1に戻って処理を続ける。
 一方、処理S6において左手の指がいずれも伸ばされていると判断すると(S6:No)、制御装置30は、色の選択画面を、表示デバイス20に対して出力して、ユーザに色を選択させる(S8:パレット表示)。ユーザがここで色を選択すると、制御装置30は、次の描画の際に、当該選択された色を使用するよう設定し、処理S1に戻って処理を続ける。
 このように本実施の形態によると、注視している手の指先については、表示デバイス20のカメラ21など、撮像された画像に基づく判断により、指の曲げ伸ばしが判定され、カメラ21によって撮像されない指については、手に装着したデバイスにより指の曲げ伸ばしが判定されることとなる。
 既に述べたように、画像データに基づく手のポーズの判断では、手の骨格の形状が推定できるので、指がどの程度曲げられているかが数値的に子細に判断できるのに対し、静電容量センサ等を用いる操作デバイス10のセンサ17等では、近接しているか離れているかの高々2,3段階で判断できるに留まる。つまり、画像データに基づく第2ポーズ情報は、一般に、第1ポーズ情報よりも詳細な手の形状が推定できる。
 本実施の形態のここでの例では、表示デバイス20のカメラ21により取得した画像データに基づき第2ポーズ情報を生成するので、ユーザが注視している指先の位置は比較的高い精度で判断できることとなり、一方、ユーザの視野外にある指先の位置は、操作デバイス10のセンサ17などに基づいて判断されるため、比較的低い精度となるものの、手のポーズは推定可能な状態となる。
[組み合わせについての変形例]
 なお、ここまでの説明では、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの各指が撮像されているか否かの条件に基づき、表示デバイス20のカメラ21にて撮像された画像データに基づいて生成された第2ポーズ情報と、ユーザの手に装着されたデバイスが検出した情報に基づいて生成された第1のポーズ情報とのそれぞれから選択的に各指の情報を取得することとしていたが、本実施の形態はこれに限られない。
 例えば、既に述べたように、表示デバイス20のカメラ21にて撮像された画像データに基づいて第2ポーズ情報を生成する際に、推定される骨格モデルの形状については、その推定の信頼度の情報が併せて得られる場合がある。そこで、この信頼度を用いて、信頼度が高いほど「1」に近くなり、信頼度が低いほど「0」に近くなるパラメータαを用いて、第1ポーズ情報に含まれる、指の開度を表す値Fpと、第2ポーズ情報に含まれる、同じ指の開度を表す値Frとから、当該指についてのポーズ情報(開度を表す値)Fを、
F=(1-α)・Fp+α・Fr
というように、重みづけ平均により決定してもよい。
 この例では、制御装置30は、左右のそれぞれの手についての信頼度の情報から、対応する手のパラメータαを演算し、当該パラメータαを用いて、対応する手の各指のポーズ情報(指の開度を表す値)Fを、上述の数式により求めることとする。
 また、このパラメータαは、信頼度の情報だけでなく、カメラ21にて撮像された画像データ内にある手の位置に基づいて補正されてもよい。例えば、画像データの周縁部では、カメラ21の光学系による歪みが影響する可能性があることに配慮して、周縁部の所定範囲に撮像された指については、パラメータαを、信頼度が低いときの値(ここでの例では「0」に近い値)に低減補正してもよい。
[条件の別の例]
 以上の説明では、表示デバイス20のカメラ21にて撮像された画像データに、ユーザの各指が撮像されているか否かの条件により、第1ポーズ情報と第2ポーズ情報とを組み合わせることとしていたが、本実施の形態において用いられる条件はこの条件に限られない。
 例えば、組み合わせの態様を決定する条件としては、操作デバイス10により検出されたユーザの指の動きに係る情報と、表示デバイス20のカメラ21にて撮像された画像データに基づいて検出されたユーザの手の形状に係る情報との時間的変化に係る条件を含んでもよい。
 この条件を充足するか否かは、例えば、操作デバイス10により検出された情報から得られた指ごとの開度の情報の、過去所定期間内でのばらつきを表す統計量(分散など)σ1と、表示デバイス20のカメラ21にて撮像された画像データに基づいて得られた指の開度の情報の、過去所定期間内でのばらつきを表す統計量(分散など)σ2とにより判断される。
 すなわち、ある指についての上記統計量がσ1<σ2であれば、当該指については第1ポーズ情報の開度の値をポーズ情報に含めて出力し、統計量がσ1≧σ2であれば、当該指については第2ポーズ情報の開度の値をポーズ情報に含めて出力することとしてもよい。
 この例によると、判断がゆらぐ(値が頻繁に変化する)検出結果を信頼できないものとして扱うこととなる。
 さらに、条件は複数組み合わせて用いられてもよい。例えば、ある指が撮像されている場合であっても、当該指についての上記統計量の差σ2-σ1が予め定めた閾値を超えている場合は、当該指については第1ポーズ情報の開度の値をポーズ情報に含めて出力することとしてもよい。これは、撮像されている指であっても、判断が比較的大きくゆらぐ(値が頻繁に変化する)場合に、その撮像された画像データに基づく検出結果を信頼できないものとして扱うことに相当する。
[手のポーズを表す情報の変形例]
 また、手のポーズを表す情報としては、ここまでに述べたような、指の開度(関節がどれだけ曲げられているか/伸ばされているか)を表す情報に限られない。手のポーズを表す情報はこのほか、手の向き(手の平の法線の方向)や、親指の向きの情報等が含まれてもよい。
 さらに、手のポーズを表す情報が複数の情報の要素(各指の開度、手の向き、親指の向き等の情報)を含む場合、情報の要素ごとに、所定の条件に基づいて、第1ポーズ情報と第2ポーズ情報とのいずれに含まれる情報要素を用いるか(あるいはどのような重みによって組み合わせるか)を決定してもよい。
 一例として、制御装置30は、各情報の要素について、第1ポーズ情報の過去所定期間内でのばらつきを表す統計量(分散など)σ1と、表示デバイス20のカメラ21にて撮像された画像データに基づいて得られた第2ポーズ情報の過去所定期間内でのばらつきを表す統計量(分散など)σ2との比較により、ある情報の要素についての上記統計量がσ1<σ2であれば、当該情報の要素については第1ポーズ情報の値をポーズ情報に含めて出力し、統計量がσ1≧σ2であれば、当該情報の要素については第2ポーズ情報の値をポーズ情報に含めて出力することとしてもよい。
 この例では、例えば右手のすべての指の開度については第2ポーズ情報の値が用いられても、手の向きについては第1ポーズ情報の値が用いられる、などといったことが生じ得る。
[カメラの位置]
 また、ここまでの説明において、第2ポーズ情報のもととなる画像データを撮影するカメラ21は表示デバイス20のユーザ前面側に配されるものとしたが、本実施の形態はこれに限られず、表示デバイス20の頭頂部や側頭部などに配されてもよい。さらに、このカメラは表示デバイス20とともに移動する必要は必ずしもなく、ユーザが所在する部屋に配置されたカメラであってもよい。またカメラは一つだけでなく、複数あってもよい。
 さらに、カメラは光学的なカメラでなくても、赤外線を投影してその濃淡の像を得るような、いわゆるデプスカメラ(被写体までの距離情報を取得するカメラ)であってもよい。
[操作デバイスの他の例]
 また操作デバイス10は、ユーザが指を開いても落下することなく、ユーザの指の開度を測定できるものであれば、ここまでに例示したものでなくてもよい。例えば、ユーザが手に装着し、各指の開度(関節の曲げ角度)を歪みゲージ等で計測するグローブであってもよい。
[表示態様の変更]
 本実施の形態では、さらに、制御装置30がユーザの手のポーズ情報に基づいて、生成して表示デバイス20に出力する画像データに含める仮想的なキャラクタの手の形状を変更するだけでなく、その画像データにおけるオブジェクトの表示態様を異ならせてもよい。例えば、制御装置30は、各指の開度の情報を、第1ポーズ情報と第2ポーズ情報とのいずれかから選択している場合、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指とで、異なる態様で指の描画を行ってもよい。具体的には、制御装置30は、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指については、背景に半透明合成(アルファブレンディング)し、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指については背景を透過させないで描画するようにしてもよい。また半透明合成するか否かではなく、輪郭線の色を異ならせるなど、他の方法で表示態様を異ならせてもよい。
[処理への反映]
 また本実施の形態の制御装置30は、各指の開度の情報を、第1ポーズ情報と第2ポーズ情報とのいずれかから選択している場合、第1ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、第2ポーズ情報から選択した情報に基づいて仮想空間内の位置を決定して描画している指と、仮想空間内のオブジェクトとの接触判定(いわゆるコリジョン判定)の方法を異ならせてもよい。
 すなわち、本実施の形態のある例では、制御装置30は、比較的精度の低い判定結果に基づいて仮想空間内の位置が決定されている指(上述の例では第1ポーズ情報により位置が決定されている指)については、オブジェクトの形状に関わらず、その外接直方体に当該指が接触したときにオブジェクトと接触したと判断してもよい。
 また制御装置30は、比較的精度の高い判定結果に基づいて仮想空間内の位置が決定されている指(上述の例では第2ポーズ情報により位置が決定されている指)については、オブジェクトの外形表面に当該指が接触したときにオブジェクトと接触したと判断する。
 この例では、例えばユーザが視認していない(表示デバイス20のカメラ21の視野外にある)指についてのオブジェクトとの接触判定と、ユーザが視認している(表示デバイス20のカメラ21の視野内にある)指についてのオブジェクトとの接触判定とで判定方法を異ならせ、視認している指についての接触判定を比較的厳密に行うのに対し、視認していない指については簡易に判定を行うこととする。
[切り替わり]
 なお、本実施の形態の例では、第1ポーズ情報によってその仮想空間内での位置が判断されていた指が、カメラ21の視野範囲に移動することで、第2ポーズ情報によってその仮想空間内での位置が判断されるように切り替わることが考えられる。このとき、推定結果の差によって指が不自然に移動することを防止するため、制御装置30は、指や手の位置等の情報について、前回の位置の情報との差が予め定めたしきい値を超える場合は、急速な変化を防止するために、前回の位置と今回演算された位置との間で時間に応じて変化する重みにより重みづけ付け平均し、徐々に今回演算された位置に移動するように調整してもよい。このような調整処理方法は広く知られた方法を採用できる。
[手の位置等の検出]
 また、制御装置30は、操作デバイス10が検出する情報と、表示デバイス20のカメラ21が撮像した画像データとの双方を用いて、ユーザの手の位置の情報を生成して出力してもよい。具体的に、操作デバイス10が重力方向に対するユーザの手の平の角度の情報を出力する場合、制御装置30は、この情報と、表示デバイス20のカメラ21が撮像した画像データから検出された手の位置の情報とに基づいて、ユーザの実空間内での手の位置の情報(実空間内に設定された所定座標系での手の重心位置の情報など)を生成して出力する。また制御装置30は、この手の重心位置の情報に対応する仮想空間内での位置の情報を生成して出力する。
 このように、本実施の形態では、指等、手のポーズに限らず、ユーザの姿勢や各関節の位置及び回転角度等の情報を、操作デバイス10が検出する情報と、表示デバイス20のカメラ21が撮像した画像データとの双方を用いて生成してもよい。
[状態の表示]
 また、本実施の形態では、制御装置30は、表示デバイス20のカメラ21にて撮像された画像データから、ユーザの指が検出できたか否かをユーザに通知してもよい。この通知は、表示デバイス20に対して表示することにより行ってもよいし、音声等で鳴動されてもよい。またユーザが触力覚提示デバイスを装着しているときには、制御装置30は、当該デバイスを用いて力覚を提示するなどして通知を行ってもよい。
 また制御装置30は、操作デバイス10から受信した、ユーザの指の動きに係る情報に基づいて生成した第1ポーズ情報と、表示デバイス20のカメラ21にて撮像された画像データを用いて生成した第2ポーズ情報とを比較して、それらがそれぞれ一致しているか否かを表す通知を行ってもよい。
 具体的に、第1ポーズ情報,第2ポーズ情報がそれぞれ各指の開度のように数値の情報である場合、数値を丸めて(例えば四捨五入して)から比較して一致しているか否かを判断してもよい。
 さらにここまでの説明では、制御装置30が、ユーザの指のポーズの情報を生成することとしていたが、指のポーズに代えて、互いに検出方法が異なる複数の種類の検出手段を用いてそれぞれ検出した足の状態(足首の角度や足の指の方向等)や、身体の状態(姿勢等)の情報(検出情報)を用い、所定の条件で当該得られた複数の情報を組み合わせて、出力の対象とする足の状態を表す情報や身体の状態を表す情報を生成して出力してもよい。
 1 情報処理システム、10 操作デバイス、11 把持部、12 操作部、14 固定具、15 センサ部、16 ボタン操作部、17 センサ、18 ボタン、19 制御回路、20 表示デバイス、21 カメラ、30 制御装置、31 制御部、32 記憶部、33 操作受入部、34 表示制御部、51 手画像検出部、52 第1ポーズ情報生成部、53 第2ポーズ情報生成部、54 条件判定部、55 ポーズ情報出力部、56 画像データ生成処理部。
 

Claims (10)

  1.  ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れる受入手段と、
     前記受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、
     前記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、
     前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、
     を含む制御装置。
  2.  請求項1に記載の制御装置であって、
     前記ポーズ情報出力手段は、前記予め定めた条件に基づき、前記第1の検出装置により検出されたユーザの指の動きに係る情報と、前記第2の検出装置により検出されたユーザの手の形状に係る情報と、のいずれかを選択して、ユーザの手のポーズを表す情報を生成して出力する制御装置。
  3.  請求項1または2に記載の制御装置であって、
     ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置、及び、前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置とに接続され、
     前記受入手段は、前記第1の検出装置からユーザの指の動きに係る情報を受け入れるとともに、前記第2の検出装置からユーザの手の形状に係る情報を受け入れ、
     前記予め定めた条件は、前記第2の検出装置の視野範囲に、前記ユーザの指が含まれるか否かに基づく条件を含む条件である制御装置。
  4.  請求項1から3のいずれか一項に記載の制御装置であって、
     前記予め定めた条件は、前記ユーザの指の動きに係る情報と、前記ユーザの手の形状に係る情報との時間的変化に係る条件を含む条件である制御装置。
  5.  請求項1から4のいずれか一項に記載の制御装置であって、
     前記ユーザの手のポーズを表す情報は、
     ユーザの手の向きと、
     各指の開度と、
     親指の向きと、
     の少なくとも一つを含む情報である制御装置。
  6.  請求項1から5のいずれか一項に記載の制御装置であって、
     さらに、ユーザに提示する画像情報を生成する手段を含み、
     前記生成したユーザの手のポーズを表す情報に基づいて、当該生成する画像情報に含まれる画像の表示態様を異ならせる制御装置。
  7.  ユーザの手に装着され、ユーザの指の動きに係る情報を取得する第1の検出装置と、
     前記第1の検出装置とは異なる場所に配され、所定の視野内にあるユーザの手の形状を検出する第2の検出装置と、
     前記第1の検出装置、及び第2の検出装置に接続され、前記第1の検出装置により検出されたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成するとともに、前記第2の検出装置により検出されたユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成し、当該生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力する制御装置と、
     を含む情報処理システム。
  8.  請求項7に記載の情報処理システムであって、
     さらに、前記第1の検出装置は、重力方向に対するユーザの手の角度の情報を検出しており、
     前記制御装置は、前記第1の検出装置が検出した情報と、前記第2の検出装置が検出した情報とに基づいて、ユーザの手の位置の情報を生成して出力する情報処理システム。
  9.  コンピュータを用い、
     受入手段が、ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れる工程と、
     第1ポーズ情報生成手段が、前記受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する工程と、
     第2ポーズ情報生成手段が、前記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する工程と、
     ポーズ情報出力手段が、前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力する工程と、
    を含む制御装置の制御方法。
  10.  コンピュータを、
     ユーザの指の動きに係る情報と、ユーザの手の形状に係る情報とを受け入れる受入手段と、
     前記受け入れたユーザの指の動きに係る情報に基づいてユーザの手のポーズを表す第1のポーズ情報を生成する第1ポーズ情報生成手段と、
     前記受け入れた、ユーザの手の形状に係る情報に基づいてユーザの手のポーズを表す第2のポーズ情報を生成する第2ポーズ情報生成手段と、
     前記生成した第1のポーズ情報と、第2のポーズ情報とを、予め定めた条件に基づく基準に従って組み合わせて、ユーザの手のポーズを表す情報を生成して出力するポーズ情報出力手段と、
    として機能させるプログラム。

     
PCT/JP2017/016770 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム WO2018198272A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019514986A JP6716028B2 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム
PCT/JP2017/016770 WO2018198272A1 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム
CN201780089798.3A CN110520822B (zh) 2017-04-27 2017-04-27 控制装置、信息处理系统、控制方法和程序
EP17906974.5A EP3617845A4 (en) 2017-04-27 2017-04-27 CONTROL DEVICE, DATA PROCESSING SYSTEM, CONTROL PROCESS AND PROGRAM
US16/603,115 US11501552B2 (en) 2017-04-27 2017-04-27 Control apparatus, information processing system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/016770 WO2018198272A1 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2018198272A1 true WO2018198272A1 (ja) 2018-11-01

Family

ID=63918861

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/016770 WO2018198272A1 (ja) 2017-04-27 2017-04-27 制御装置、情報処理システム、制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US11501552B2 (ja)
EP (1) EP3617845A4 (ja)
JP (1) JP6716028B2 (ja)
CN (1) CN110520822B (ja)
WO (1) WO2018198272A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014445A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 検出装置及び検出方法
WO2022064827A1 (ja) * 2020-09-25 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210069491A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN111649739B (zh) * 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2013242652A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置、電子機器およびプログラム
WO2015015843A1 (ja) * 2013-08-02 2015-02-05 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195140A (ja) 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US6704694B1 (en) 1998-10-16 2004-03-09 Massachusetts Institute Of Technology Ray based interaction system
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
US7092785B2 (en) 2002-03-12 2006-08-15 Gunilla Alsio Data input device
JP2003337963A (ja) 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
KR100634494B1 (ko) 2002-08-19 2006-10-16 삼성전기주식회사 착용가능한 정보 입력 장치, 정보 처리 장치 및 정보 입력방법
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
JP2005292883A (ja) 2004-03-31 2005-10-20 Pioneer Electronic Corp 情報入力装置
US7728316B2 (en) 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
EP2041640B1 (en) 2006-07-16 2012-01-25 I. Cherradi Free fingers typing technology
JP2010064155A (ja) * 2008-09-08 2010-03-25 Toyota Motor Corp 把持装置
US8754746B2 (en) 2009-11-16 2014-06-17 Broadcom Corporation Hand-held gaming device that identifies user based upon input from touch sensitive panel
JP5364035B2 (ja) 2010-05-11 2013-12-11 日本放送協会 仮想力覚提示装置及び仮想力覚提示プログラム
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
CA2814869A1 (en) 2010-10-22 2012-04-26 Joshua Michael Young Methods devices and systems for creating control signals
JP5641970B2 (ja) 2011-02-18 2014-12-17 シャープ株式会社 操作装置、再生装置及びテレビ受信装置
KR101800182B1 (ko) * 2011-03-16 2017-11-23 삼성전자주식회사 가상 객체 제어 장치 및 방법
US20120249417A1 (en) 2011-03-29 2012-10-04 Korea University Research And Business Foundation Input apparatus
US8719098B2 (en) * 2011-05-13 2014-05-06 Toshiba Global Commerce Solutions Holdings Corporation Real-time product delivery during customer-driven point of sale retail transactions
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
EP2613223A1 (en) * 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
CN104936661B (zh) 2012-11-07 2017-05-31 卡拉汉创新有限公司 一种用于锻炼用户的手臂的手臂康复装置和系统
KR20140127171A (ko) 2013-04-22 2014-11-03 임머숀 코퍼레이션 햅틱-인에이블링된 트리거를 갖는 게이밍 디바이스
US20150042580A1 (en) * 2013-08-08 2015-02-12 Lg Electronics Inc. Mobile terminal and a method of controlling the mobile terminal
US9649558B2 (en) 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
JP6303825B2 (ja) 2014-05-30 2018-04-04 富士通株式会社 入力装置
JP6418820B2 (ja) 2014-07-07 2018-11-07 キヤノン株式会社 情報処理装置、表示制御方法、及びコンピュータプログラム
US10019059B2 (en) 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
WO2016038953A1 (ja) 2014-09-10 2016-03-17 ソニー株式会社 検出装置、検出方法、制御装置、および制御方法
US10274992B2 (en) 2014-11-12 2019-04-30 Kyocera Corporation Wearable device with muscle activity detector
CN107407961A (zh) 2015-01-19 2017-11-28 寇夫音乐有限公司 计算机的手持式控制器、计算机的控制系统和计算机系统
WO2016140924A1 (en) 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
JP2017075465A (ja) 2015-10-14 2017-04-20 オムロンオートモーティブエレクトロニクス株式会社 携帯型電子機器
US10509469B2 (en) 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
US10391400B1 (en) 2016-10-11 2019-08-27 Valve Corporation Electronic controller with hand retainer and finger motion sensing
US20180161670A1 (en) 2016-12-12 2018-06-14 Evgeny Boev Single-Handed Input Controller and Method
WO2018175419A1 (en) 2017-03-20 2018-09-27 Tactual Labs Co. Sensing controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP2013242652A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置、電子機器およびプログラム
WO2015015843A1 (ja) * 2013-08-02 2015-02-05 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3617845A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014445A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 検出装置及び検出方法
WO2022064827A1 (ja) * 2020-09-25 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CN110520822B (zh) 2023-06-27
CN110520822A (zh) 2019-11-29
US20210117663A1 (en) 2021-04-22
JP6716028B2 (ja) 2020-07-01
US11501552B2 (en) 2022-11-15
JPWO2018198272A1 (ja) 2019-11-07
EP3617845A1 (en) 2020-03-04
EP3617845A4 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
CN109690447B (zh) 信息处理方法、用于使计算机执行该信息处理方法的程序、以及计算机
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
WO2018198272A1 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
JP6340301B2 (ja) ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
US11027195B2 (en) Information processing apparatus, information processing method, and program
JP2004078977A (ja) インターフェイス装置
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
WO2018079382A1 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP2016206617A (ja) 表示システム
JP6157703B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
TW202119175A (zh) 人機交互系統和人機交互方法
JP6661783B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP6687749B2 (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
JP2018110871A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
WO2022044581A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023181549A1 (ja) 制御装置、制御方法、プログラム
JP6290493B2 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP7413122B2 (ja) 画像生成システム、画像生成装置及び画像生成方法
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US20240103629A1 (en) Control device and control method
JP7476505B2 (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
KR20170135377A (ko) 가상현실 정보 처리 장치
JP2023143634A (ja) 制御装置、制御方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17906974

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019514986

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017906974

Country of ref document: EP

Effective date: 20191127