WO2004055726A1 - インタフェース装置 - Google Patents

インタフェース装置 Download PDF

Info

Publication number
WO2004055726A1
WO2004055726A1 PCT/JP2003/016171 JP0316171W WO2004055726A1 WO 2004055726 A1 WO2004055726 A1 WO 2004055726A1 JP 0316171 W JP0316171 W JP 0316171W WO 2004055726 A1 WO2004055726 A1 WO 2004055726A1
Authority
WO
WIPO (PCT)
Prior art keywords
arm
pointing
interface device
image
gravity
Prior art date
Application number
PCT/JP2003/016171
Other languages
English (en)
French (fr)
Inventor
Ikushi Yoda
Katsuhiko Sakaue
Original Assignee
National Institute Of Advanced Industrial Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Advanced Industrial Science And Technology filed Critical National Institute Of Advanced Industrial Science And Technology
Priority to US10/540,127 priority Critical patent/US7821531B2/en
Priority to AU2003289395A priority patent/AU2003289395A1/en
Publication of WO2004055726A1 publication Critical patent/WO2004055726A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Definitions

  • the present invention relates to an interface device, and more particularly to an interface device in a room space by gesture, which has a function of determining a pointing operation by pointing a user's arm and having a corresponding function.
  • the user 84 has been positioned in front of the display 82 with the cameras 81-1 and 81-2 as shown in Fig. 28, and the mouse 84 has been moved by pointing at the user 84.
  • the recognition target area 83 is a specific space in front of the display 82, and can be used only in a very small place, and there is a problem that only one person can use it at a time.
  • the hand sign recognition system shown in Fig. 29 can also be used as an interface device by acquiring and recognizing images of only the hands of the user 94 in a fixed environment in front of the camera 91. It has similar problems because it is used.
  • 92 is a display
  • 93 is a recognition target area.
  • Patent Document 1 Japanese Patent Application Laid-Open No. Hei 11-31 2 7 753, No. 5-10 page 1 FIG.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2000-216 No. 4 page 5-5 Fig. 1
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2000-205 2 pp. 4-7 Page 1 Fig. 1
  • the conventional device has a problem that the interface device operates only in a specific narrow fixed environment.
  • the present invention provides a method for pointing a plurality of users' arms in an indoor space. Realization of non-contact, non-constrained pointing motion, and easy operation of indoor equipment in the indoor space by pointing the arm in all general postures such as standing, sitting, and lying down, and pointing with the arm It is an object of the present invention to provide an in-face device that can be used in a computer.
  • the present invention in order to achieve the above object,
  • image processing means for capturing an image of the room with a plurality of stereo cameras in an indoor space, and generating a captured image in a field of view and a distance image based on a coordinate system of the room for each stereo camera.
  • a position / posture / arm pointing recognizing means for extracting the user's position / posture and arm pointing; and when the user's arm pointing is identified, the arm points.
  • Instruction operation recognizing means for recognizing whether or not the operation is an instruction operation based on the direction and movement of the instruction operation.
  • the position / posture / arm pointing recognizing means extracts the distance data from the collected three-dimensional information along an indoor space coordinate system.
  • a position and orientation recognition unit that performs a process of recognizing the postures of a plurality of users by projecting the data on a two-dimensional plane and extracting the direction of the arm pointing from the obtained two-dimensional projections of the plurality of users.
  • an arm pointing recognition unit for identifying.
  • the instruction operation recognizing means is an instruction for recognizing the instruction operation from the obtained time-series data in the direction of the arm pointing.
  • An operation device having an operation recognition unit, and further stores an operation device database that stores information and operation methods of the operation target device that is a target of the arm pointing operation, and an operation device that stores basic information, a position, and an operation method of the operation target device. And a registration unit.
  • the position / posture / arm pointing recognizing means for extracting the arm pointing outputs three-dimensional distance information obtained from each stereo camera based on an indoor coordinate system.
  • the point sequence in each drawer is projected onto a two-dimensional plane by the drawer method, and then binary
  • labeling is performed for each layer unit, the overall center of gravity of each class is determined, and the center of gravity determined on the two-dimensional plane is re-layered in the labeled target unit.
  • the arm pointing motion was determined to have been performed, and an image moment having a rectangular shape equivalent to a binary image up to eight layers from the top was obtained.
  • the arm direction is defined as the vertical direction of the long side of the layer where the area is within a certain range and the difference between the long side and the short side of the image moment is the largest among the eight sets of data obtained.
  • plate weight from the overall center of gravity A vertical bisector is drawn between the center of gravity of the binary image of the hierarchy separated from the heart and the entire center of gravity, the binary image in the area corresponding to the human body is erased, and only the arms are left.
  • Calculate the image moment for the binary image of only the arm part determine the direction of the arm pointing on the XY plane by calculating the long side, the center of gravity, the position of the tip of the arm, and the total center of gravity, and determine the height, eye
  • the direction of the arm pointing is determined from the height of the arm and the arm length coefficient to determine the direction of the arm pointing, and the pointing motion is recognized.
  • the lower limit of the arm pointing determination is set based on the head height and the height corresponding to the sitting height, and in the case of the pseudo arm pointing below the lower limit, It is characterized in that it is determined that it is not an arm pointing.
  • the specific area is a head side of a nursing bed, and if a user is in the specific area, the specific area is specified. It is characterized by performing arm pointing identification for an area.
  • the specific area is a head side of a nursing bed, and when there is no user in the specific area, the user stands and sits.
  • it is characterized by judging whether or not the subject is lying down, and identifying the arm pointing in each posture.
  • the position of each user in the room is specified while identifying the posture of each user in the room based on distance information from the camera.
  • a command to operate the indoor device is transmitted by performing a pointing operation (arm pointing) to directly point a previously registered indoor device with the arm.
  • the present invention provides a means for registering indoor equipment operated by a pointing operation (arm pointing) and the contents of the operation.
  • a means for registering the command corresponding to the indoor device is provided.
  • accurately detecting an arm pointing it is possible to accurately determine an arm pointing by reliably excluding a behavior that looks like an arm pointing (pseudo arm pointing) from the arm pointing.
  • FIG. 1 is a diagram showing a system configuration of an embodiment of the present invention.
  • FIG. 2 is a diagram showing a system configuration of an embodiment of the present invention.
  • FIG. 3 is a block diagram of the integrated information recognition apparatus shown in FIGS. 1 and 2.
  • FIG. 4 is a flowchart for explaining the operation of one embodiment of the present invention.
  • FIG. 5 is an explanatory view of a step-drawing method used in the present invention.
  • FIG. 6 is an explanatory diagram (part 1) of a posture recognition processing method used in the present invention.
  • FIG. 7 is an explanatory diagram (part 2) of the posture recognition processing method used in the present invention.
  • FIG. 8 is an explanatory diagram (part 3) of the posture recognition processing method used in the present invention.
  • FIG. 9 is an explanatory view (part 4) of the posture recognition processing method used in the present invention.
  • FIG. 10 is an explanatory diagram (arm pointing diagram (part 1)) for explaining the operation of one embodiment of the present invention.
  • FIG. 11 is an explanatory diagram (arm pointing diagram (2)) for explaining the operation of one embodiment of the present invention.
  • FIG. 12 is an explanatory diagram (when the leg is thrown out) for explaining the operation of the embodiment of the present invention.
  • FIG. 13 is an explanatory diagram (in the case of a small arm pointing (part 1)) for explaining the operation of one embodiment of the present invention.
  • FIG. 14 is an explanatory diagram (in the case of a small arm pointing (part 2)) for explaining the operation of one embodiment of the present invention.
  • FIG. 15 is an explanatory diagram for explaining the operation of one embodiment of the present invention [when both arms are spread (No. 1)].
  • FIG. 16 is an explanatory diagram for explaining the operation of one embodiment of the present invention [when both arms are extended (part 2)].
  • FIG. 17 is an explanatory diagram (such as a handshake) for explaining the operation of one embodiment of the present invention. If the hand is on the side).
  • FIG. 18 is a flowchart for explaining the distinction between the operations of the embodiment of the present invention.
  • FIG. 19 is a flowchart detailing a part of the operation of the arm pointing recognition unit in the prone position in FIG.
  • FIG. 20 is a flowchart illustrating a part of the operation of the arm pointing recognition unit in a specific area according to the present invention.
  • Fig. 21 is an image of the bottom of the bed for calculating the rising angle of the bed.
  • FIG. 22 is a flowchart for explaining registration of the operating device data base in the present invention.
  • FIG. 23 is an explanatory diagram for explaining three basic modes of the instruction operation in the present invention.
  • FIG. 24 is a flowchart for explaining the cross operation in the present invention.
  • FIG. 25 is a flowchart for explaining the panel push operation in the present invention.
  • FIG. 26 is a flowchart for explaining the panel gesture operation in the present invention.
  • FIG. 27 is an explanatory diagram for explaining the operation of one embodiment of the present invention.
  • FIG. 28 is a diagram showing a conventional technique.
  • FIG. 29 is a diagram showing a conventional technique.
  • FIGS. 1 and 2 are diagrams showing a system configuration according to an embodiment of the present invention
  • FIG. 3 is a block diagram of the information integrated recognition device shown in FIGS. 1 and 2.
  • a plurality of stereo cameras 1-1 to 1-n photograph the indoor space 5 so that there is no blind spot, and users 4-1, 4-2,..., 4-n walk through the indoor space 5. Move freely.
  • Each stereo camera 1 has two or more cameras with a flat image sensor.
  • the imaging outputs of the stereo cameras 1-1 to 11-II, which are fixed to the rows, are given to the image processing device 2.
  • the stereo camera 1 itself is already known, for example, a digital camera manufactured by Point Gray or an arcadea manufactured by Sanov Institute is used.
  • the image processing apparatus 2 processes about 10 to 30 images per second using the video from each stereo camera 1 as an input, and gives the result of the distance image and the color image obtained therefrom to the information integrated recognition apparatus 3 .
  • Reference numeral 6 denotes a device to be operated. Here, an air conditioner 6-A and a television 6-B are shown. 8 is a display device.
  • Fig. 1 shows an example in which the entire indoor space is covered as a recognition target area (operable space) 5, but in Fig. 2, only one of the stereo cameras 1 is turned downward to simplify the explanation. It was installed, and only the indoor space below it was shown as the recognition target area (operable space) 5.
  • the operable space 5 of FIG. 2 only one user 4 is shown as an object, but all the basic mechanisms are the same as those shown in FIG.
  • the information integrated recognition device 3 includes a position and orientation recognition unit 31, an arm pointing recognition unit 32, an instruction operation recognition unit 33, an operation device data base 34, and an operation device registration unit. 3 and 5 are included.
  • the position and orientation recognition unit 31 converts the distance data from the three-dimensional information collected by the image processing device 2 along the indoor space coordinate system (X, ⁇ , and Z axes in FIGS. 1 and 2).
  • the data is extracted by the step extraction method shown in Fig. 5 and the data is projected onto a two-dimensional plane to perform posture recognition processing for multiple users.
  • the arm pointing recognition unit 32 identifies the direction of the arm pointing from the obtained two-dimensional projections of the plurality of users.
  • the pointing action recognition unit 33 recognizes the pointing action from the time series data in the direction of the obtained arm pointing.
  • the operating device data base 34 stores information and operating methods of the operating device 6 that is the target of the arm pointing operation.
  • the operating device registration section 35 stores the basic information, position, and operation method of the operation target device 6.
  • the operation command transmitting / receiving device 9 transmits an operation command to the operation target device 6 determined by the information integration recognition device 3, and the operation command transmission / reception device 9 transmits the operation command to the operation target device 6. Receive and operate the operation target device 6. At the same time, the operation command transmitting / receiving device 9 receives necessary information from the operation target device 6. ⁇ ⁇ ⁇ ⁇ Reception method of operation command
  • a method of communication using weak radio waves without directivity such as Bluetooth (Blue Toot) and ECHONET, is used.
  • FIGS. 1 and 2 show an embodiment of this interface device in a room, but the present invention is not limited to this embodiment.For example, by replacing an indoor space with a factory or a public space, etc. The present invention can be applied to any scene using the instruction operation.
  • FIG. 4 is a flowchart for explaining the operation of one embodiment of the present invention, and is a partially detailed diagram of FIG.
  • All users 4-1 to 4-n entering and exiting the indoor space 5 in FIG. 1 are photographed by the stereo cameras 1-1 to 1-n, and the photographed output is given to the image processing device 2. That is, a person who enters and exits the indoor space 5 is photographed in accordance with the flow shown in FIG.
  • the image processing device 2 generates distance information based on the color image in the field of view and the indoor coordinate system for each camera, and provides the information to the information integrated recognition device 3.
  • the common coordinate system X, Y, ⁇ (Figs. 1 and 2) between the stereo cameras 1-1 to 1-n is set in advance.
  • the three-dimensional distance information of the indoor space 5 is obtained by each of the stereo cameras 1-1 to 1- ⁇ (step S41).
  • step S41 the three-dimensional distance information ( ⁇ , ⁇ ⁇ ⁇ , ⁇ ) obtained by the respective stereo cameras 11 1 to 11 ⁇ is not treated as a whole but based on the indoor coordinate system. As shown in the figure, a 3D distance point sequence is cut out hierarchically every 20 cm and used. In order to eliminate the information that is lost at the boundary surface, the extraction is performed again with a shift of 10 cm, and a sequence of three-dimensional distances is continuously extracted without losing information (step S42).
  • Step 43 the overall center of gravity of each class evening ( ⁇ in T ot a 1 in FIG. 6) is obtained.
  • Step S the center of gravity obtained on the two-dimensional plane is again hierarchically stacked in labeled anti-tilt units and used as a three-dimensional point sequence.
  • the center of gravity of each layer is plotted along the Z-axis (height direction), and from the top (head) to eight layers (equivalent to the upper body) is plotted. Plotting is performed on the XY plane, and when there is a large outlier, it is assumed that the arm pointing motion has occurred.
  • the image models of the binary image from the top to the eight layers (only six layers are shown in Fig. 8 (b)) —Calculate the ment.
  • the image moment refers to a rectangle equivalent to a binary image as shown in Fig. 9.
  • the center of gravity (xg, yg :) inclination, long side L1, short side L2 of the rectangle is obtained. Is required.
  • the vertical direction of the long side L1 of the hierarchy in which the area is within a certain range and the difference between the long side L1 and the short side L2 is the largest among the eight sets of data obtained is set as the body direction ( Step S45).
  • the direction of the arm pointing is determined using the binary image [Fig. 8 (c)] of the layer where the plate center of gravity is farthest from the overall center of gravity. decide. More specifically, as described later, it is equivalent to the total body weight and arm pointing A vertical bisector is drawn between the center of gravity of the hierarchy and the binary image in the area corresponding to the human body is erased [Fig. 8 (d)], leaving only the image of the arm. Then, the image moment is calculated for the binary image of only the arm portion, and the long side L 1, the short side L 2, the center of gravity (xc, yc) s slope 6> are calculated, and the calculation is performed on the XY plane. Determine the orientation.
  • the Z direction which indicates the height direction, is the projection of the arm angle obtained from the three-dimensional distance information onto the horizontal plane, and does not include the vertical direction information. Therefore, the vertical angle ⁇ of the arm is obtained from the height h, the eye height] leye, the arm height harm, and the arm length coefficient 1 using Equation (2).
  • the base point in the direction is not the height of the base of the shoulder but the eye height heye. As shown in Fig. 10, this is because, as a result of actual observation, when a person points an arm toward something, instead of pointing at the object in the direction of the arm itself 104, the eye and the fingertip Pointing in the direction of the line connecting was more often observed.
  • the eye height heye 102 was obtained by subtracting 10 cm from the obtained head height (height h) 103.
  • An arm length coefficient of 1 was used, which is an average of 0.4 for Japanese adults.
  • 101 indicates the height of the shoulder
  • 105 indicates the direction of the arm pointing.
  • the arm pointing horizontal direction is also obtained based on the positional relationship between the eye position and the arm tip.
  • the average human center of gravity 1 1 1 1 position (xg, yg) is g
  • the arm center of gravity 1 12 position (xc, yc) is 0,
  • the arm tip 1 13 position (xp, yp) ) To p, arm horizontal direction 115 to ah, and image moment (arm body) 114 obtained in Fig. 8 (d) to L1.
  • the arm pointing horizontal direction h 1 15 is obtained based on the equation (3).
  • 1 16 indicates the direction of the arm pointing.
  • the three-dimensional direction of the arm pointing is determined, and the pointing motion is recognized (step S47).
  • the method of determining the direction of the arm pointing we do not prepare separate models for the left and right arms, but use an algorithm that can be used in common.
  • arm pointing recognition it is more important to suppress erroneous recognition of arm pointing (pseudo arm pointing) when the user does not intend the arm pointing than to accurately recognize the intended arm pointing.
  • This section describes how to deal with the situation where it is easy for the user to determine that the system is pointing with the arm, even though the user does not intend to point with the arm (pseudo arm pointing).
  • Figure 12 is a schematic diagram when the legs are thrown out, 1 2 1 is a chair, 1 2 2 is a leg thrown forward, 1 2 3 is the lower limit of arm pointing recognition, 1 24 is the height of the head, 1 25 indicates the sitting height.
  • the system detects arm pointing. To prevent this, the restraint by the human body shape is used. It is clear that the arm when pointing the arm is higher than the waist, regardless of whether it is standing or sitting. Therefore, the lower limit hmin 1 2 3 of the arm pointing determination is obtained from the height hsit corresponding to the head height hhead 1 2 4 and the sitting height 125 by the following formula (4), and the detection of the arm pointing at a lower height is performed. ignore.
  • FIG. 13 is a schematic diagram in the case of pointing a small arm
  • FIG. 13 (a) is a top view thereof
  • FIG. 13 (b) is a front view thereof.
  • 1 3 1 indicates a small arm
  • 1 3 2 indicates an image moment
  • 133 indicates a long side Ll of the image moment 1 32
  • 1 34 indicates a lower limit of the long side 1.
  • a small arm pointing 131 as shown in FIG. 13, if the ratio between the long side L 1 of the image moment 132 and the height does not reach a certain value, it is determined that the finger is not an arm pointing. Also, as shown in Fig.
  • FIG. 15 is a schematic diagram (part 1) when both arms are spread, FIG. 15 (a) is a perspective view thereof, and FIG. 15 (b) is a top view thereof.
  • 151 indicates an extended arm and 152 indicates an image moment when both arms are extended.
  • the area S is calculated from the following equation (5) from the long side L1 and short side L2 of the image moment 152 of the part where both arms are extended.
  • An upper limit is set, and a lower limit is set for the long side L1. If the area S exceeds the upper limit, or if the long side L1 falls below the lower limit, it is ignored as not pointing to the arm.
  • Fig. 16 is a schematic diagram (part 2) when both arms are spread, where 16 1 is the average center of gravity, 162 is the arm pointing end, 163 is the arm pointing tip, and 164 is the image moment. .
  • the ratio of the distance r 3 from the arm pointing tip 163 to the average center of gravity 16 1 and the distance r 4 from the arm pointing end 162 to the average center of gravity 16 1 is: In the case of a pseudo arm pointing that is equal to or greater than the set value, it is judged that it is not an arm pointing like a small arm pointing.
  • Fig. 17 is a schematic diagram when the opponent is on the side such as a handshake
  • Fig. 17 (a) is its top view
  • Fig. 17 (b) is its perspective view
  • 171 is the handshake opponent.
  • 172 is the arm pointing direction
  • 1 ⁇ ⁇ 3 is the tip of the arm pointing
  • 1 14 is the average center of gravity of the handshake partner.
  • a preparatory operation is set before operation in order to avoid erroneous operation not intended by the user.
  • the trigger operation is an operation of extending the arm to the operation target for a certain period of time. After the operation target is determined by this operation, the operation target is controlled using the following arm pointing gesture.
  • the accuracy is improved by determining the direction of the arm pointing using the time during the trigger operation.
  • accuracy loss will occur. Therefore, taking this into consideration, no judgment is made during a few frames from the detection of the arm pointing.
  • the target of the arm is determined from the center of gravity of the arm and the direction of the arm for each frame. Those that conform to the above and have reached the set threshold value s are set as operation targets. This threshold s is the time to acknowledge as a trigger! 1. From the arm pointing transition time T trans, the system frame rate f, and the actual system turnaround time T tat, it is obtained by the following equation (6).
  • the arm pointing recognition for the specific area is performed, and the specific device is specified.
  • the headside at the position of the nursing bed can be specified as a specific area, and the operation there can be distinguished from the operation in other areas in the room.
  • FIG. 18 is a flowchart for explaining the distinction between such operations.
  • a specific area in the indoor space 5 is registered in advance (step S91).
  • step S92 the procedure shown in FIGS. 5 to 8, when the user 4 is within the previously specified area from the series of time-series information of the re-three-dimensionalized user 4 (YES in step S92).
  • step S97 the arm pointing for the specific area is recognized in step S97. If you are outside the specific area ( ⁇ ⁇ ⁇ in step S92) If the value is 0, the information in the height direction of the slice is determined (determined), and it is checked whether the user 4 is standing or sitting (step S93).
  • step S93 If the user is standing or sitting (YES in step S93), general arm pointing recognition of standing and sitting is performed in step S96. If it is neither a standing position nor a sitting position (NO in step S93), it is determined in step S94 whether or not the subject is lying down. If it is determined in step S94 from the series of range images that the object is a prone (YES in step S94), in step S95, recognition of the arm pointing to the prone is performed. Steps S95 to S97 here correspond to the arm pointing recognition unit 32. If the posture is outside the specific area and the posture is not determined to be standing, sitting, or prone (NO in step S94), the process returns to step S93 and continues posture recognition.
  • FIG. 19 is a flowchart showing in detail a part of the operation of the arm pointing recognition unit 32 in the prone position.
  • step S101 when the posture of the user 4 becomes prone, the head position information is acquired from the time-series information of the position of the head. Then, using the head position information as a reference point, in step S102, a plate in a range where the hand can be reached is cut out, and the center of gravity of each plate is obtained. Then, in step S103, the distance between the reference point and the center of gravity of each plate is measured, and the farthest point from the reference point is assumed to be the hand position. In step S104, the position of the arm is calculated from the position of the hand and the height of the plate. If the distance from the reference point to the position of the hand is long, it is determined that there is an arm pointing. Judgment) Yes (step S105). Thereafter, in step S105, the instruction operation recognition is performed only when the arm is pointed (YES) (step S106).
  • FIG. 20 is a flowchart detailing a part of the operation of the arm pointing recognition unit 32 in the specific area.
  • the target here is a nursing bed (reclining bed).
  • reclining bed When sitting or lying down on a bed in a general posture, arm pointing recognition is not affected by the use of the reclining function. enable.
  • the bed position in the indoor space 5 and the size, height, and polygonal line position of the bed in advance in step S111 should be set to the operating device data. Registered in 3-4.
  • step S1102 the bottom of the bead From the slice images of, calculate the elevation angle of the bed.
  • the bed elevation angle can be determined from the size of the bed and its working part (the part that appears whitish in the picture) by looking at the bottom image of the bed, as shown in Fig. 21. Can be done.
  • step S1103 judgment is made based on the rising angle obtained in step S1102. If the angle is small, recognition of the arm pointing of the prone position is performed in step S110. After performing in step 4, the instruction operation recognition in step S111 is performed. If the rising angle is large, the arm pointing recognition specific to the care bed is continued. First, in step S111, the temporary center of gravity of the user 4 is acquired from the entire distance image on the bed surface excluding the backrest portion. Next, in step S1106, if the provisional center of gravity of the user 4 is located on the head side from the bed bending position as shown in FIG. S 1 107) is determined.
  • step S1108 when the provisional center of gravity is close to the leg side, it is determined that the pad is away from the backrest of the bed (step S1108), and in step S111, it is determined that the person is sitting normally. In the same way as in the case of the above, recognition of arm pointing in standing and sitting positions is performed.
  • step S1109 When leaning against the backrest (step S1107), in step S1109, a certain area excluding the backrest around the temporary center of gravity of the user 4 is cut out, and each plate unit is cut out. The center of gravity at and their average center of gravity. Then, in step S111, the plate in which the distance between each plate center of gravity and the average center of gravity is the longest is determined. If the distance between the average center of gravity and the farthest point is large in step S111, it is determined that arm pointing is being performed, and in step S111, the arm pointing from the plate is determined. Specify the three-dimensional direction. In step S111, if the distance between the average center of gravity and the farthest point is small, it is determined that pointing is not performed, and the process returns to step S111 to point the arm on the nursing bed. Continue the judgment.
  • Fig. 23 shows the three basic modes of instruction operation. If the state of pointing an arm can be accurately grasped by position / posture recognition and arm pointing recognition, if the pointing operator 41 shown in Fig. 23 keeps pointing at the operation target device 6 for a certain period of time, In the evening, the device is operated by the operation target device 6 at the tip of the arm. After the evening gait, the pointing operation is a cross operation (Fig. 23 (a)), a panel touch operation (Fig. 23 (b);), Panel gesture operation (Fig. 23 (c)) is provided.
  • FIG. 24 shows a flowchart of the cross operation.
  • step S151 of FIG. 24 the three-dimensional direction of the arm at the time when the pointing operator 41 performs the get-rock in the evening is acquired, and this is set as the origin of the cross operation.
  • step S152 determines (determining) in step S152 whether the arm pointing operation is continued even after the target lock, if the arm pointing is continued (YES)
  • the arm pointing is performed in step S153.
  • the three-dimensional direction is obtained, and it is determined (determined) in step S154 whether or not the direction of the arm pointing is within the range indicated by the cross. If the direction is within the range (YES), step S15 In 5, the command corresponding to the direction is transmitted continuously.
  • step S152 if there is no arm pointing for a certain period of time (NO), the arm pointing determination ends.
  • This cross motion is particularly suitable for simple operations such as switching the switch on and off, and changing the volume and channel.
  • FIG. 25 shows a flowchart of the panel operation.
  • the pointing operator 41 obtains the body direction (shoulder direction) after performing the evening gait stroke, and uses it as the base point for the panel sunset operation. I do.
  • a panel operation panel 4 2
  • the operation panel 42 after the evening get-lock is always set directly in front of the pointing operator 41.
  • the pointing operator 41 controls the operation target device 6 by setting a part of the operation panel 42 (in the example of FIG. 23, divided into nine places). I do.
  • step S162 it is determined (step S162) whether or not the arm pointing motion is continued after the evening get block. If the arm pointing is continued (YES), the shoulder height and the arm pointing motion are determined. The direction is obtained in step S166. Then, it is determined (step S16) in step S1664 whether there is an arm pointing within the range of the operation panel 42 set on the front of the body, and when it is within the range of the operation panel 42 (YES). Determines which panel is pointing, and sends a command corresponding to that location in step S165.
  • FIG. 26 shows a flowchart of the panel gesture operation.
  • step S1701 in FIG. 26 the direction of the body (the direction of the shoulder) after the pointer 41 has performed the evening gator stroke is acquired, and this is used as the base point of the panel gesture operation.
  • the panel gesture operation as in the case of the pointing operator 41 shown in FIG.
  • the operating panel 42 after the evening gate lock is always set directly in front of the pointing operator 41.
  • the operation target device 6 is determined by determining the arm pointing trajectory within the range of the operation panel 41 (in the example of FIG. 23, divided into nine points). Control. In other words, even for a locus like the same circle, operation commands can be created separately according to the passing order. These can all be set freely by the operating device registration unit 35.
  • step S1702 it is determined (determined) in step S1702 whether the arm pointing motion is continued after the evening game. If the pointing of the arm is continued (Y E S), the shoulder height and the three-dimensional direction of the pointing of the arm are acquired in step S1703. Then, it is judged (determined) in step S1704 whether the direction of the arm pointing is within the range of the operation panel 42 set in front of the body, and if the direction is within the range of the operation panel 42. If (YES), the panel pointed to by that arm judges (determines) in step S1755 whether or not the arm of the pointing operator 41 has already passed.
  • step S1702 when the arm pointing is not performed (NO), the arm pointing trajectory is initialized, and in step S1700, it is determined whether or not a certain period of time has elapsed without the arm pointing from the evening game. Is judged (judgment), and in the case of YES, the arm pointing judgment is ended.
  • This panel gesture operation can correspond to various operation commands by changing the order of the arm pointing locus.
  • FIG. 27 shows an embodiment in which complicated operations can be more easily performed by using the display device 8 shown in FIGS. 1 and 2.
  • FIG. 27 shows an embodiment of an instruction operation by a combination of a panel touch operation or a panel gesture operation and the display device 8.
  • the pointing operator 41 indicates an intention to point his / her arm to the operation target device 6.
  • the pointing operator 41 points his / her arm toward the operation target device 6, and the display device 8 exists in another direction.
  • the pointing operator 41 does not care about the operation target device 6 at all, and the operation panel 4 2 displayed on the display device 8 2 The user can actually control the operation target device 6 while watching the information. In this way, even when a command or a complicated operation that cannot be remembered is performed, the instruction operator 41 can easily control the operation target device 6 with the help of the display device 8.
  • the get lock is not performed in the evening from the beginning.
  • the operation target device 6 and the like are displayed on the display device 8 as a menu, and the pointing operator 41 controls all the devices from any position in the room toward the display device 8 only.
  • This method is a convenient interface especially for people who are less likely to move around, such as the physically handicapped, and who often face one direction at all times.
  • step S141 the type and individual information of the target operation target device 6 are first registered. Subsequently, in step S142, the position of the operation target device 6 is registered. Further, in step S143, an instruction operation and a command corresponding to the instruction operation are registered. Then, in step S144, as a more complicated case, a combination of the instruction operations, the presence / absence of use of the display device at the time of the instruction operation, and the like are registered, and a series of these operations is repeated as many times as necessary.
  • the operation command transmitting / receiving device 9 is used to communicate with information home appliances having BlueTooth, ECH0NET, and the like. In this operation, necessary information is mutually communicated between the operating device registration unit 35 and the operation command transmitting / receiving device 9 to obtain necessary information.
  • step S142 a lamp such as an LED is attached to the operating device, and it is turned on by a command via B1u etooth, E CHONE T, etc., so that it is within the field of view of the stereo camera 1. Can automatically obtain its three-dimensional position.
  • the specific area is the headside of the nursing bed, refer to the specific area and refer to the arm in all general postures, such as standing, sitting, and prone, and the arm.
  • the operation of the operation target device in the indoor space can be assisted by the pointing operation with the finger.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

 室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作の実現、ならびに立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の室内機器の操作を容易になし得るインタフェース装置を提供する。インタフェース装置において、室内空間5において複数のステレオカメラ1−1から1−nにより室内を撮像し、各ステレオカメラ単位で視野内の撮像画像と室内空間5の座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラ1−1~1−nからの距離情報に基づきユーザ4の体勢と腕指しを抽出する手段と、前記腕指しが識別された場合に、腕が指し示している方向、その動きから、意図して出されたサインであるかどうかを識別する手段とを具備する。

Description

明細書 インタフェース装置 技術分野
本発明は、 イン夕フェース装置に係り、 特に、 ユーザの腕指しによる指示動作 を判定して、 対応する機能を持つ、 身振りによる室内空間におけるインタフエ一 ス装置に関するものである。 背景技術
これまでに、 第 2 8図に示すようなカメラ 8 1— 1 , 8 1— 2付きのディスプ レイ 8 2の前にユーザ 8 4が位置し、 そのュ一ザ 8 4の指さし等によりマウスな どを操作するシステムは存在するが、それらは 2、 3台の少ないカメラ画像から、 そのユーザ 8 4の位置を測定し、 マウスなどを操作させている。
それゆえ、 認識対象領域 8 3はディスプレイ 8 2前の特定の空間程度であり、 非常に狭い場所でしか使えず、 かつ一度に 1人しか使えないといった問題点があ る。
さらに、 第 2 9図に示すようなハンドサインの認識システムも、 カメラ 9 1の 前の固定的な環境でユーザ 9 4の手のみの画像を取得して認識することで、 イン 夕フェース装置として使われているため、 同様の問題点を有する。 なお、 この図 において、 9 2はディスプレイ、 9 3は認識対象領域である。
【特許文献 1】 特開平 1 1一 3 2 7 7 5 3号公報 第 5— 1 0頁 第 1図 【特許文献 2】 特開 2 0 0 0— 2 1 6号公報 第 4— 5頁 第 1図 【特許文献 3】 特開 2 0 0 2— 2 5 1 2 3 5号公報 第 4— 7頁 第 1図 発明の開示
上述したように、 かかる従来の装置では、 特定の狭い固定的な環境のみでしか イン夕フヱ一ス装置が動作しないといった問題点がある。
本発明は、 上記状況に鑑みて、 室内空間における複数のユーザの腕指しによる 非接触非拘束の指示動作の実現、 ならびに立位、 座位、 伏位などの一般的な全て の姿勢での腕指しと、 その腕指しによる指示動作によつて室内空間の室内機器の 操作を容易になし得るィン夕フェース装置を提供することを目的としている。 本発明は、 上記目的を達成するために、
〔 1〕 イン夕フェース装置において、 室内空間において複数のステレオカメラ により該室内を撮像し、 前記各ステレオカメラ単位で視野内の撮像画像と室内の 座標系に基づいた距離画像を生成する画像処理手段と、 前記各ステレオカメラか らの距離情報に基づき、 ユーザの位置姿勢と腕指しを抽出する位置姿勢 ·腕指し 認識手段と、 前記ユーザの腕指しが識別された場合に、 該腕が指し示している方 向、 その動きから、 指示動作であるかどうかを認識する指示動作認識手段と、 を具備することを特徴とする。
〔2〕 上記 〔 1〕 記載のイン夕フヱ一ス装置において、 前記指示動作認識手段 の動作に基づき、 予め登録された室内機器を操作するコマンドを送出し、 その結 果を受信する操作コマンド送受信装置を具備することを特徴とする。
〔3〕 上記 〔1〕 又は 〔2〕 記載のインタフェース装置において、 前記位置姿 勢 ·腕指し認識手段は、 集められた 3次元情報から前記距離データを室内空間座 檫系に沿って、 段違い引き出し法により取り出し、 デ一夕を 2次元平面に投影す ることで複数のユーザの姿勢認識処理をする位置姿勢認識部と、 該得られた複数 のユーザの 2次元投影図から腕指しの方向を識別する腕指し認識部とを有するこ とを特徴とする。
〔4〕 上記 〔 1〕 又は 〔2〕 記載のインタフヱ一ス装置において、 前記指示動 作認識手段は、 前記得られた腕指しの方向の時系列デ一夕からその指示動作を認 識する指示動作認識部を有し、 更に、 腕指し操作の対象となる操作対象機器の情 報や操作方法を保存する操作機器データベースと、前記操作対象機器の基本情報、 位置、 操作方法を記憶する操作機器登録部とを具備することを特徴とする。
〔5〕 上記 〔 1〕 記載のインタフェース装置において、 前記腕指しを抽出する 位置姿勢'腕指し認識手段は、各ステレオカメラから得られた 3次元距離情報を、 室内座標系に基づいて、 2 0 c mごとに階層的に区切って情報を切り出す段違い 引き出し法により、 各引き出し内に入った点列を 2次元平面に投影した後、 二値 ィ匕して、 2次元の二値画像となし、 各階層単位でラベリングを行った後で各クラ ス夕の全体重心を求め、 2次元平面において求めた重心をラベリングされた対象 単位で再び階層的に積み上げて、 3次元点列として利用し、 Z軸に沿って各階層 ごとの重心をプロットして、 最上部 (頭部) より 8階層分 (上半身) までを X Y 平面上にプロットし、 全体重心と比較して大きな外れ値があった場合を腕指し動 作が行われたとするとともに、 最上部より 8階層分までの二値画像と等価の矩形 形状である画像モーメン卜を求めて得られた 8組のデ一夕のうち面積が一定の範 囲にあり、 かつ画像モーメントの長辺と短辺の差が最も大きい階層の長辺の垂直 方向を体の向きとし、 前記した腕指し動作が認識された場合、 最も全体重心から プレート重心が離れた階層の二値画像の重心と全体重心との間に垂直二等分線を ひき、 人の体に相当する領域にある二値画像を消し去り、 腕部分のみを残し、 そ の腕部分のみの二値画像に対して画像モーメントを計算し、 その長辺、 重心、 腕 先端位置、 全体重心を計算することで腕指しの X Y平面上での向きを決定し、 身 長、 目の高さ、 腕長係数から腕指しの Z方向の向きを決定して腕指しの方向を 求め、 指示動作を認識することを特徴とする。
〔6〕 上記 〔5〕 記載のイン夕フェース装置において、 頭の高さ及び座高に相 当する高さから腕指し判定の下限を設定して、 該下限より下にある疑似腕指しの 場合は、 腕指しではないと判定することを特徴とする。
〔7〕 上記 〔6〕 記載のイン夕フエ一ス装置において、 前記下限より下にある 疑似腕指しの場合が脚を投げ出した場合である。
〔8〕 上記 〔5〕 記載のインタフヱ一ス装置において、 前記画像モーメントの 長辺と身長との比が一定に達していない場合は、 腕指しでないと判定することを 特徴とする。
〔9〕 上記 〔5〕 記載のイン夕フェース装置において、 平均重心から腕指し先 端までの距離を I- 1、 前記平均重心から腕指し末端までの距離を r 2とすると、 r 1 / r 2が身長から設定された値以下である場合は、 腕指しでないと判定する ことを特徴とする。
〔1 0〕 上記 〔8〕 又は 〔9〕 記載のイン夕フェース装置において、 該当する 場合が、 小さい腕指しであることを特徴とする。 〔1 1〕 上記 〔5〕 記載のインタフェース装置において、 前記画像モーメント の長辺 L 1 、 短辺 L 2 より面積 Sを求め、 この面積 Sに上限を、 前記画像モ —メントの長辺 L 1 に下限を設定し、 この限度から外れる場合は、 腕指しでな いと判定することを特徴とする。
〔1 2〕 上記 〔5〕 記載のインタフェース装置において、 腕指し先端と平均重 心間距離と、 腕指し末端と平均重心間距離の比が設定値以上の場合は、 腕指しで ないと判定することを特徴とする。
〔1 3〕 上記 〔1 1〕 又は 〔1 2〕 記載のインタフヱース装置において、 前記 限度から外れる場合は、 両手を広げた場合であることを特徴とする。
〔1 4〕 上記 〔5〕 記載のイン夕フェース装置において、 ユーザの腕指し先端 を中心に、 所定の半径内に相手の平均重心を発見した場合は、 腕指しでないと判 定することを特徴とする。
〔 1 5〕 上記 〔 1〕 又は 〔2〕 記載のインタフェース装置において、 前記室内 空間のうち特定エリアを予め登録しておき、 その特定エリアにュ一ザがいる場合 にそのユーザの腕指しを識別することを特徴とする。
〔 1 6〕 上記 〔 1 5〕 記載のィン夕フヱ一ス装置において、 前記特定ェリァを 介護ベッドの頭部サイ ドとし、 その特定エリア内にュ一ザがいる場合は、 その特 定エリア用の腕指し識別を行うことを特徴とする。
〔1 7〕 上記 〔 1 6〕 記載のイン夕フェース装置において、 前記特定エリアを 介護ベッドの頭部サイ ドとし、 その特定エリア内にュ一ザがいない場合は、 ユー ザが立位、 座位又は伏位かどうか判定し、 それそれの姿勢での腕指しを識別する ことを特徴とする。
本発明によれば、 室内空間にいる各ユーザの姿勢をカメラからの距離情報によ つて識別しながら各ユーザの室内の位置を特定する。 また、 予め登録された室内 機器を直接腕で指し示す指示動作 (腕指し) を行うことで、 その室内機器を操作 するコマンドを送出する。
更に、 本発明では、 指示動作 (腕指し) によって操作する室内機器とその操作 内容を登録する手段を提供する。 及び、 同時に室内機器に対応したコマンドを登 録する手段を与える。 また、 腕指しを的確に検出するととともに、 一見、 腕指しのように見える挙動 (疑似腕指し) を腕指しから確実に除外して、 正確な腕指しの判定を行うことが できる。 図面の簡単な説明
第 1図は、 本発明の一実施形態のシステム構成を示す図である。
第 2図は、 本発明の一実施形態のシステム構成を示す図である。
第 3図は、 第 1図及び第 2図に示した倩報統合認識装置のプロック図である。 第 4図は、本発明の一実施形態の動作を説明するためのフローチャートである。 第 5図は、 本発明に用いられる段違い引き出し法の説明図である。
第 6図は、 本発明に用いられる姿勢認識処理方法の説明図 (その 1 ) である。 第 7図は、 本発明に用いられる姿勢認識処理方法の説明図 (その 2 ) である。 第 8図は、 本発明に用いられる姿勢認識処理方法の説明図 (その 3 ) である。 第 9図は、 本発明に用いられる姿勢認識処理方法の説明図 (その 4 ) である。 第 1 0図は、本発明の一実施形態の動作を説明するための説明図〔腕指し図(そ の 1 ) 〕 である。
第 1 1図は、本発明の一実施形態の動作を説明するための説明図〔腕指し図(そ の 2 ) 〕 である。
第 1 2図は、 本発明の一実施形態の動作を説明するための説明図 (脚を投げ出 した場合) である。
第 1 3図は、 本発明の一実施形態の動作を説明するための説明図 〔小さな腕指 し (その 1 ) の場合〕 である。
第 1 4図は、 本発明の一実施形態の動作を説明するための説明図 〔小さな腕指 し (その 2 ) の場合〕 である。
第 1 5図は、 本発明の一実施形態の動作を説明するための説明図 〔両腕を広げ た場合 (その 1 ) 〕 である。
第 1 6図は、 本発明の一実施形態の動作を説明するための説明図 〔両腕を広げ た場合 (その 2 ) 〕 である。
第 1 7図は、 本発明の一実施形態の動作を説明するための説明図 (握手など相 手が側にいた場合) である。
第 1 8図は、 本発明の一実施形態の動作の区別を説明するためのフローチヤ一 トである。
第 1 9図は、 第 1 8図における伏位での腕指し認識部の動作の一部を詳細化し たフローチャートである。
第 2 0図は、 本発明における特定エリアでの腕指し認識部の動作の一部を詳細 ィ匕したフローチヤートである。
第 2 1図は、 べッドの起き上げ角度を計算するためのべッドの底辺の画像であ る。
第 2 2図は、 本発明における操作機器デ一夕ベースの登録を説明するためのフ ローチヤ—トである。
第 2 3図は、 本発明における指示動作の 3つの基本様式を説明するための説明 図である。
第 2 4図は、本発明における十字操作を説明するためのフローチャートである。 第 2 5図は、 本発明におけるパネル夕ツチ操作を説明するためのフローチヤ一 トである。
第 2 6図は、 本発明におけるパネルジエスチヤ操作を説明するためのフローチ ャ一トである。
第 2 7図は、 本発明の一実施形態の動作を説明するための説明図である。
第 2 8図は、 従来の技術を示す図である。
第 2 9図は、 従来の技術を示す図である。
発明を実施するための最良の形態
以下、 本発明の実施の形態について詳細に説明する。
第 1図及び第 2図は本発明の一実施形態のシステム構成を示す図であり、 第 3 図は第 1図及び第 2図に示した情報統合認識装置のプロック図である。
第 1図において、 複数のステレオカメラ 1— 1から 1—nによって死角がない ように室内空間 5が撮影され、 ユーザ 4— 1 , 4— 2, …, 4— nは室内空間 5 の中を自由に移動する。 各ステレオカメラ 1は 2台以上のカメラの撮像素子が平 行に固定されていて、 ステレオカメラ 1— 1から 1一 IIの撮像出力は画像処理装 置 2に与えられる。 ステレオカメラ 1自体は既に公知のものであり、 たとえばポ イントグレイ社のデジク口ップスやサ一ノフ研究所のァケ一ディァのようなもの が用いられる。
画像処理装置 2は各ステレオカメラ 1からの映像を入力として毎秒 1 0枚〜 3 0枚程度の画像を処理し、 そこから得られた距離画像とカラー画像の結果を情報 統合認識装置 3に与える。 なお、 6は操作対象機器であり、 ここではエアコン 6 — Aやテレビジョン 6—Bが示されている。 8は表示装置である。
第 1図には室内空間を全て認識対象領域 (操作可能空間) 5としてカバーする 例を示しているが、 第 2図では説明を簡単にするために、 ステレオカメラ 1の 1 台のみを下向きに設置し、その下の室内空間のみを認識対象領域(操作可能空間) 5として示した。 この第 2図の操作可能空間 5では、 一人のュ一ザ 4のみが対象 として示されているが、 基本的な仕組みは全て第 1図に示されているものと同様 である。
第 3図に示すように、 情報統合認識装置 3は、 位置姿勢認識部 3 1、 腕指し認 識部 3 2、 指示動作認識部 3 3、 操作機器デ一夕ベース 3 4、 操作機器登録部 3 5とを含む。 位置姿勢認識部 3 1は画像処理装置 2によって集められた 3次元情 報からその距離デ一夕を室内空間座標系 (第 1図、 第 2図の X, Υ , Z軸) に沿 つて、 第 5図に示す段違い引き出し法により取り出し、 データを 2次元平面に投 影することで複数のユーザの姿勢認識処理をする。 腕指し認識部 3 2はその得ら れた複数のユーザの 2次元投影図から腕指しの方向を識別する。 指示動作認識部 3 3は、 得られた腕指しの方向の時系列デ一夕からその指示動作を認識する。 操 作機器デ一夕ベース 3 4には腕指し操作の対象となる操作対象機器 6の情報や操 作方法を保存する。 操作機器登録部 3 5には操作対象機器 6の基本情報、 位置、 操作方法を保存する。
第 1図、 第 2図及び第 3図に示すように、 操作コマンド送受信装置 9は、 情報 統合認識装置 3で決定された操作対象機器 6に操作コマンドを送信し、 操作対象 機器 6でこれを受信して、 操作対象機器 6を操作する。 同時に操作コマンド送受 信装置 9は操作対象機器 6から必要情報を受信する。 操作コマンドの ¾受信方法 としては、 指向性を持たない微弱電波による通信方法であるプル一トゥース (B lue t o ot h) ゃェコネット (ECHONET) などを用いる。
'第 1図と第 2図は室内におけるこのインタフエース装置の実施形態であるが、 本発明はこの実施形態に限定されるものではなく、 例えば室内空間を工場や公共 の空間などに置き換えて、 指示動作を利用するあらゆる場面にも適用できる。 第 4図は本発明の一実施形態の動作を説明するためのフローチャートであり、 第 3図を部分的に詳細化したものである。
第 1図の室内空間 5に出入りする全てのユーザ 4— 1から 4—nはステレオ力 メラ 1— 1から 1—nによって撮影され、 この撮像出力は画像処理装置 2に与え られる。 すなわちこの室内空間 5に出入りする人は、 第 4図の流れに従って、 こ の室内に入ってから出るまでの全てを撮影され、 その行動が監視される。
画像処理装置 2は、 各カメラ単位でその視野内のカラー画像と室内の座標系に 基づいた距離情報を生成して情報統合認識装置 3に与える。 各ステレオカメラ 1 — 1から 1—n間の共通する座標系 X、 Y、 Ζ (第 1図, 第 2図) は予め設定し ておく。
こうして、 各ステレオカメラ 1— 1から 1—ηにより、 室内空間 5の 3次元距 離情報が獲得される (ステップ S 41) 。
このステップ S 41おいて各ステレオカメラ 1一 1から 1一 ηにより得られた 3次元距離情報 (Χ、 Υ、 Ζ) は、 全体として扱うのではなく、 室内座標系に基 づいて、 第 5図に示すように、 20 cmごとに階層的に区切って 3次元距離の点 列を切り出して使う。 境界面において失ってしまう情報をなくすために、 切り出 しを 10 cmずらして再度行うことによって情報を失わず連続的に 3次元距離の 点列を切り出す (ステップ S 42) 。
次に、 第 6図に示すように、 各引き出し (第 5図における 0〜15) 内に入つ た点列を 2次元平面に投影した後、 二値化する。 これにより、 各引き出し内の情 報は 2次元の二値画像となる。 そしてこの各階層単位でラベリングを行った後で (第 6図では 2人のユーザを A、 Bとラベリング) 、 各クラス夕の全体重心 (第 6図における T ot a 1中の☆) を求める (ステップ 43) 。 このように、 最初 にラベリングすることで複数人物に対応する。 次いで、 第 7図に示すように、 2次元平面において求めた重心をラベリングさ れた対傾象単位で再び階層的に積み上げ、 3次元点列として利用する (ステップ S き
44) o
さらに、 第 8図 (a) に示すように Z軸 (高さ方向) に沿って各階層ごとの重 心をプロットして、 最上部 (頭部) より 8階層分 (上半身に相当) までを XY平 面上にプロットし、 大きな外れ値があった場合を腕指し動作が起こったときとす る。 このとき同時に体の向きを計測するため、 第 8図 (b) に示すように、 最上 部より 8階層分 〔第 8図 (b) では 6階層分のみ記載〕 までの二値画像の画像モ —メントを計算する。 画像モーメントとは、 第 9図に示すような 2値画像と等価 の矩形のことを指し、 式 (1) によって、 その矩形の重心 (xg , yg: ) 、 傾き 、 長辺 L1 、 短辺 L2 が求められる。
¾心 盧心 V
L
L
Figure imgf000011_0001
そこで得られた 8組のデ一夕のうち面積が一定の範囲にあり、かつ長辺 L 1 と 短辺 L2 の差が最も大きい階層の、 長辺 L1 の垂直方向を体の向きとする (ス テツプ S 45 ) 。
腕指し動作が認識された場合 (ステップ S46における YESの場合) は、 最 も全体重心からプレート重心が離れた階層の二値画像 〔第 8図 (c) 〕 を用いて その腕指しの方向を決定する。 具体的には、 後述するが、 全体重心と腕指し相当 階層の重心との間に垂直二等分線をひき、 人の体に相当する領域にある二値画像 を消し去り 〔第 8図 (d) 〕 、 腕部分の画像のみを残す。 そして、 その腕部分の みの二値画像に対して画像モーメントを計算し、 その長辺 L 1 、 短辺 L2 、 重心 (xc , yc ) s 傾き 6>を計算し、 その XY平面上での向きを決定する。 高さ方向を示す Z方向は、 3次元距離情報から得られる腕の角度ひは水平面に 射影されたものであり、 垂直方向の情報は含まれていない。 そこで、 腕の垂直方 向の角度 αν を、 身長 h, 目の高さ] leye , 腕の高さ harm , 腕長係 数 1より式 (2) を用いて求める。
, / heye "- harm ) ". /りヽ
V ~~ sm - ^
V 1 h i ここで方向の基点を肩の付け根の高さではなく目の高さ heye とした。 こ れは第 1 0図に示すように、 実際の観察の結果、 人が何かに向かって腕指しをす る場合、 腕そのものの方向 1 04で対象物を指すのではなく、 目と指先を結んだ 線の方向で指し示すことがより多く観察されたからである。目の高さ heye 1 02は得られた頭の高さ (身長 h) 1 03から 1 0 cmを減じた値とした。 腕長 係数 1として日本人成人の平均である 0. 4を利用した。 なお、 第 1 0図におい て、 1 0 1は肩の高さ、 1 0 5は腕指しの方向を示している。 3
そして、 腕指し水平方向も目の位置と腕先の位置関係に基づいた上で求める。 第 1 1図に示すように、 人の平均重心 1 1 1位置 (xg , yg ) を g、 腕重 心 1 1 2位置 (xc , yc ) を0、 腕先端 1 1 3位置 (xp , yp ) を p、 腕水平方向 1 1 5を ah 、 第 8図 (d) で得られた画像モーメント (腕本 体) 1 1 4の長辺を L1 する。 このとき、 腕指し水平方向ひ h 1 1 5は式 (3 ) に基づき求められる。
XP ― Xc cos
Figure imgf000012_0001
γ p― y c + s
Figure imgf000012_0002
なお、 第 1 1図において、 1 1 6は腕指しの方向を示している。 この方法により、 腕指しの 3次元方向が確定され、 指示動作が認識される (ス テヅプ S 4 7) 。 腕指しの方向を決定する手法については、 左右の腕に対して別 モデルを用意するのではなく、 共通に使えるアルゴリズムとする。
腕指し認識においては、 意図した腕指しを正確に認識すること以上に、 利用者 が腕指しを意図していない腕指し (疑似腕指し) の誤認識を抑制することが重要 になる。
その手法として次の 3つを設定する。
a. 腕指し判定を行う高さの制限
b. 画像モーメントの大きさによる判定
c . 人物の動作の履歴からの判定
ここでは利用者が腕指しを意図していない (疑似腕指し) にも関わらずシステ ムが腕指しであると判定し易い主な状況を例に、 その対応手法について述べる。
(i) 脚を投げ出した場合 (疑似腕指し)
第 1 2図は脚を投げ出した場合の模式図であり、 1 2 1は椅子、 1 2 2は前方 に投げ出された脚、 1 2 3は腕指し認識下限、 1 24は頭の高さ、 1 2 5は座高 を示している。
第 1 2図に示すように、 椅子 1 2 1に座っていて前方に脚 1 22を投げ出した とき、 その投げ出された脚 1 22の 3次元点列が腕指し時のものと似たものにな り、 システムによる腕指し検出が行われることが考えられる。 これを防く、ために 人体形状による拘束を利用する。 立位、 座位に関わらず、 腕指し時の腕部が腰の 高さよりも高く位置することは明らかである。 そこで頭の高さ hhead 1 2 4 及ぴ座高 12 5に相当する高さ hsit から腕指し判定の下限 hmin 1 2 3を下記式 (4) によって求め、 それ以下の高さでの腕指し検出を無視する。
hhead ' sit (4/ (ii) 小さな腕指しの場合 (疑似腕指し)
第 1 3図は小さな腕指しの場合の模式図であり、第 1 3図( a)はその上面図、 第 1 3図 (b) はその正面図である。 ここで、 1 3 1は小さな腕指し、 1 3 2は 画像モーメント、 1 33は画像モーメント 1 3 2の長辺 Ll、 1 34は長辺 1 の下限である。 第 13図に示すような小さな腕指し 13 1の場合は、 画像モーメント 132の 長辺 L 1 と身長との比が一定に達していない場合は腕指しでないと判定する。 また、 第 14図に示すように、 平均重心 14 1から腕指し先端 144までの距 離を: Γ 1、 平均重心 14 1から腕指し末端 142までの距離を r 2とすると、 r 1/r 2が身長から設定された値以下である場合は同様に腕指しでないと判定す る。 なお、 143は腕重心を示している。
(iii)両腕を広げた場合 (疑似腕指し)
第 1 5図は両腕を広げた場合の模式図 (その 1) であり、 第 15図 (a) はそ の斜視図、 第 1 5図 (b) はその上面図である。 ここで、 15 1は広げた両腕、 152は両腕を拡げた場合の画像モーメントを示している。
第 1 5図に示すように両腕を拡げた場合は、 両腕を広げた部分の画像モーメン ト 152の長辺 L1 、 短辺 L2 より面積 Sを下記式 (5) から求め、 面積 S に上限を、 また、 長辺 L1 に下限を設定し、 その面積 Sが上限を越えた場合、 または長辺 L1 が下限を下回った場合は、 腕指しではないとして無視する。
Figure imgf000014_0001
第 1 6図は両腕を広げた場合の模式図 (その 2) であり、 1 6 1は平均重心、 162は腕指し末端、 1 63は腕指し先端、 164はその画像モーメントを示し ている。
第 1 6図に示すように、 画像モ一メント 164より、 腕指し先端 1 63から平 均重心 16 1の距離 r 3と腕指し末端 1 62から平均重心 1 6 1の距離 r 4の比 が設定された値以上である疑似腕指しの場合、 小さな腕指し同様に腕指しでない と判定する。
(iv) 握手など相手が側にいた場合 (疑似腕指し)
第 1 7図は握手など相手が側にいた場合の模式図であり、 第 1 7図 (a) はそ の上面図、 第 17図 (b) はその斜視図であり、 17 1は握手相手の小さな腕指 し、 1 72は腕指しの方向、 1 Ί 3は腕指し先端、 1 Ί 4は握手相手の平均重心 である。
第 1 7図に示すように、 握手をしているなど、 すく、側に相手がいる場合は、 腕 指し先端 1 73を中心に所定半径 r内に相手の平均重心 1 74を発見した場合、 腕指しでないと判定する。
( V ) 深いお辞儀をした場合 (疑似腕指し)
上記式 (5 ) の面積 Sの上限設定を利用して腕でないと判定するとともに、 腕 指し動作検出時の頭の高さの変化から頭を下げたことを判定する。
さらに利用者の意図しない誤操作を避けるために、 操作前に予備動作 (トリガ 動作) を設定する。 トリガ動作は操作対象に対し一定時間腕を差し伸べる動作と し、 この動作によって操作対象を決定してから、 以降の腕指しジヱスチヤを利用 してこの操作対象の制御を行う。 腕指し対象を決定するとき、 トリガ動作中の時 間を利用して腕指しの方向の判定を行うことで精度向上を図る。 ただし腕が操作 対象を指す前に判定が行われると精度損失を招く。 よってこれを考慮し、 腕指し 検出から数フレームの間は判定を行わない。 その後、 腕指しが継続している間、 毎フレームごとに腕重心と腕方向から腕指し先を特定して腕指し先の対象物の判 定を行う。 上記に適合し、 設定した閾値 sに達したものを操作対象とする。 この 閾値 sはトリガとして認めるまでの時間!1、 腕指し移行時間 T t ran s 、 シ ステムのフレームレート fおよび実際のシステムのターンアラウンドタイム T t a t から下記式 (6 ) によって求める。
— Γ trans― ^ tat ) , p
S = "~ ~ … i b ) 本発明では、 室内空間 5のうちの予め特定されたェリァ内でユーザ 4が腕指し 動作を行うことにより、 その特定エリア用の腕指し認識を行い、 特定の機器操作 を行うことができる。例えば、介護べッドの位置の頭部サイ ドを特定ェリアとし、 そこでの動作を室内空間の他のエリァでの動作と区別することができる。
第 1 8図はそのような動作の区別を説明するためのフローチャートである。 まず、 室内空間 5のうち特定エリアを予め登録しておく (ステップ S 9 1 ) 。 そして、 ユーザ 4がその特定エリア内にいるかどうかをチェックする (ステップ S 9 2 ) 。 第 5図〜第 8図で示した手順で、 再 3次元化されたユーザ 4の一連の 時系列情報から、 そのユーザ 4が予め特定されたエリア内にいる場合 (ステヅプ S 9 2における Y E Sの場合) は、 その特定エリア用の腕指し認識をステップ S 9 7において行う。 また、 特定エリア外にいる場合 (ステップ S 9 2における Ν 0の場合) は、 そのスライスの高さ方向の情報を判断 (判定) して、 ュ一ザ 4が 立位かもしくは座位であるかをチヱヅクする (ステップ S 9 3 ) 。 立位 '座位の 場合(ステップ S 9 3における Y E Sの場合)は、ステップ S 9 6において立位 · 座位の一般的な腕指し認識を行う。 立位でも座位でもない場合 (ステップ S 9 3 における N Oの場合) は、 ステップ S 9 4で伏位かどうか判定する。 距離画像の 連なりからステップ S 9 4で伏位と判定された場合 (ステップ S 9 4における Y E Sの場合) は、 ステップ S 9 5において、 伏位の腕指し認識を行う。 ここでの ステップ S 9 5〜9 7は腕指し認識部 3 2に相当する。 特定エリア外で、 かつ姿 勢が、 立位 ·座位、 伏位どちらとも判定されない場合 (ステップ S 9 4における N Oの場合) は、 ステップ S 9 3に戻り姿勢認識を継続する。
第 1 9図は伏位での腕指し認識部 3 2の動作の一部を詳細化したフローチヤ一 トである。
ステップ S 1 0 1において、 頭部の位置の時系列情報から、 ユーザ 4の姿勢が 伏位になったときに、 その頭部位置情報を取得する。 そして、 その頭部位置情報 を基準点として、 ステップ S 1 0 2において、 手が出せる範囲のプレートを切り 出し、 その各プレートの重心位置を取得する。 その後、 ステップ S 1 0 3におい て、 基準点と各プレート重心の距離を測定し、 基準点からの最遠点を手先位置と 仮定する。 ステップ S 1 0 4において、 その手先位置とそのプレートの高さから 腕の位置を算出し、 基準点から手先位置までの距離が長い場合は腕指しがあり、 短い場合は腕指しがないと判断 (判定) する (ステップ S 1 0 5 ) 。 その後ステ ヅプ S 1 0 5で、 腕指しがある場合 (Y E S ) のみ指示動作認識を行う (ステヅ プ S 1 0 6 ) 。
第 2 0図は特定ェリァでの腕指し認識部 3 2の動作の一部を詳細化したフロー チャートである。 ここでの対象は、 介護ベッド (リクライニングべヅ ド) とし、 ベッド上において、 一般的な姿勢での座位や伏位時に、 リクライニング機能の使 用の有無の影響を受けずに、 腕指し認識を可能にする。
特定エリアを介護べッドの位置とする場合は、 ステップ S 1 1 0 1で予めその 室内空間 5におけるベッド位置や、 ベッ ドの大きさ、 高さ、 折れ線位置を操作機 器デ一夕べ一ス 3 4に登録しておく。 次に、 ステップ S 1 1 0 2で、 べヅ ド底辺 のスライス画像から、 ベッ ドの起き上げ角度を計算する。 ベッ ドの起き上げ角度 は、 第 2 1図に示すように、 ベッドの底辺の画像を見ることで、 ベッドの大きさ とその稼動部分 (写真では白っぽく表示される部分) の大きさから求めることが 出来る。
次に、 ステップ S 1 1 0 3において、 ステップ S 1 1 0 2で得られた起き上げ 角度から判断 (判定) して、 角度が小さい場合は、 伏位の腕指し認識をステップ S 1 1 0 4において行った後、 ステップ S 1 1 1 4の指示動作認識を行う。 起き上げ角度が大きい場合は、介護べッド特有の腕指し認識を継続する。まず、 ステヅプ S 1 1 0 5において、 背もたれ部分を除いたべッド面上の距離画像全体 から、 ュ一ザ 4の仮重心を取得する。 次に、 ステップ S 1 1 0 6において、 ュ一 ザ 4の仮重心が、 第 2 1図に示すようなべッド折り曲げ位置より頭部サイ ドにあ る場合は、 ベッドによりかかっている (ステップ S 1 1 0 7 ) と判定する。 一方、 逆に仮重心が脚部サイ ドに近い場合はべッドの背もたれから離れている (ステップ S 1 1 0 8 ) と判定し、 ステヅプ S 1 1 1 3で、 普通に座っている場 合と同様に、 立位 ·座位での腕指し認識を行う。
背もたれに寄りかかっている場合 (ステップ S 1 1 0 7 ) は、 ステップ S 1 1 0 9において、 ュ一ザ 4の仮重心周りの背もたれ部分を除いた一定領域を切り出 し、 その各プレート単位での重心とそれらの平均重心を求める。 そして、 ステツ プ S 1 1 1 0において、 各プレート重心と平均重心との距離が最も離れているプ レートを決定する。 ステップ S 1 1 1 1において、 その平均重心と最遠点との距 離が大きい場合は、 腕指しが行われていると判定し、 ステップ S 1 1 1 2におい て、 そのプレートから腕指しの 3次元方向を特定する。 ステップ S 1 1 1 1にお いて、 平均重心と最遠点との距離が小さい場合は腕指しが行われていないと判定 し、 ステップ S 1 1 0 5に戻り介護べッドでの腕指し判定を継続する。
次に、 第 2 3図に指示動作の 3つの基本様式を示した。 位置姿勢認識、 腕指し 認識によって、 腕指しをしている状態が正確に把握できている場合は、 第 2 3図 に示す指示動作者 4 1が一定時間操作対象機器 6に腕指しを続けると、 その腕指 しの先にある操作対象機器 6に夕一ゲヅ トロヅクされる。 夕ーゲヅトロヅク後の 指示動作は十字操作〔第 2 3図 (a )〕、パネルタツチ操作〔第 2 3図 (b ) ;) 、 パネルジヱスチヤ操作 〔第 2 3図 (c ) 〕 の 3手法を提供する。
第 2 4図には十字操作のフローチャートを示した。 第 2 4図のステップ S 1 5 1において、 指示動作者 4 1が夕一ゲットロヅクを行った際の腕の 3次元方向を 取得し、 それを十字操作の原点とする。 続けて、 ターゲットロック後も腕指し動 作が続いているかをステヅプ S 1 5 2で判断 (判定) した後、 腕指しが継続して いる場合 (Y E S ) は、 ステップ S 1 5 3で腕指し 3次元方向を取得し、 その腕 指しの方向が十字の指示動作範囲内にあるかどうかをステップ S 1 5 4で判断 (判定) し、 範囲内にある場合 (Y E S ) は、 ステップ S 1 5 5において、 その 方向に対応するコマンドを連続して送信する。 ステップ S 1 5 2において、 一定 時間腕指しがなかった場合 (N O ) は、 腕指し判定を終了する。 この十字動作は 特にスイッチのオン ·オフ、 ボリュームやチャンネルの変更など、 簡単な操作に 適している。
第 2 5図にはパネル夕ヅチ操作のフローチャートを示した。 第 2 5図のステヅ プ S 1 6 1において、 指示動作者 4 1が夕一ゲヅトロヅクを行った後の、 体の方 向 (肩の向き) を取得し、 それをパネル夕ツチ操作の基点とする。 パネル夕ツチ 操作では、 指示を行うためのパネル (操作パネル 4 2 ) が指示動作者 4 1の前に あると仮想して行われる。 第 2 3図の指示動作者 4 1のように、 夕一ゲットロッ ク後の操作パネル 4 2は、 常に指示動作者 4 1の真正面に設定される。 この操作 パネル 4 2に対して、 指示動作者 4 1はその操作パネル 4 2の一部 (第 2 3図の 例では 9力所に分割) に夕ツチすることで、 操作対象機器 6を制御する。
次に、 夕一ゲットロヅク後も腕指し動作が続いているかをステップ S 1 6 2で 判断 (判定) した後、 腕指しが継続している場合 (Y E S ) は、 肩の高さと腕指 しの方向をステップ S 1 6 3で取得する。 そして、 体の正面に設定された操作パ ネル 4 2の範囲内に腕指しがあるがどうかをステップ S 1 6 4で判断(判定)し、 操作パネル 4 2の範囲内にある場合 (Y E S ) は、 どのパネルを指しているか判 定し、その場所に対応するコマンドをステップ S 1 6 5において送信する。また、 ステップ S 1 6 2において腕指しをしておらず (N O ) 、 さらにステップ S 1 6 6において、夕一ゲヅトロックから一定時間腕指しがなかつた場合( Y E S )は、 腕指し判定を終了する。 このパネル夕ツチ操作は、 操作対象機器 6のスィッチに 上記のような直接触れるような操作をいくつか組み合わせることもできる。 第 2 6図にはパネルジエスチヤ操作のフローチヤ一トを示した。 第 2 6図のス テヅプ S 1 7 0 1において、 指示動作者 4 1が夕一ゲヅトロヅクを行った後の、 体の方向 (肩の向き) を取得し、 それをパネルジヱスチヤ操作の基点とする。 パ ネルジヱスチヤ操作では、 第 2 3図に示す指示動作者 4 1のように、 夕一ゲヅト ロック後の操作パネル 4 2は、 常に指示動作者 4 1の真正面に設定される。 この 操作パネル 4 2に対して、 指示動作者 4 1が行うそのパネル内の範囲 (第 2 3図 の例では 9力所に分割) の腕指し軌跡を判別することで、 操作対象機器 6を制御 する。つまり同じ円のような軌跡でも、その通過順序によって操作コマンドを別々 に作ることができる。 これらは全て操作機器登録部 3 5によって自由に設定でき る。
具体的には、 まず、 ステップ S 1 7 0 1で体の方向を取得した後、 ステップ S 1 7 0 2において、 夕一ゲヅトロヅク後も腕指し動作が続いているかを判断 (判 定) する。 腕指しが継続している場合 (Y E S ) は、 肩の高さと腕指しの 3次元 方向をステップ S 1 7 0 3で取得する。 そして、 その腕指しの方向が体の正面に 設定された操作パネル 4 2の範囲内にあるかどうかをステップ S 1 7 0 4で判断 (判定) し、 操作パネル 4 2の範囲内にある場合 (Y E S ) は、 その腕指しされ たパネルは既に指示動作者 4 1の腕が通過済みか否かをステヅプ S 1 7 0 5にて 判断 (判定) する。 未通過の場合 (N O ) は、 ステップ S 1 7 0 6において、 腕 指し軌跡にそのパネル位置を追加する。 そして、 ステップ S 1 7 0 7でその腕指 し軌跡に対応する操作コマンドがあるかどうかを判定し、 対応するコマンドがぁ る場合(Y E S )は、その操作コマンドをステップ S 1 7 0 8において送信する。 ステップ S 1 7 0 2において、 腕指しがされていない場合 (N O ) は、 腕指し軌 跡の初期化を行い、 ステップ S 1 7 1 0で夕一ゲヅトロヅクから一定時間腕指し なしで経過したかを判断 (判定) して Y E Sの場合は腕指し判定を終了する。 こ のパネルジヱスチヤ操作は、 その腕指し軌跡の順序を変えることで、 様々な操作 コマンドに対応させることができる。
ここまでに示した十字操作、 パネル夕ツチ操作、 パネルジエスチヤ操作は、 基 本的に操作対象機器 6に対して、腕指しで夕一ゲットロックを行った後、続けて、 その操作対象機器 6に向かって指示動作を行うことを基本としている。 そこで、 第 1図及び第 2図に示した表示装置 8を用いることで、 複雑な操作をより容易に 行えることを示す実施形態を第 2 7図に示した。
第 2 7図は、 パネル夕ツチ操作やパネルジエスチヤ操作と表示装置 8との組み 合わせによる指示操作実施形態を示している。 第 1段階として、 夕一ゲットロッ クの実施形態 5 1では、 指示動作者 4 1は操作対象機器 6に対して腕指しをする 意図を示している。 このとき、 指示動作者 4 1は操作対象機器 6に向かって腕指 しを行い、 表示装置 8は別方向に存在する。
次に、 第 2段階として、 表示装置 8を使った操作パネル 4 2の利用形態 5 2で は、 ターゲットロック直後に、 指示動作者 4 1の体の向きとは関係なしに、 別方 向にある表示装置 8と指示動作者 4 1とを結ぷ直線上に操作パネル 4 2が設定さ れる。 これは指示動作者 4 1がどの位置に移動しても一定時間は指示動作者 4 1 と表示装置 8を結ぶ直線上に常に設定され、 その操作パネル 4 2と操作コマンド などが表示装置 8に表示される。
第 3段階として、 表示装置 8を使ったパネル操作実施形態 5 3では、 指示動作 者 4 1は、 操作対象機器 6を一切気にすることなしに、 表示装置 8に表示される 操作パネル 4 2や情報を見ながら実際に操作対象機器 6を制御することができる。 このような方法で、 覚えられないコマンドや複雑な操作を行う場合でも、 指示動 作者 4 1は表示装置 8の助けを借りて容易に操作対象機器 6を制御することが可 能になる。
さらに、 このような表示装置 8を使ったパネル操作実施形態 5 3の別な実施形 態として、 最初から夕一ゲットロックをしない方法もある。 この方法では、 操作 対象機器 6などをメニューとして表示装置 8に表示しておき、 指示動作者 4 1は 表示装置 8のみに向かって室内のどの位置からでも全ての機器の制御を行う。 こ の方法は、 特に身体障害者など動き回ることが少なく、 常時一方向を向いている ことが多い人には便利なィンタフェースとなる。
第 3図の操作機器登録部 3 5では、 操作対象機器 6の情報やその操作のための 各種指示動作やその組み合わせなどを操作機器デ一夕ベース 3 4に登録すること ができる。 このときの実施形態を第 2 2図のフローチャートに示した。 ステップ S 141では、 最初に対象となる操作対象機器 6の種別、 個別情報などを登録す る。 続いてステップ S 142では、 その操作対象機器 6の位置を登録する。 さら にステップ S 143では、 指示動作とそれに対応するコマンドの登録を行う。 そ してステップ S 144では、 さらに複雑な場合として、 指示動作の組み合わせ、 指示動作時の表示装置利用の有無などを登録し、 これらの一連の動作を必要数だ け繰り返す。
また、これら一連の操作機器登録時には、操作コマンド送受信装置 9を使って、 Bluet o o t hや E C H 0 N E Tなどを有する情報家電などとの間で通信を 行う。 これは操作機器登録部 35と操作コマンド送受信装置 9との間で必要情報 を相互に通信して、 必要な情報を獲得する。
ステップ S 142においては、 操作機器に LEDなどのランプを取り付け、 そ れを B 1 u e.t o o t hや E CHONE Tなどを経由した命令で点灯させること によって、 それがステレオカメラ 1の視野範囲にある場合は、 その 3次元位置を 自動的に取得することが可能である。
なお、 本発明は上記実施形態に限定されるものではなく、 本発明の趣旨に基づ いて種々の変形が可能であり、これらを本発明の範囲から排除するものではない。 以上、 詳細に説明したように、 本発明によれば、 以下のような効果を奏するこ とができる。
(Α) 室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作 を実現させることができる。
(Β) 上記 (Α) を受けて、 ユーザの聘指しによる指示動作によって室内空間 の操作対象機器の操作を容易にすることができる。
(C) 特定エリアの設定により、 ユーザの腕指しによる目標を確実に設定する ことができる。
(D) 特定エリアが介護べッドの頭部サイ ドである場合、 特定エリアを基準に して、 立位、 座位、 伏位などの一般的な全ての姿勢での腕指しと、 その腕指しに よる指示動作によつて室内空間の操作対象機器の操作をアシストすることができ る。
(Ε) 疑似腕指しを的確に検出する。 つまり、 一見、 腕指しのように見える挙 動を腕指しから確実に除外して、 正確な腕指しの判定を行うことができる。

Claims

請求の範囲
1 . ( a ) 室内空間において複数のステレオカメラにより該室内を撮像し、 前 記各ステレオカメラ単位で視野内の撮像画像と室内の座標系に基づいた距離画像 を生成する画像処理手段と、
( b ) 前記各ステレオカメラからの距離情報に基づき、 ユーザの位置姿勢と腕指 しを抽出する位置姿勢 ·腕指し認識手段と、 '
( c ) 前記ユーザの腕指しが識別された場合に、 該腕が指し示している方向、 そ の動きから、 指示動作であるかどうかを認識する指示動作認識手段と、
を具備することを特徴とするイン夕フェース装置。
2 . 請求の範囲第 1項に記載のイン夕フェース装置において、 前記指示動作 認識手段の動作に基づき、予め登録された室内機器を操作する マンドを送出し、 その結果を受信する操作コマンド送受信装置を具備することを特徴とするィン夕 フェース装置。
3 . 請求の範囲第 1項に記載のイン夕フェース装置において、 前記位置姿勢 ' 腕指し認識手段は、 集められた 3次元倩報から前記距離デ一夕を室内空間座標系 に沿って、 段違い引き出し法により取り出し、 デ一夕を 2次元平面に投影するこ とで複数のユーザの姿勢認識処理をする位置姿勢認識部と、 該得られた複数のュ —ザの 2次元投影図から腕指しの方向を識別する腕指し認識部とを有することを 特徴とするインタフェース装置。
4 . 請求の範囲第 1項に記載のイン夕フェース装置において、 前記指示動作認 識手段は、 前記得られた腕指しの方向の時系列デ一夕からその指示動作を認識す る指示動作認識部を有し、 更に、 腕指し操作の対象となる操作対象機器の情報や 操作方法を保存する操作機器データベースと、 前記操作対象機器の基本情報、 位 置、 操作方法を記憶する操作機器登録部とを具備することを特徴とするイン夕フ ヱ一ス装置。
5 . 請求の範囲第 1項に記載のイン夕フェース装置において、 前記腕指しを抽 出する位置姿勢 ·腕指し認識手段は、 各ステレオカメラから得られた 3次元距離 情報を、 室内座標系に基づいて、 2 0 c mごとに階層的に区切って情報を切り出 す段違い引き出し法により、 各引き出し内に入った点列を 2次元平面に投影した 後、 二値化して、 2次元の二値画像となし、 各階層単位でラベリングを行った後 で各クラス夕の全体重心を求め、 2次元平面において求めた重心をラベリングさ れた対象単位で再び階層的に積み上げて、 3次元点列として利用し、 Z軸に沿つ て各階層ごとの重心をプロットして、 最上部 (頭部) より 8階層分 (上半身) ま でを X Y平面上にプロットし、 全体重心と比較して大きな外れ値があった場合を 腕指し動作が行われたとするとともに、 最上部より 8階層分までの二値画像と等 価の矩形形状である画像モーメントを求めて得られた 8組のデータのうち面積が 一定の範囲にあり、 かつ画像モーメントの長辺と短辺の差が最も大きい階層の長 辺の垂直方向を体の向きとし、 前記した腕指し動作が認識された場合、 最も全体 重心からプレー卜重心が離れた階層の二値画像の重心と全体重心との間に垂直二 等分線をひき、 人の体に相当する領域にある二値画像を消し去り、 腕部分のみを 残し、 その腕部分のみの二値画像に対して画像モーメントを計算し、 その長辺、 重心、 腕先端位置、 全体重心を計算することで腕指しの X Y平面上での向きを決 定し、 身長、 目の高さ、 腕長係数から腕指しの Z方向の向きを決定して腕指しの 方向を求め、 指示動作を認識することを特徴とするイン夕フェース装置。
6 . 請求の範囲第 5項に記載のイン夕フェース装置において、 頭の高さ及び座 高に相当する高さから腕指し判定の下限を設定して、 該下限より下にある疑似腕 指しの場合は、腕指しではないと判定することを特徴とするィン夕フェース装置。
7 . 請求の範囲第 6項に記載のイン夕フェース装置において、 前記下限より下 にある疑似腕指しの場合が脚を投げ出した場合であるインタフェース装置。
8 . 請求の範囲第 5項に記載のインタフヱース装置において、 前記画像モーメ ントの長辺の身長との比が一定に達していない場合は、 腕指しでないと判定する ことを特徴とするィン夕フヱ一ス装置。
9 .請求の範囲第 8項に記載のィン夕フェース装置において、該当する場合が、 小さい腕指しであることを特徴とするィン夕フヱ一ス装置。
1 0 . 請求の範囲第 5項に記載のイン夕フェース装置において、 平均重心から 腕指し先端までの距離を r 1、 前記平均重心から腕指し末端までの距離を r 2と すると、 ; r 1 / r 2が身長から設定された値以下である場合は、 腕指しでないと 判定することを特徴とするィン夕フェース装置。
1 1 . 請求の範囲第 1 0項に記載のインタフェース装置において、 該当する場 合が、 小さい腕指しであることを特徴とするインタフエ一ス装置。
1 2 . 請求の範囲第 5項に記載のインタフェース装置において、 前記画像モー メントの長辺 L 1 、 短辺 L 2 より面積 Sを求め、 該面積 Sに上限を、 前記画 像モーメントの長辺 L 1 に下限を設定し、 この限度から外れる場合は、 腕指し でないと判定することを特徴とするインタフエース装置。
1 3 . 請求の範囲第 1 2項に記載のイン夕フェース装置において、 前記限度か ら外れる場合は、両手を広げた場合であることを特徴とするィン夕フエ一ス装置。
1 4 . 請求の範囲第 5項に記載のイン夕フェース装置において、 腕指し先端と 平均重心間距離と、 腕指し末端と平均重心間距離の比が設定値以上の場合は、 腕 指しでないと判定することを特徴とするィン夕フエ一ス装置。
1 5 . 請求の範囲第 1 4項に記載のイン夕フェース装置において、 前記限度か ら外れる場合は、両手を広げた場合であることを特徴とするィン夕フエース装置。
1 6 . 請求の範囲第 5項に記載のインタフヱース装置において、 ユーザの腕指 し先端を中心に、 所定の半径内に相手の平均重心を発見した場合は、 腕指しでな いと判定することを特徴とするィン夕フエ一ス装置。
1 7 . 請求の範囲第 1項に記載のインタフェース装置において、 前記室内空間 のうち特定エリァを予め登録しておき、 その特定エリァにユーザがいる場合にそ のユーザの腕指しを識別することを特徴とするィン夕フェース装置。
1 8 . 請求の範囲第 1 7項に記載のイン夕フェース装置において、 前記特定ェ リアを介護ベッドの頭部サイ ドとし、 その特定エリア内にュ一ザがいる場合は、 その特定ェリァ用の腕指し識別を行うことを特徴とするインタフエース装置。
1 9 . 請求の範囲第 1 8項に記載のイン夕フェース装置において、 前記特定ェ リアを介護べッドの頭部サイ ドとし、その特定エリア内にュ一ザがいない場合は、 ユーザが立位、 座位又は伏位かどうか判定し、 それぞれの姿勢での腕指しを識別 することを特徴とするィン夕フェース装置。
PCT/JP2003/016171 2002-12-18 2003-12-17 インタフェース装置 WO2004055726A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/540,127 US7821531B2 (en) 2002-12-18 2003-12-17 Interface system
AU2003289395A AU2003289395A1 (en) 2002-12-18 2003-12-17 Interface system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002-366432 2002-12-18
JP2002366432 2002-12-18
JP2003166659A JP4035610B2 (ja) 2002-12-18 2003-06-11 インタフェース装置
JP2003-166659 2003-06-11

Publications (1)

Publication Number Publication Date
WO2004055726A1 true WO2004055726A1 (ja) 2004-07-01

Family

ID=32599280

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/016171 WO2004055726A1 (ja) 2002-12-18 2003-12-17 インタフェース装置

Country Status (4)

Country Link
US (1) US7821531B2 (ja)
JP (1) JP4035610B2 (ja)
AU (1) AU2003289395A1 (ja)
WO (1) WO2004055726A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011045786A2 (en) 2009-10-13 2011-04-21 Rami Parham Wearable device for generating input for computerized systems
WO2011104709A2 (en) 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9880619B2 (en) 2010-02-23 2018-01-30 Muy Interactive Ltd. Virtual reality system with a finger-wearable control
CN109143875A (zh) * 2018-06-29 2019-01-04 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其系统
EP1960067B1 (en) * 2005-12-12 2019-06-19 Sony Interactive Entertainment Inc. Method for enabling depth and direction detection when interfacing with a computer program

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP4608326B2 (ja) * 2005-01-26 2011-01-12 株式会社竹中工務店 指示動作認識装置及び指示動作認識プログラム
JP4712804B2 (ja) * 2005-07-29 2011-06-29 パイオニア株式会社 画像表示制御装置及び画像表示装置
JP4691708B2 (ja) * 2006-03-30 2011-06-01 独立行政法人産業技術総合研究所 ステレオカメラを用いた白杖使用者検出システム
JP4617286B2 (ja) * 2006-10-17 2011-01-19 中央電子株式会社 不正通過者検出装置及びこれを利用した不正通過者録画システム
DE102006053837A1 (de) 2006-11-14 2008-05-15 Robert Bosch Gmbh Integrierter Schaltkreis
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
JP4670803B2 (ja) * 2006-12-04 2011-04-13 株式会社デンソー 操作推定装置およびプログラム
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5145569B2 (ja) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 対象物特定方法および装置
JP5120754B2 (ja) * 2008-03-28 2013-01-16 株式会社国際電気通信基礎技術研究所 動作検出装置
JP4973667B2 (ja) * 2009-01-16 2012-07-11 株式会社デンソー 操作推定装置およびプログラム
JP5182202B2 (ja) * 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
KR101082545B1 (ko) * 2010-01-28 2011-11-10 주식회사 팬택 영상 변환 기능을 구비한 이동통신 단말기
JP5536510B2 (ja) * 2010-03-31 2014-07-02 株式会社バンダイナムコゲームス プログラム及び画像生成システム
US20110268365A1 (en) * 2010-04-30 2011-11-03 Acer Incorporated 3d hand posture recognition system and vision based hand posture recognition method thereof
TWI431512B (zh) * 2010-06-23 2014-03-21 Ind Tech Res Inst 三維控制端點之辨識方法及應用其之電腦可讀取媒體
US8760432B2 (en) * 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
JP5883881B2 (ja) * 2010-11-17 2016-03-15 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッドOmron Scientific Technologies, Inc. ゾーンを監視する方法及び装置
DE102011002577A1 (de) 2011-01-12 2012-07-12 3Vi Gmbh Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
JP5730086B2 (ja) * 2011-03-18 2015-06-03 Necパーソナルコンピュータ株式会社 入力装置および入力方法
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
JP5868128B2 (ja) * 2011-11-10 2016-02-24 キヤノン株式会社 情報処理装置およびその制御方法
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
US9305229B2 (en) 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
EP3106968B1 (en) * 2014-02-10 2019-09-25 Sony Corporation Information processing device, information processing method, and program
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP6008911B2 (ja) * 2014-07-22 2016-10-19 Necパーソナルコンピュータ株式会社 動作認識装置、動作認識方法、及び、プログラム
JP6303918B2 (ja) * 2014-08-22 2018-04-04 株式会社国際電気通信基礎技術研究所 ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
DE112016001794T5 (de) 2015-04-17 2018-02-08 Mitsubishi Electric Corporation Gestenerkennungsvorrichtung, Gestenerkennungsverfahren und Informationsverarbeitungsvorrichtung
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
WO2017020954A1 (en) * 2015-08-06 2017-02-09 Arcelik Anonim Sirketi Multi-point motion sensing and user monitoring system for an image display device
US10057078B2 (en) 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
WO2017145787A1 (ja) * 2016-02-23 2017-08-31 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
CN110377145B (zh) 2018-04-13 2021-03-30 北京京东尚科信息技术有限公司 电子设备确定方法、系统、计算机系统和可读存储介质
CN112204505A (zh) * 2018-06-06 2021-01-08 索尼公司 信息处理装置、信息处理方法和程序
US11907434B2 (en) * 2020-01-29 2024-02-20 Sony Group Corporation Information processing apparatus, information processing system, and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031551A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000267800A (ja) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd 動作認識装置
JP2000259337A (ja) * 1999-03-10 2000-09-22 Atr Media Integration & Communications Res Lab ポインティング装置
JP2001216527A (ja) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
JP2002157079A (ja) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi 意向識別方法
US6611206B2 (en) * 2001-03-15 2003-08-26 Koninklijke Philips Electronics N.V. Automatic system for monitoring independent person requiring occasional assistance
JP4323180B2 (ja) * 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004258766A (ja) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP3860550B2 (ja) * 2003-03-07 2006-12-20 日本電信電話株式会社 インタフェース方法、装置、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031551A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IDA Y, SAKAUE K: "3 jigen no ugoki joho o riyo shita fukusu taishobutsu no chushutsu to sono jitsujikan ninshiki", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS D-2, vol. J81-D-2, no. 9, 25 September 1998 (1998-09-25), pages 2043 - 2051, XP002981583 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1960067B1 (en) * 2005-12-12 2019-06-19 Sony Interactive Entertainment Inc. Method for enabling depth and direction detection when interfacing with a computer program
WO2011045786A2 (en) 2009-10-13 2011-04-21 Rami Parham Wearable device for generating input for computerized systems
WO2011104709A2 (en) 2010-02-23 2011-09-01 Rami Parham A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9329716B2 (en) 2010-02-23 2016-05-03 Muv Interactive Ltd. System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9535516B2 (en) 2010-02-23 2017-01-03 Muv Interactive Ltd. System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9880619B2 (en) 2010-02-23 2018-01-30 Muy Interactive Ltd. Virtual reality system with a finger-wearable control
US10528154B2 (en) 2010-02-23 2020-01-07 Touchjet Israel Ltd System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
CN109143875A (zh) * 2018-06-29 2019-01-04 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其系统

Also Published As

Publication number Publication date
AU2003289395A1 (en) 2004-07-09
US20060168523A1 (en) 2006-07-27
JP4035610B2 (ja) 2008-01-23
JP2004246856A (ja) 2004-09-02
US7821531B2 (en) 2010-10-26

Similar Documents

Publication Publication Date Title
WO2004055726A1 (ja) インタフェース装置
US10904492B2 (en) Video monitoring system
Kepski et al. Fall detection using ceiling-mounted 3d depth camera
US7680295B2 (en) Hand-gesture based interface apparatus
US8970725B2 (en) User interface system based on pointing device
US8972054B2 (en) Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
CN110666791B (zh) 一种基于深度学习的rgbd机器人看护系统及方法
US20110118877A1 (en) Robot system and method and computer-readable medium controlling the same
WO2013149586A1 (zh) 一种腕上手势操控系统和方法
CN109219426B (zh) 康复训练辅助控制装置以及计算机能够读取的记录介质
CN109558004B (zh) 一种人体辅助机器人的控制方法及装置
TW201724022A (zh) 對象辨識系統,對象辨識方法及電腦記憶媒體
TWI652039B (zh) Simple detection method and system for sarcopenia
JP2001101547A (ja) 異常判断装置およびプログラム記録媒体
JP5221939B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
JP2017012691A (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
JP2000056916A (ja) ハンドポインティング装置
CN113966975A (zh) 吸尘器系统和危险位置提示方法
US11837006B2 (en) Human posture determination method and mobile machine using the same
Daher et al. Multi-sensory assistive living system for elderly in-home staying
KR20150028623A (ko) 영상 처리 방법 및 영상 처리 장치
CN111158489B (zh) 一种基于摄像头的手势交互方法及手势交互系统
JP2022139507A (ja) 検知装置、検知方法、および学習モデル生産方法
US20190385602A1 (en) Operation terminal, voice inputting method, and computer-readable recording medium
US20230404823A1 (en) Control system and control method for controlling electric walking aid device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2006168523

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10540127

Country of ref document: US

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10540127

Country of ref document: US