WO2004042548A1 - 運動検出装置 - Google Patents

運動検出装置 Download PDF

Info

Publication number
WO2004042548A1
WO2004042548A1 PCT/JP2003/014070 JP0314070W WO2004042548A1 WO 2004042548 A1 WO2004042548 A1 WO 2004042548A1 JP 0314070 W JP0314070 W JP 0314070W WO 2004042548 A1 WO2004042548 A1 WO 2004042548A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature point
information
motion detection
detection device
Prior art date
Application number
PCT/JP2003/014070
Other languages
English (en)
French (fr)
Inventor
Koh Mohri
Akio Kosaka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP03770139A priority Critical patent/EP1594039A4/en
Publication of WO2004042548A1 publication Critical patent/WO2004042548A1/ja
Priority to US11/113,380 priority patent/US7489806B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Definitions

  • the present invention relates to a motion detection device for detecting the position, posture and motion of an object.
  • a technology has been known in which a sensor is threaded on an operator's hand to detect the shape and movement of the hand and generate a signal based on the detection result.
  • a three-axis angular velocity sensor and a three-axis acceleration sensor for detecting the position and posture of the back of the hand are arranged, and A one-axis angular velocity sensor that detects finger bending at the end, middle finger end, thumb end and center is located, and the shape of the hand is estimated from the position and posture of the back of the hand and the posture of the finger.
  • an operation input device that generates a command signal based on a gesture such as the shape and movement of a hand. ing.
  • the technique proposed in the above-mentioned Japanese Patent Application Laid-Open No. 2000-133205 that is, the position and posture of the back of the operator's hand is determined by an inertial sensor including a three-axis angular velocity sensor and a three-axis acceleration sensor.
  • the technique of detecting and detecting the posture of the finger at the angular velocity of one axis at the end, estimating the shape of the hand based on these moments, and generating a command and a signal based on the shape of the hand is known.
  • the size of an individual's hand is larger. Since there is no need to determine the sensor position taking into account the versatility, it is versatile and can be easily used by anyone.
  • the gesture with the hand stopped and the movement of the hand at a substantially constant speed are difficult. It was difficult to distinguish from Jestia. Then, an image for detecting the movement of the natural feature points in the two-axis direction in the image imaged by the image sensor ⁇
  • a method has been considered in which the posture of the back of the hand is correctly obtained by comparing the movement of the surrounding natural image with the inertial sensor, in combination with the IC sensor.
  • the field ⁇ using the image IC sensor is also limited by the limited number of image IC sensors.
  • the present invention has been made to overcome the problems described above, and its object is to provide a motion detecting device capable of accurately recognizing the spatial position ⁇ , posture and motion of an object to be mounted, and a motion detecting device such as this.
  • the motion detection clothing according to the first invention is , Measurement object A motion detection device for detecting the position and orientation, wherein the inertial motion detecting means detects the inertial motion of the object to be measured using at least one of an acceleration sensor and an angular velocity sensor; and At different points in time between the image capturing means for capturing an image around the object to be measured and the image capturing means, and a result of comparing the images by the image comparing means for comparing the captured images and the image comparing means.
  • the force camera position and attitude obtaining means for detecting the position and attitude of the object to be measured using the method described above, and by the inertial motion detecting means and the foreground camera position and attitude obtaining means.
  • spatial position and orientation acquisition means for detecting the position and orientation of the object in space.
  • the signal of the angular velocity sensor or the acceleration sensor is fetched by the inertial motion detecting means, and the attitude information of these sensors is obtained.
  • the surrounding image is photographed by the imaging means, and the feature points are extracted from the continuously captured images.
  • the image comparing means determines the movement of the characteristic occupancy by comparing the positions of the feature points in different temporal patterns, and furthermore, the inertial motion of the measurement object determined by the inertial motion detecting means and the force camera.
  • the position and orientation of the object to be measured in the space are determined based on the information of the position and orientation of the object within the interval detected by the orientation detection means.
  • the motion detection device is characterized in that, in the first invention, the imaging means further comprises an optical means for projecting an image, and
  • the means includes at least four plane mirrors, and has an optical system for projecting an image around the object to be measured to the imaging means by the at least four plane mirrors.
  • the peripheral image is projected onto the imaging means by using at least four mirrors, and thereby the four images orthogonal to the lens optical axis and the lens optical axis direction A total
  • the motion detection clothing according to the third invention is directed to the first invention, and the imaging means further includes optical means for projecting an image.
  • the optical means has a curved surface, and has an optical system for projecting an image around the object to be measured and projecting the image to three image means.
  • an image in all directions orthogonal to the optical axis of the imaging lens system, an image in the optical axis direction, and an image transmitted through the center are projected in the same direction. Be done
  • the moving device is characterized in that, in the first invention, the 5LJ imaging means further comprises an optical means for projecting an image; Is characterized by comprising an optical system for projecting an image around the object to be measured to the imaging means by a fish-eye lens.
  • the image of the entire sky is projected onto the imaging means by the eye lens.
  • the motion detection device is characterized in that in the second to fourth inventions, the motion detection device is mounted on a body part and detects a position and a posture of the mounted portion.
  • the motion detection device is characterized in that in the second to fourth inventions, the motion detection device is attached to the back of the hand to detect the position and posture of the hand.
  • the motion detection device is characterized in that the motion detection device according to the fourth aspect of the present invention is mounted on a part and detects a position and a posture of a head.
  • the position and posture of the body wearing the motion detecting device are detected.
  • the image comparison device uses the W1 inertia motion detection means for the posture information at the time of registration.
  • One It has feature movement estimation means for estimating the movement position and search range of a feature point from the position and shape of the detected object and the relationship of the projection transformation of the memory means. Performs image matching processing to search for feature points from the current frame.
  • the feature point being tracked is searched from the current frame by the feature point movement estimating means included in the image processing means.
  • the motion detection device is the motion detection device according to the eighth aspect, wherein the feature point movement estimating means is the location of the feature occupancy at the time of registration and the image around the feature point. Estimated pixel position information of each pixel for tracking the information of each pixel and the information of each pixel, the current position and orientation information detected by the inertial motion detection means, and the projection transformation of the image means.
  • the feature is that the position of each pixel movement is estimated from the schedule and the image after the characteristic occupancy movement is scanned within the search range to perform image matching processing.
  • the motion estimation image position information is obtained for each pixel, and the information of each pixel around the feature occupation is tracked.
  • the motion detection apparatus wherein the feature occupancy estimating means is provided at the time of registration.
  • the position of each pixel is estimated from the relationship of the projective transformation of the imaging means, and the image matching processing is performed by running a special image and moving the image within the search range.
  • the position of the pixel is estimated and the position coordinates are tracked.
  • the search range is determined based on the current position and orientation information of each pixel and the movement position of each pixel estimated from the information from the imaging means, and the running process is performed within that range, thereby performing the matching process.
  • the motion detecting device is characterized in that, in the first invention, ⁇ the writing force camera position / posture acquiring means is configured to obtain a motion lame of each feature point and a feature occupancy.
  • the motion vector measured from the image including each feature point and the motion vector calculated from the camera position and orientation information are based on the force camera position and orientation information obtained from the depth information estimated for ⁇ .
  • the characteristic point is obtained by calculating an error with respect to the torque, and determining that the characteristic point exceeding the threshold value is invalid, and further comprising an invalid characteristic point judging means for judging the characteristic point.
  • the force camera position and posture acquirer obtains the power from the characteristic information, the motion motion of the vehicle, and the depth information derived based on the special feature point.
  • the position and orientation information of the camera is estimated.
  • the measured motion parameters from the image of each feature point are compared with the motion parameters estimated from the force camera location information. If the compared error exceeds a certain threshold, it is determined to be an invalid feature point.
  • the motion detecting apparatus is the motion detection apparatus according to the eleventh invention, wherein the effective feature point determining means is configured to determine that the feature point is invalid. Until the information disappears, the information about the invalid feature is occupied, the position information is tracked, and the effective feature point tracking means is further added.
  • the position information of the invalid feature point is tracked by the effective feature point determining means until the effective feature point disappears.
  • the position of the special point is always grasped.
  • the motion detecting apparatus ⁇ according to the thirteenth invention is the same as the first invention, wherein the mdd force camera position / posture acquisition means is used in the new registration of a feature point.
  • the 3D information viewed from the frame image and the current camera frame are registered as the m occupation information, and the feature points between the appearance and disappearance of the feature points are tracked.
  • the current feature is to acquire the current turtle frame.
  • the three-dimensional information of the feature points is tracked and updated during the period from the appearance of the feature occupation to the disappearance of the feature point.
  • Tertiary information 7C information is inherited.
  • the motion detecting apparatus is the motion detection apparatus according to the first invention, wherein the self-imaging means further comprises optical means for projecting an image. Is characterized in that it further comprises an image projection section masking means for identifying and dividing the input light axis of the optical means.
  • a mask is provided for identifying and classifying an input light axis of an optical system for projecting an image on the image means.
  • the motion detecting apparatus is the motion detecting apparatus according to the first aspect, wherein the image comparing means analyzes the depth information of the characteristic occupation image, An adaptive feature point image setting means for switching the size of the feature point image at the time of registration and the feature point search range or the number of registered feature points is further provided.
  • the adaptive feature point In the motion detection apparatus according to the fifteenth aspect of the present invention, the adaptive feature point
  • Depth information of the feature point image is analyzed by Ah means, and the size of the feature point image at registration and the search range of the feature point or the number of registered feature points are switched according to the analyzed value.
  • the motion detecting apparatus is characterized in that the motion detecting apparatus according to the fifth aspect captures an image of a feature point orifice identification mark of a known size or interval at initialization.
  • an initialization means for obtaining and registering the information on the size of the image of the feature occupation and the identification image for wt, which is taken in, and depth information.
  • a feature point of a known magnitude or interval is captured at the time of initialization. Depth information is requested and registered
  • the motion detecting device is characterized in that, in the fifth invention, the image of the feature point i and the five different masks for a predetermined position in Special occupation. It is characterized in that it has an initialization means for initial registration of the depth information of the feature points of the stitches, taken in from a position that is a known distance from the mental identification disc.
  • the image of the feature occupation B-by-ma is placed at a predetermined position ⁇ from a distance that is a known distance from the feature occupation identification mac.
  • the motion detection device uses the whistle yw5 in the invention of the whistle y5 to initialize the body at the time of initialization.
  • the shape of the body or the entire body, the size of the body, and the depth of the characteristic points Information is requested and registered
  • the filling detection device is characterized in that, in the fifth invention, at the time of initialization, an image of a characteristic part of the body is captured from an image captured from a known distance. Characterized by further comprising an initialization means for initially registering depth information of the
  • a body characteristic image at a known distance is captured in an input image from a mounting portion of the motion detecting apparatus.
  • the motion detecting apparatus is the motion detecting apparatus according to the 5th aspect, wherein at the time of initialization, an image in a predetermined direction and distance is taken from a clothing portion, and Initialization means for initial registration of depth information of the characteristic feature in
  • an image in a predetermined direction and distance is captured, and the depth information of the characteristic occupancy is registered based on the captured image.
  • the motion detecting device provides the motion detecting device according to the fifth aspect of the present invention, in which, at the time of initialization, an operation of moving a mounting portion by a predetermined distance is performed on an image captured at the time of initialization.
  • Initialization means for initial registration of depth information of feature occupation in an image is further provided.
  • the operation of moving the part equipped with the motion detecting device by the distance of the reference line is performed.
  • the depth information of the feature point is registered based on the image captured at this time.
  • the motion detection device according to the second to the fourth aspects, wherein the motion detection device is fixed or attached to an object which is gripped or held by a hand and operated. It is characterized by detecting the position and orientation of an object.
  • the motion detecting device mounts a motion detecting device on an object, and obtains the sky of the object based on the inertial motion information of the object and the camera position and orientation information obtained from the surrounding images. The position and orientation in the interval are detected.
  • FIG. 1 is a block diagram for explaining an outline of a functional operation of the motion detection device according to the embodiment of the present invention.
  • FIG. 2 is an external view of an operation input device including an imaging unit and the like.
  • Figure 3 shows the relationship between the space sensor frame and the force sensor frame in the world coordinate space.
  • FIG. 4A is a diagram showing a relationship between a light ray incident on an isosteric projection lens and its projected image.
  • FIG. 4B is a diagram showing the relationship between the feature point search start position and the image projection classification mask image.
  • FIG. 5A is a configuration diagram of an optical system in the motion detection device.
  • FIG. 5B is a diagram illustrating an image captured by the optical system of FIG. 5A.
  • FIG. 6A is a configuration of an optical system using the four-sided mirror system.
  • FIG. 6B is a diagram showing an image captured by a mirror type optical system.
  • FIG. 7A is a configuration diagram of an optical system using a parabolic surface.
  • FIG. 7B is a diagram showing an image captured by an optical Byone system using a parabolic surface.
  • FIG. 8 is a block diagram for illustrating a functional operation related to image processing in the motion detection device according to the embodiment of the present invention.
  • Figure 9A is a diagram showing the appearance of the frame image captured through the optical system and the extracted feature point image.
  • Fig. 9B is a diagram showing the state of the search feature and the image on the frame image captured after the spatial sensor has been rotated and moved.
  • Fig. 10A shows the registered feature points. It is a conceptual diagram of a server when image information is registered in a memo.
  • FIG. 10B is a diagram showing the state of the feature after the movement and the state of the image after the movement.
  • FIG. 11A and FIG. 11B are examples of recording characteristic point images in the embodiment of the present invention.
  • FIGS. 12A and 12B are examples of registered features and images in another embodiment of the present invention.
  • Fig. 13 is an image diagram of the behavior of a feature on a continuous frame image.
  • Figure 14 is an image diagram of the characteristics obtained by the image sensor, the image position ⁇ of the force frame of the image, the depth information, and its uncertain elements.
  • Fig. 15 shows how the difference between the posture information and the depth information associated with the feature point information gradually becomes smaller by repeating the feature occupation and ⁇ switching processes.
  • Fig. 16 is a diagram showing the uncertainty of the m-motion vector gradually decreasing.
  • Figure 17 shows the relationship between the spatial attitude information k at the time of recording a particular feature point, the previous attitude information (n-1 1), and the attitude information n to be obtained next.
  • Figure 18 shows the relationship between the uncertainties in the motion vector.
  • FIG. 1 shows the schematic configuration of a space sensor system to which the motion detection device according to this embodiment is applied.
  • Output signals from the angle sensor 10 and the acceleration sensor 20 arranged in the XYZ axis directions on the space sensor frame ⁇ H ⁇ are taken as inertial position and orientation information by the inertial motion detector 30.
  • the O peripheral image information continuously captured by the imaging unit 40 is input to the image comparison unit 50.
  • the force position sensor frame ⁇ C ⁇ is required by the camera position / posture acquisition unit 60. Then, the inertial motion detection unit 30 and the force camera 1 position and orientation acquisition unit 60 are used to calculate the field coordinate space ⁇
  • the image comparison unit 50 uses information from the inertial motion detection unit 30 in order to lower the calculation processing cost. are doing.
  • FIG. 2 shows a conventional inertial sensor group for detecting a hand shape and a posture position.
  • FIG. 2 shows a state in which a space sensor 1 including an imaging unit 40 and the like described above are arranged on a hand.
  • the inertial sensor group 2 includes the above-described three-axis angular velocity sensor 1 to detect the position and posture of the operator's hand and its movement.
  • the rotational motion and the translational motion of the back of the hand can be obtained from the information obtained from the acceleration sensor 20 and the angular velocity sensor 10.
  • the acceleration sensor 20 combines the gravitational acceleration due to gravity and the inertial acceleration due to inertial motion.
  • the inertia acceleration information and the gravitational acceleration information are separated based on the angle information obtained by the calculation.
  • the inertial acceleration information based on the inertial motion output from the acceleration sensor 20 obtained in this way becomes zero when the object is moving or stopping at a constant speed, so it is difficult to distinguish the motion state.
  • the rotation attitude information in space by the angle sensor 10 includes an error due to the U-off, so the rotation attitude information by the angular velocity sensor 10 includes the gravitational acceleration of the acceleration sensor 20. Correction processing is performed as a base. Positive cannot correct the rotation s around the heavy shaft ⁇
  • an optical system for projecting a surrounding image, and imaging for detecting interlocking information in six spatial directions from the image including the image sensor 40a as the unit 40
  • the optical axis direction coincides with the back seat key axis direction of the hand, that is, the vertical direction of the back of the hand.
  • the 40a lens is a fisheye lens having an angle of view of 1801.
  • the optical axis direction and angle of view are not limited to
  • an inertial sensor group 2 composed of an acceleration sensor 20 and an angular velocity sensor 10 in the space sensor 1 and an image sensor that acquires a posture from peripheral images
  • FIG. 3 shows the relationship between the attitude frames of each sensor between the field seats.
  • the sensor that detects the attitude (pose) in the field of coordinate space ⁇ W ⁇ is assumed to be a space (orientation) sensor 1.
  • the frame that represents the position and orientation to be used is the space sensor frame ⁇
  • the inertial sensor group 2 is a space sensor 1 Configured above.
  • the axis of inertia sensor group 2 attitude detection (inertial sensor frame) matches the frame of space sensor 1 and that image sensor 40a has
  • the camera position / posture information obtained from this is the position / posture (pose) information of the camera sensor frame ⁇ C ⁇ with respect to the world coordinate space ⁇ W ⁇ .
  • Ux constant frame conversion matrix
  • Fig. 4A outlines the incident light and the outgoing light of the optical system of this embodiment.
  • This optical system has an image height (y) at the image plane with respect to the incident angle (0).
  • the shape of the image changes as the incident angle increases, and the optical system of
  • a wide-angle fisheye lens or the like can also be configured as a distance projection lens or other forms.
  • the angle of view is an optical system with a 180-degree angle, and if the optical axis is oriented in the zenith direction, The image of the entire sky is projected onto the image sensor 40a
  • the incident light beam is expressed as follows: the angle from the zenith, that is, the angle ( ⁇ ) with respect to the center of the optical axis (I) of the projected image shown in the lower part of Fig.
  • the projection position changes to a position where the radius of the concentric circle increases.
  • the ray at an incident angle of 90 degrees is a ray from the horizon, and is projected on ⁇ of the circumference.
  • azimuth Light rays from the direction are projected onto a line that coincides with the azimuth of the center line of the circle in the projected image.
  • FIG. 4A shows the relationship between the image height and the angle of force with respect to the incident ray angle on the projected image.
  • Figure 5A shows an example of another implementation.
  • a super wide-angle optical system lens 4 10 is installed above the cylindrical housing 4 6, and the image sensor
  • FIG. 5B shows an image image of the optical system as shown in FIG. Fig. 6A, Fig. 6B, and Fig. 7A Fig. 7A show a modified example of another optical system and an image image by the optical system.
  • Fig. 6A shows an example of a configuration in which four plane mirrors 6a, 6b, 6c, and 6d are attached to the side surfaces of the pyramid 411.
  • Ra-It is also possible to obtain images in more directions by increasing the number of images.
  • the projected image by the optical system is a central projection divided into five regions, so the image information
  • the spatial position direction of the special point can be easily obtained by the linear transformation formula.
  • the following figure 7A shows a modified example using a parabolic surface. Place what you have done. Parabolic mirror-The peripheral image reflected on 7a is projected onto the image sensor 420 through the imaging lens system 47, and the radiation surface shape in Fig. 7A 4 1
  • the fortune-teller is under stress.
  • Both the top surface 7c and the bottom surface 7b are transparent or transparent.
  • the peripheral image in the optical axis direction of the imaging lens system 47 is transmitted and projected onto the image sensor 420, so as shown in Fig. Image 7A in all directions orthogonal to the optical axis and image 7B in the optical axis direction are simultaneously
  • the image of the reflected image at the parabolic mirror 7a is circular, but an image 7D in the same direction as the transmitted image at the center is projected outside of the mirror. 5 It is possible to occasionally capture more ⁇ images than the first type
  • FIG. 8 is a diagram functionally showing processing performed inside the image comparison unit 50 and the force camera position / posture unit 60 in FIG. 1 described above.
  • the light is converted from an optical image into a signal by the imaging unit 40 through the projection optical system 410 and stored as image data. Next, this image data is input to the image comparison unit 50.
  • a mask data processing 51 is first performed in the image comparison unit 50. And the mask one evening processing 5
  • the peripheral image captured as a continuous frame image after 1 is processed with the image of the previous frame 500, and the processed image is further processed.
  • this edge extraction process 52 in order to obtain an edge portion of the input image, differential markers in the X direction and the Y direction (for example, Sobe 1 array) are used. )
  • a characteristic occupation image extraction processing 54 is performed to obtain the relative movement of the peripheral image from the image data.
  • a wedge of the input image around a predetermined coordinate position is detected, and the point is evaluated to search for a feature point and extract a feature point.
  • feature point initial search position information is defined with a search start coordinate position as a black point and a rectangular area around the black point as a search range.
  • Information used for feature point extraction such as feature point initial search position information, is stored in the new feature point search table 59.
  • V k a feature point image of a certain rectangular area centered on the feature point
  • a spatial sensor frame that is the attitude information for the Whirl coordinate space ⁇ W ⁇ already obtained at the time of registration.
  • the feature point registration process 56 registration work is performed for all feature points that can be extracted around the initial search position in FIG. 4A.
  • the registered feature point information is input next. Used in matching processing in frame images
  • the next switching processing 53 is not performed, and the processing of the image comparison unit 50 ends.
  • an initialization process 64 is performed, a process of initializing the position / posture information is performed, and the next input frame image is processed in the same manner as described above. Performs mask mask overnight processing 51 and inter-frame processing and edge extraction processing 52
  • the registered flag of the feature point information is checked, and if the feature point registered here, that is, the registered flag is set. In the vicinity of the registered feature point coordinates (U k, V k) in the current frame, a search is made for the part with the highest correlation with the registered image. If the correct position is found, it is stored as the current feature point coordinates, and the feature point search flag is set. If not found, the registered flag and feature point search flag of the registration information are reset. I do.
  • the matching processing is performed while scanning the feature occupation image within a certain range with respect to the registered feature point position as the normal matching processing 53.
  • the location with the highest correlation value is set as the matching position, and this point is set as the feature point matching coordinate (UV-1).
  • a correlation value exceeding a certain reference value is determined, it is determined that a feature point has been correctly searched.
  • the image captured through the projection optical system 410 according to this embodiment is determined.
  • Figure 9A shows the state of the rem image and the extracted feature occupation image.
  • Figure 9B shows the state of the search feature point image on the captured frame image after the spatial sensor 1 rotates. ;;
  • Figure 1 shows the state of the search feature point image on the captured frame image after the spatial sensor 1 rotates.
  • 0 A is the Togi data that registered the registered feature occupation image information of
  • -It is a general instruction map of the evening where the registered feature occupation image is an image data of 15 x 15 pixels of 8 bit V gradation and the center pixel of the evening (77) coordinate value Is usually managed as a series of texts starting from the upper left pixel in the memory, which is the set of feature point coordinates (U k V k).
  • the feature occupation image data moved as shown in Fig. 10B with respect to the input frame image is used in the matching process 53.
  • Kahachi ⁇ Join the image data of a certain registered feature point image and search for the point where the integral value of the absolute value of the difference of each pixel is the smallest. For this reason, in the correlation processing, it is necessary to add the translational address of the size of the search area to the feature point coordinates (U k V k), which is the starting address, and also perform a rotation operation by affinity transformation. There is a need to perform a scan that combines the parallel and rotational movements to search for a single feature point image, which requires a great deal of calculation processing. In addition, this must be performed for all registered feature points, resulting in an extremely large number of computational processes.
  • the position and orientation of the current spatial sensor frame n updated at this time (meaning the coordinate conversion to the current sensor frame n as viewed from the world coordinate system) ⁇ Q H n ⁇
  • the sensor flat at the time when each feature point is registered Is k. Inverse of ⁇ H k ⁇ ⁇ k H. A ⁇ , each feature point using the registered by relative motion parameter representing the coordinate transformation to the current spatial Sensafure Ichimu n from Isseki ⁇ k H n ⁇ or Ru inverse transform der its ⁇ n H k ⁇ Estimate.
  • this parameter is expressed as follows: For example, the coordinate value (x k , y k , z k ) at frame k becomes the coordinate value (x n , y n , ⁇ ⁇ ) at sensor frame n. If you respond,
  • This matrix can be represented by three independent parameters ( ⁇ ,, ⁇ y , ⁇ ⁇ ).
  • n T k represents the translation vector and three independent parameters
  • the coordinate occupancy (U k V k) of the registered feature occupation (U k V k) in the current frame image is estimated from the relational expression between the motion parameters and the projection optical system.
  • the search area can be reduced by searching near the obtained feature point movement estimation locus (UP rd V rd rd), which can reduce the cost of computational processing.
  • Fig. 11B is a diagram showing the state in which the position and area of the feature point image at the time of recording have been moved to the position based on the estimated X ⁇ movement estimated pixel coordinates. The coordinates were thus transformed.
  • Special occupation image is not original rectangular image shape ⁇ deformed by projective transformation
  • the scenery is large ⁇ the X-box in front of the moving object, or there is a fluctuating area in the ov-box. If there is a fluctuating image component such as in the feature point image obtained from the feature point, a There may be a case where the line and the matching become inconsistent with the conventional method.
  • the recorded XY pixel coordinate area is provided. Therefore, in order to obtain the coordinate value of each pixel at the time of recording, the pixel area of the registered feature point image is set to be a rectangular area fixed vertically and horizontally around the feature point. Therefore, the coordinate value of each pixel is obtained from the vertical and horizontal values of the rectangular area, and then the estimated coordinate value for the search is obtained from the coordinate value by a transformation formula of the projective transformation.
  • the coordinate value of the registered pixel position can be registered, it is not necessary to limit the shape to a rectangle, and any shape of the feature point image can be registered. . Even seemingly complicated processes with complicated shapes can be executed by repeating simple processes.
  • FIG. 12B shows a state in which the movement position and rotation of the feature point image at the time of registration and the feature point image for search in the above modified example are estimated.
  • the registered feature point images need not be rectangular, c, ⁇ ⁇ , and even if the original shape of the estimated search feature point image changes, the matching process must be performed with only simple calculations. It comes out.
  • the current spatial sensor frame ⁇ n H used to estimate the position of movement up to this point. Up to that point, the information has been updated by the inertial sensor group 2 to update the frame information in the i73 ⁇ 4-position / posture acquisition unit 70 ⁇ . Inverse of ⁇ H n ⁇ ⁇ n H. ⁇ , The image sensor 4 2 A new value of 0 indicates information that reflects the result obtained in the previous image processing. Therefore, errors due to the drift of the inertial sensor and the like may have accumulated.
  • the error that occurs during the update rate by 20 is a very small value
  • the current force camera posture information ⁇ nC ⁇ is obtained by the camera position / posture acquisition unit 60.
  • the force camera position / posture acquisition unit 60 is formulated as tracking the movement (relative movement) of the Old coordinate system around the camera seat.
  • the spatial sensor frame ⁇ H ⁇ and ⁇ Hw ⁇ coincide with each other.
  • the characteristics obtained from the image sensor 420 are as follows. The feature points whose depth information z is known are registered. Note that this depth information indicates depth information for the sensor frame system. The initialization processing 64 will be described later. Than this
  • ⁇ N C ⁇ and ⁇ n H ⁇ denotes the state to obtain extinction from appearing feature points on a plurality of images images Su Bok rie beam to perform the following description with as equivalent to FIG. 1 3 .
  • the feature point i first appears in the frame image k, and the feature occupancy disappears in the frame image (n-2). For each of these frame images, matching processing 5 3 and feature point registration processing 5 3
  • feature point coordinates (U, V) and depth information z are used as related parameters of the feature point.
  • feature point coordinates of this assign a maximum value indeterminate element sigma z for the depth information z (UV
  • the contents of each feature point information are represented as follows.
  • the above-mentioned parameter-evening is associated with each feature point, using each feature point as a mark.
  • Figure 17 shows the relationship between each frame.
  • k is the frame number at which this feature point first appeared in the image
  • (u ', V') are the coordinate values of the feature point in frame n.
  • cov (u ', v') is the covariance matrix at frame n.
  • ⁇ n H Q ⁇ is updated.
  • ⁇ n H k Once the update of ⁇ is obtained, ⁇ n H. by using the Ka 1 man filter again. ⁇ Can be updated.
  • N H 0 n H kk H 0 et al of the, ⁇ n H k ⁇ and ⁇ k H o ⁇ and measurement, and, K parameters that are calculated by alman Phil evening ⁇ n H. ⁇ . Therefore, (, ⁇ ⁇ , ⁇ ⁇ , ⁇ ,
  • Equation 3 a, b, p, and 0 in (Equation 3) are vector amounts.
  • use a K alm a n filter.
  • Figure 18 shows the state of p after updating.
  • the depth information z defined in the frame k is estimated. Thereafter, the Kalman filter is applied to only the motion vector P in order. Then, after updating the p, it is possible to reduce the uncertainties sigma zeta of z by applying a K a 1 man filter again. This is done in the following way. ? ⁇ ⁇ / ⁇ ,,,! After ⁇ is calculated, H t ⁇ is again formulated using the following (Equation 4 ).
  • the relationship between the position and orientation of the initial frame 0 based on the frame ⁇ indicating the current state is ⁇ ⁇ ⁇ .
  • ⁇ Is estimated (updated) the position and orientation of the current frame with respect to the world coordinate system ⁇ .
  • ⁇ ⁇ ⁇ is calculated as its inverse matrix (inverse transformation). That is,
  • the camera position / posture acquisition unit 60 keeps track of the feature point information from the appearance of the feature point to the disappearance of the feature point, and continuously updates the three-dimensional information of this feature point. Furthermore, when another feature point appears, the camera frame information can be continuously updated by inheriting the three-dimensional information of the current feature point information. But the first space When the sensor is activated, none of the feature points has three-dimensional information, so each feature point can only acquire relative depth information. Therefore, in the initialization process 64, a process of giving depth information to one or more known feature points is performed. First, the first method of the initialization process will be described.
  • an identification mark of known size can be, for example, a feature point mark separated by a known interval, or an identification mark having a shape of a known size.
  • the initialization processing 64 is performed in a state such as a power-on reset processing after power is input or a forced reset processing by a set switch.
  • the wearer performs this initialization process 64 at the position where this identification mark is input to the image sensor 40a.
  • the reset and gesture of the hand (for example, when the shape of the hand and the shape of the hand are changed)
  • the operation can be performed by defining the operation as a reset operation).
  • the image sensor 40a first detects these identification marks, and initially registers depth information z of a feature point extracted from the identification marks based on the known size.
  • the camera position and orientation The acquisition unit 60 can keep updating the force frame while associating the registered depth information Z with other feature point information.
  • the identification mark is attached to the wearer's own body, as in the second method of the initialization processing.
  • Some methods do not require information.
  • the pose of the body for example, hand position / posture, head position / posture, etc.
  • initialization processing is performed.
  • a pendant serving as an identification mark is attached to the chest.
  • a contour gesture operation is performed.
  • the image sensor 40a on the back of the hand recognizes the characteristic occupation of the predetermined image input area, and registers the depth information z with a known value. Therefore, it is necessary for the wearer himself to measure the initialization pose and the distance from the image sensor 40a to the known feature point at that time in advance, and input that value as the initial value.
  • it is sufficient that the position of the feature point can be recognized it is not necessary to recognize the size, distance, shape, or the like of the feature point, and the identification mark can be reduced.
  • the third method of initialization processing does not attach a special identification mark to the body, and the size and positional relationship of the body itself are known. This method is used as a feature point. There are two types of methods, similar to the above-mentioned methods.
  • the first method measures in advance the dimensions of the wearer's own body, which is the initial feature occupancy, and records it in the initial stage. Is used as a known distance. Alternatively, the width of K or the width of the shoulder may be used as the known distance.
  • the initialization process is performed with a predetermined body pose, and the feature occupation position of a part of the body is always extracted from a fixed distance, and the feature point position is determined by the image sensor 40. This is to be input to a.
  • the distance of the head is recorded as a known distance, or both hands are opened at regular intervals, and the position of the other hand from one hand Register a known distance by using a gesture for measuring the distance to the camera as the initialization pose
  • a reset gesture operation is performed at a predetermined position in front of the body.
  • the image sensor 40a on the back of the hand always extracts the image of the face within a certain range of azimuth and angle of incidence, and records the feature points as known feature point information.
  • the search range of known feature points during the initialization process can be limited.
  • the third method it is possible to perform initialization processing without wearing a special separate mask that is a characteristic occupation on the body, and it is possible to further improve the operability
  • the fourth method of the initialization process uses the relationship between the surrounding environment and the posture at the time of initialization.However, when the above-mentioned input device is used for the manipulation input operation, the figure during the U-set gesture operation is used. For example, it is determined in advance that the force should be performed with the back of the hand facing down with the user standing upright tl, or with the hand posture such that the image sensor 40a can see the information of the foot. In addition, the distance from the back of the hand to the floor in this position should be measured in advance and registered in advance. At this time, the feature occupancy extracted from the footstep image can be registered as the feature occupancy of this known distance information.
  • the motion detection device attached to the head or the like can be used as distance information, for example, the height of a person in a standing position as distance information. Since the image can be detected by the information of the acceleration sensor 20 in the space sensor, it is always possible to identify the special occupation that becomes the image information of the foot fox. The distance to the feature point can be estimated from the angle information of the characteristic occupation of the foot and the distance to the spatial sensor and the foot from the foot. Therefore, it can be used not only at the time of initialization processing, but also by occupying features that always know depth information.In the case of, it is necessary to use in a limited environment with open feet. Become.
  • the fifth method of the initialization process is to perform the initialization operation in advance.
  • This is a method that performs initialization processing by performing operations such as X-stitch that performs known luck.
  • the initialization process is first started by an initialization start gesture operation (for example, a goo operation is a start operation). .
  • the initialization information is obtained by moving the hand from the preset initial position to the end position ii to perform an initialization end gesture operation (for example, a paging operation as an end operation). End input of.
  • an initialization end gesture operation for example, a paging operation as an end operation.
  • End input of For this movement, it is important that the straight line distance is always constant and a known distance, including the first and last movement.For example, a series of movements from when the hand is extended forward to when it reaches the body The moving distance can be used as almost constant distance information.
  • ⁇ - depth information can be registered. This method does not directly use information about the dimensions and positional relationship of the body, but rather uses information on the operating range of the operating unit of the body.
  • the initial registration of the depth information z for the initial feature point can be performed by various methods. These can be used alone or in combination with each other.
  • the initialization method to be used can be changed by the gesture operation at the time of initialization.
  • the search method of the new starting position for the feature point search will be described. If the recorded feature point image cannot be searched in the matching process 53, the information will be discarded but the number of feature points will be small. The amount of information required to determine the position parameter is reduced and the calculation accuracy is reduced.
  • the input direction of the feature occupation image is input from all directions as much as possible, the accuracy of the posture information will be increased, so that matching of feature points can be achieved. If it is discarded otherwise, it is necessary to find and register a new feature point, and furthermore, the input direction of the image of the feature point must be registered and tracked. Must be in a different direction than the direction
  • Fig. 4B shows an image obtained by expanding the mask data used for the mask data processing 51 described above.
  • Projection classification mask 7 The part where it is necessary to omit the peripheral image processing, etc., is set to ⁇ 0'.However, the inside of the circular shape of the projection image is embedded with numerical information other than Factory 0J. In addition, numerical data is embedded in a certain segmented area, and the input image direction of the feature point currently being searched is determined based on this data.
  • the circular are divided in several areas of partitioning in the azimuth direction and two concentric circles, each concentric circle in section.
  • the outer concentric circles are six regions, and the middle concentric circles are also six regions, but they are separated in a different direction from the outside.
  • These territories In the area, there is embedded a classification text that serves as a symbol for identifying each area.
  • the identification number of this area contains the search start coordinate for the new starting point for searching for a feature point.
  • the search start coordinate value is determined by the position of a black circle drawn at the approximate center of each image projection section mask data area in FIG. 4B.
  • the section data corresponds to the image projection section data 58 in FIG.
  • the approximate incident direction can be known by obtaining the section data of the image projection section mask image corresponding to the tracking coordinate value. However, it is not necessary to particularly know the angle of this incident direction, etc.
  • the search is performed for all the registered search points of the special points, and the segment number for which there is no special point currently being searched for
  • the search start coordinate value of the section number may be registered in a new feature point search table for searching, so that the new search feature point
  • the incident direction of the image can be dispersed
  • the incident ray angle (0) and azimuth angle at each feature point are calculated by the transformation of the projective transformation from the current feature point image coordinates.
  • the incident directions of all the feature points are analyzed, and then the next search direction is determined. More complex processing is required for this conversion process, such as splitting the incident direction.
  • the number and direction of the search It can be easily changed just by changing the contents of the screen.
  • a function of determining and managing the validity of the object as the feature point can be used.
  • the force camera frame ⁇ n0 ⁇ obtained from the relative movement of all the feature points is obtained.
  • the relative posture ⁇ between the image processing cycles is obtained from the previous posture information.
  • the relative motion parameter of ⁇ ⁇ ⁇ !! ⁇ The difference between the estimated coordinate value at the time of estimating the current motion of each feature point and the actual matching coordinate value is evaluated. If the evaluation value is larger than a certain threshold, The characteristic divination is determined as an invalid feature point.
  • the feature point registration flag is reset while the feature point search flag is set.
  • the special occupation that is determined to be invalid is stored in the image comparison unit 50.
  • the invalid feature point tracking processing 55 processing is performed so that the area where the feature occupancy determined to be invalid exists is not registered. That is, it is managed as invalid feature information so that it is not added to the new feature point search information again.
  • the ant effect feature point is that the feature point registration flag is reset and the feature occupation search flag is set o, and the feature point registration flag or feature point search flag is 'set'
  • the matching feature points are subjected to normal search processing in matching processing 53. Therefore, the tracking flag is set again for the feature point that has been correctly matched here.If the matching has not been performed correctly, the feature point registration flag and the feature point have been set. Both search flags are reset, and validity • Feature point information is discarded regardless of the effect. Next, the invalid feature points for which the feature point registration flag force has not been set are not used in subsequent calculations for obtaining the posture information in the force camera position / posture acquisition unit 60.
  • the effective feature points cause three factors in camera posture 0, so if they are simply discarded, there is a high possibility that they will be extracted as feature points in the next image processing cycle. It will be used again in the posture calculation process, etc.o Therefore, tracking those positions and managing the effective special point 1- will reduce the calculation process and seek the accurate posture
  • the size of the registered image and the search range for estimating the feature points are fixed as shown in Fig. 4A. % In terms of the translation of the measured object, the movement is small at each feature point of the 3S, 000 objects, but the movement at each feature point of the near-occupied object is larger than that of the long-distance occupation. Depth information estimated from nearby feature points has a large effect on the degree of measurement.
  • the characteristic point is determined as a distant characteristic point.
  • the process of reducing the size of the registered image ⁇ to change the size of the registered image and increasing the search range is performed by the ⁇ adaptive feature image determination means '' described in m It is time to respond to processing.
  • the optimal occupation is required unless the optimal registered image size or search range is changed according to the distance information.
  • the deformation and movement range of the registered image become larger with respect to the posture change, so that it is not possible to perform correct ⁇ matching in feature occupation search ⁇ o
  • the space sensor of this embodiment is a body movement detection device that can be attached to a part of the body to be measured, and can measure the spatial appearance of the part in six degrees of freedom, as well as being worn on the hand or head. It can be used anywhere, as there is no need to install a reference signal source near or around unlike sensors that use light or magnetism. Even if multiple devices are installed at the same time, they can be used without mutual interference or a reduction in the data update rate.
  • the space sensor of this embodiment is attached to a digital force camera or the like, it is possible to simultaneously record the spatial attitude information when continuously taking images. It can be used as information for reconstructing the 3D information of the target object, which is based on these shooting information and spatial attitude information, and can also be used as a 3D image data construction power camera. Monkey
  • a motion detecting device capable of accurately recognizing the spatial position, posture, and motion of an object to be mounted, and such a motion detecting device directly or indirectly attached to the body.
  • a motion detecting device capable of recognizing a motion of a body part, such as a gesture.
  • a motion detection device that detects a motion such as a position and a posture of the device to be operated.
  • the position and orientation in space are obtained by using the information of the peripheral image from the imaging means in addition to the information of the inertial motion obtained from the signal of the acceleration sensor or the angular velocity sensor, and the measurement is performed. Measure the position and orientation of the object more accurately.
  • the projected image is a central projection divided into five regions, the spatial position and direction of the feature point can be easily obtained by the linear transformation formula of the image information.
  • the number of plane mirrors is larger than that of the plane mirrors.
  • images from the entire sky can be captured at the same time.
  • a sensor using light or magnetism can be used without having to install a reference signal source near or around the sensor. Even if they are installed at the same time, there is no mutual interference and no reduction in data update rate.
  • the prediction of the current position of the feature point and the rotation processing of the peripheral image is performed at a very high speed by predicting the prediction based on the attitude information from the inertial sensor.
  • the search range was narrowed when the amount of movement of the inertial sensor was small.
  • the moving distance is large, it is possible to switch between the two purposes of improving the processing speed and improving the analysis accuracy by expanding the search range.
  • the pixel and the coordinate value are set as the corresponding information, so that the comparison process can be easily performed even if the pixel information is converted into discontinuous or multiply accumulated image information. Matching processing can be performed in a scattered state, and processing can be performed more accurately and at higher speed.
  • each pixel of the registered image is managed as occupied image data, so that it can be viewed as a local corresponding in the frame image or as a special pixel corresponding to the entire image.
  • the feature area can be widened or narrowed according to the complexity of the image to be captured, and the processing accuracy and processing time can be controlled as a pretext.
  • fc exceeding the threshold value is determined as an effective feature, and only fixed or stopped objects in the surrounding images are used as reference information. More accurate momentum
  • the position of effective feature points is tracked and their image positions are managed, so that the total processing is reduced.
  • the depth information having a small difference is obtained by always performing the feature point detection processing without putting a reference mark such as a known feature point in the visual field. You can continue to seek information.
  • the invention of 14th it is possible to easily know the projected image direction and classification from the current feature point position and to perform the calculation processing at high speed.
  • the image size and the search range for matching are changed to optimal values based on the depth information of the registered feature point information, thereby improving the accuracy of the posture detection and optimizing the processing speed.
  • the initialization process can be easily performed anytime and anywhere.
  • the initialization process can be easily performed anytime and anywhere, and can cope with a change in the shape of the identification mark.
  • the twenty-second invention it is not necessary to attach a special identification mark at the time of initialization, and the feature occupation can be corrected even during measurement after initialization.
  • the motion detection device by attaching the motion detection device to the object to be gripped or held by the hand, it is possible to detect the motion of the device to be operated, such as the position m posture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

加速度センサ(20)又は角速度センサ(10)の少なくとも一方を用いて測定対象物の慣性運動を検出する慣性運動検出部(30)と、測定対象物の周囲の画像を撮像する撮像部(40)と、この撮像部(40)により異なる時点で撮像された画像を比較する画像比較部(50)と、この画像比較部(50)により画像を比較した結果を用いて前記測定対象物の位置及び姿勢を検出するカメラ位置姿勢獲得部(60)と、慣性運動検出部(30)及びカメラ位置姿勢獲得部(60)によって得られた情報をもとに、測定対象物の空間上での位置及び姿勢を検出する空間位置姿勢獲得部(70)とから構成する。

Description

運動検出装置
技術分野
本発明は 物体の位 、 姿勢及び動きを検出する運動検出 装置に関する ちのである
技術 明
操作者の手にセンサを ¾¾ ¾"糸し、 手の形状や動きを検出して の検出結果に基づいて信号を発生させる技術は従来から知 られていた
例えば、 米国特許第 5 0 9 2 5 2 号公報では、 光源と光セ ンサとを光フ ァィ 等の導光路で接続してなるセンサを手の 関節に複数取り付けて当該関節の曲がり を検出する技術が提 案されている
また、 特開平 9 ― 6 2 4 3 7号公報では、 手袋を嵌めた手 の甲に 2つの加速度センサを配置して手の 2次元方向の移動 を検出し、 また、 手の人差し指の関節部分に 1 つのス トレイ ンゲージを配置して当該人差し指の屈伸運動を検出する、 マ ウス代用のコンピュータ入力装置が提案されている。
さ らに、 本出願人による特開 2 0 0 0 - 1 3 2 3 0 5号公 報では、 手の甲に位置及び姿勢を検出する 3軸角速度センサ と 3軸加速度センサとを配置し、 人差し指の端部、 中指の端 部、 親指の端部及び中央部に指の折り 曲げを検出する 1軸角 速度センサを配置して手の甲の位置 · 姿勢と指の姿勢とから 手の形状を推定して、 この手の形状や動きなどのジエスチヤ に基づいてコマン ド信号を生成する操作入力装置が提案され ている。
前記特開 2 0 0 0 — 1 3 2 3 0 5号公報で提案されている 技術、 即ち、 操作者の手の甲の位置及び姿勢を 3軸の角速度 センサと 3軸の加速度センサを含む慣性センサで検出し 、 指 の姿勢を端部の 1軸の角速度で検出してこれらの丁一夕に基 づいて手の形状を推定し 、 この手の形状に基づいて マン ド、 信号を発生させる技術は 、 刖記米国特許第 5 0 9 2 5 2号公 報や前記特開平 9 一 6 2 4 3 7号公報のような関節部にセン サを配置する技術と比較して、 個人の手の大きさを考慮して センサ位置を決定する必要がないので、 汎用性がめ Ό 、 誰で も簡単に利用できる。 しかし、 操作者の手の甲の速又、 1 rfなとの並進 動の検 出に加速度センサの時間積分を利用して、 手の甲の位置 • 姿 勢を正しく求めよう とする技術では 、 手が停止している場 と定速移動をしている場合の区別が困難である フま Ό 、 前 述の技術では、 手が停止している状態でのジェスチャ と 、 手 をほぼ一定の速度で動かすようなジエスチヤとを 別する とが困難であった。 そ で、 ィメ一ジセンサによ て 像さ れる画像の中の自然特徴点の二軸方向の動きを検出する画像 ヽ
I Cセンサと組合せ、 周辺の自然画像の動きと慣性セノサと の対比をとることによ り 、 手の甲の姿勢を正しく求めよ Ό と する方式が考えられている。
しかしながら、 この画像 I Cセンサを用いる場 σ も 、 限ら れた画像 I Cセンサ数の士 ¾
には、 予めどの方向の画像を取 り込むようにしておくかか、 な問題となる よたゝ 多 <の 方向の画像を同時に入力しよう とすると、 その画 ί象 I Cセン サ数を増やさなければならない のため 、 構成要表が増 てしまい、 また処理も重たくなつてしまう
発明の開示
本発明は のような課題に着巨 してなされたものであり その目的は 被装着物の空間位 βと姿勢及び動きを正確にき 識できる運動検出装置及びこのような運動検出装置を直接あ るいは間接的に身体に装着することで 、 体の部分の動きやジ ェスチヤなどを認識できる運動検出装置を提供する とにあ また、 のような運動検出装置を装着した物体を把持あ るいは持ちながら操作することで 操作する装置の位 g 姿 などの動ぎを検出する運 検出装 を提供する とにめる 刖記の目的を達成するために、 第 1 の発明に る 動検出 衣 は 、 測定対象物の
Figure imgf000005_0001
置及び姿勢を検出する運動検出装置 であ て、 加速度センサ又は角速度センサの少なく とも 方 を用いて刖記測定対象物の慣性運動を検出する慣性運動検出 手段と 、 刖記慣性運動検出手段と固定され前記測定対象物の 周囲の画像を撮像する撮像手段と 刖記撮像手段に Ό異な る時点 乙、 像された画像を比較する画像比較手段と 記画 像比較手段によ り画像を比較した結果を用いて前記測定対象 物の位置及び姿勢を検出する力 メ ラ位置姿勢獲得手段と 刖 記慣性運動検出手段及び前 力メ ラ位 姿勢獲得手段によ て得られた情報をも とに、 記測 対象物の空間上での位置 及び姿勢を検出する空間位置姿勢獲 手段とを具備する と を特徴とする の第 1 の 明による 検出 では、 角速度センサ又 は加速度センサの信号が慣性 動検出手段によ り取り込まれ、 これらのセンサの姿勢情報が求められる ま 严
た 像手段に よ り周辺の画像が撮影され 、 連続して取り込まれた画像から 特徴点が抽出される 。 画像比較手段は異なる時占での特徵点 の位置を比較する ことにより特徴占の動さが求められる さ らに慣性運動検出手段によ て求め られた測定対象物の慣性 運動と 、 力メ ラ 置姿勢検出手段によ り検出された 間内で の測定対象物の \ 置姿勢の情報を とにして測定対象物の空 間上での位置及び姿勢が決定される
また 、 刖 SCの目的を達成するために 、 第 2 の発明による運 動検出衣置は 、 第 1 の発明において 、 記撮像手段は画像を 射影する光学手段をさ らに旦備し 、 前記光学手段は 、 少な < とも 4枚の平面鏡を含み 、 れら少な < とも 4枚の平面鏡に よ り ゝ 刖記測 対象物の周囲の画像を刖記撮像手段に射影す る光学系を備える ことを特徴とする
の第 2 の発明による運 検出装置では 、 少なく とも 4面 のミ ラ ―を用いて周辺画像を撮像手段に射影する とによ Ό 、 レンズ光軸と直交する 4 の画像と 、 レンズ光軸方向の a計
5 つの領域に分割された中心射影像となる
また 、 刖目己の目的を達成するために 、 第 3 の発明による 動検出衣置はゝ 第 1 の発明にねいて 、 前記撮像手段は画像を 射影する光学手段をさ らに目.備し 、 刖記光学手段は 曲面 ラ によ Ό 、 刖記測定対象物の周囲の画像を刖 Ρし 3¾像手段に 射影する光学系を備える とを特徴とする この第 3 の発明による議検出装置では、 結像レンズ系の 光軸と直交する全方向の画像と光軸方向の画像と ·* さ らに中 央を透過した画像と じ方向の画像が射影される
また 刖記の目的を達成するために、 第 4 の発明による 動 出 置は 、 第 1 の発明において、 前 5LJコ 像手段は画像を 射影する光学手段をさ らに具備し 、 刖記光学手段は 魚眼レ ンズによ り 前記測定対象物の周囲の画像を刖記撮像手段に 射影する光学系を備える こ とを特徵とする
この第 4 の発明による運動検出装置では、 眼レンズによ り全天周の画像が撮像手段上に射影される
また 刖記の目的を達成するために、 第 5 の発明による 動検出装置は 、 第 2 乃至第 4 の発明において 身体の 部に 装着して その装着した部位の位置及び姿勢を検出する と を特徴とする
また 刖記の目的を達成するために、 第 6 の発明に る運 動検出装置は 2 乃至第 4 の発明において 手の甲に 着 して、 手の位置及び姿勢を検出す を特徴とする
また 刖記の目的を達成するために、 第 Ί の発明による運 動検出装置は 乃主第 4 の発明において 部に装着し て、 頭部の位置及び姿勢を検出する こ とを特徴とする
これら 第 5 〜第 7 の発明による運動検出装 では 動 検出装置を装着した身体の位置及び姿勢が検出される
また 記の目的を達成するために、 第 8 の発明による運 動検出 ft置は 、 第 1 の発明において、 前記画像比較手 は 登録時の姿勢情報に対して、 W1記慣性運動検出手段によつて 検出し の位 及び姿 と刖記 ィ象手段の射影変換の関 係とから特徴点の移動位置及び探索範囲を推定する特徴占移 動推定手段を有し 特徴占移動推疋手段は、 追跡中の特 徵点を現在のフ レ ムから探索する画像マッチング処理を行
Ό とを特徴とする
の第 8 の発明による堪動検出装置では 、 画像処理手段に 含まれる特徴点移動推定手段によ て追跡中の特徴点が現在 のフ レ ―ムから探索される
また 刖 の目的を達成するために 9 の発明による運 動検出装 は 、 第 8 の発明において 前記特徵点移動推定手 段は 登録時の前記特徴占 の 置座 と m記特徴点の周辺 画像における各画素の情報と の各画素の情報を追跡する ための各画素の移動推定画素位置情報と 前記慣性運動検出 手段によつて検出された現在の位置姿勢情報と、 刖 し 像手 段の射影変換の閧係とか ら 各画素の移動 1 置を推定し 特 徴占移動後の画像を探索範囲内で走査して画像マ Vチング処 理を行う ことを特徴とする
の第 9 の発明による運動検出装置では 、 移動推定画像位 置情報を画素毎に求めて 特徴占周辺の各画素の情報が追跡 される また 、 画像マッチング処理において、 基 画像の 1 画素毎に光学系 · 画像入力系を含めた射影変換を推定した画 像位置の座標が対応付けられる
また 刖 己の目的を達成するために 第 1 0 の発明による 動検出装置は、 第 8 の発明において 前記特徴占移動推定 手段は 登録時に いて刖記特徴占を含む特徴点画像占にお ける各画素の情報と、 各画素の位置座標と、 刖 位 座 feを 追跡するための各画素の移動推定画素 置情報と、 前記慣性 運動検出手段によつて検出された現在の位置姿勢情報と、 刖 記撮像手段の射影変換の関係とから 、 各画素の移動位置を推 定し、 特徵ハ占、、移動後の画像を探索範囲内で走查して画像マツ チング処理を行う ことを特徴とする
この第 1 0 の発明による 動検出装置では 、 登録時の特徴 点画像の各画素について、 画素の位置を推定して位置座標が 追跡される この追跡された位置座 と慣性 ^動検出手段か らの現在の位置姿勢情報と、 撮像手段からの情報とから推定 された各画素の移動位置に基づいて採索範囲が決定され、 そ の範囲内において走查が行われる こ とによ りマッチング処理 がなされる
また、 記の目的を達成するために 、 第 1 1 の 明による 運動検出装置は、 第 1 の発明において 、 刖記力メ ラ位置姿勢 獲得手段は 、 各特徴点の運動 ラメ一夕 と特徴占、ヽに対して推 定された奥行き情報から求め られた力メ ラ位置姿勢情報よ り 、 各特徴点を含む画像から計測した運動 ラメ一夕 とカメ ラ位 置姿勢情報から求めた運動べク トルとの誤差を求め 、 この誤 差がある閾値を超える特徴点は無効な特徵ハ占、、 判 する無効 特徴点判定手段をさ ら に有する ことを特徴とする
この第 1 1 の発明による: ιί動検出装置では、 力メ ラ位置姿 勢獲得手 によって 、 各特徴ハ占、ヽの運動 ラメ一夕 と特徵点に 基づいて推疋された奥行き情報とから力メ ラ位置姿勢情報が 推定される また、 各特徵点の画像から運動パラメ —夕が計 測され、 各特徴点の画像から計測された運動パラメ一夕 と力 メラ 置 情報から推定された運動パラメ一夕 とが比較さ れる。 そして 、 比較された誤差がある閾値を超えるものにつ いては無効な特徴点と判定される
,ヽ
また、 刖記の目的を達成するために、 第 1 2 の発明による 運動検出装置は、 第 1 1 の発明において、 前記ハ、、効特徴点判 定手段は 、 刖記無効な特徴点と判定した特徴点に関する情報 を、 その情報が消滅するまで 、 刖記無効な特徴ハ占、、の位置情報 を追跡するハ、、効特徴点追跡手段さ らに する こ とを特徴とす
•3 。 こ の第 1 2 の発明による運動検出装置では、 ハ、、効特徴点判 定手段によつ てハ、、効特徴点が消滅するまで無効特徴点の位置 情報を追跡する こ とで、 無効特徵点の位置が常に把握される。
また、 f 記の目的を達成するために、 第 1 3 の発明による 運動検出装 βは、 第 1 の発明におレ て、 m gd力メ ラ位置姿勢 獲得手段は 、 特徴点の新規登録において、 特徴 ■m占ヽ情報として フレーム画像か ら見た 3次元情報と現在のカメ ラフレームと を登録し 、 前記特徴点が現れてから消えるまでの間の特徴点 を追跡し 、 それに ['ΐ して刖 §己フ レーム画像から見た 3次元情 報を更新し 、 さ らに、 別の特徴占が現れたときには、 現在の カメ ラ フ レ ―ムから求められる 刖記別の特徵点の 3次元情報 を登録する (― とによ り 、 連続する画像の中に現れては消えて ゆく複数の特徴点画像の位置を追跡し、 前記複数の特徴の動 さよ り ヮ一ル ド座標空間に対する現在のカメ ラフ レームを獲 得する こ とを特徴とする。 の第 1 3 の発明による運動検出装 では、 特徴占が現れ てから消えるまでの間 、 特徴点の 3 次元情報が追跡され更新 される た 新たに特徵点が現れた場合には現在の特徴点 情報の 3次 7C情報が引き継がれる。
また m記の目的を達成するために 第 1 4 の発明による 運動検出装置は 、 第 1 の発明において 刖 己撮像手段は 、 画 像を射影する光学手段をさ らに具備し 刖記画像比較手段は、 m記光学手段の入力光線軸を識別し、 区分する画像射影区分 マスク手段をさ らに有する こ とを特徴とする
の第 1 4 の発明による運動検出装置では 、 ½像手段に画 像を射影する光学系の入力光線軸を識別し区分するマスクが 設けられている
また m記の目的を達成するために 第 1 5 の発明による 運動検出装置は l の発明において 刖記画像比較手段は、 特徴占画像の奥行き情報を解析し、 その解析した奥行さ情報 に応じて登録時の特徴点画像の大きさ と特徴点探索範囲又は 特徴占 の登録数を切り替える適応型特徴点画像設定手段とを さ らに有する とを特徴とする。
の第 1 5 の発明による運動検出装置では 、 適応型特徴点
5 Ah手段によつて特徴点画像の奥行き 報が解析され その 解析された値に応じて登録時の特徴点画像の大きさ と特徴点 の探索範囲又は特徴点登録数が切り替えられる
また 、 刖記の目的を達成するために 第 1 6 の発明による 運動検出装置は 、 第 5 の発明において 既知の大きさ又は間 隔の特徵点口心 用識別マークの画像を初期化の時に取り込み、 の取 込んだ特徴占、 wt 用識別 クの画像の大ささ又は 間 よ り奥行き情報を求めて登録する初期化手段をさ らに有 する とを特徴とする。
の第 1 6 の発明による運動検出装置では 、 既知の大ぎさ、 又は間隔の特徴点 6^別用マ クの画像が初期化時に取り込ま れ れら取り込まれた特徴点の大ささ又は間隔情報から奥 行ぎ情報が求められ 、 登録される
また 刖記の目的を達成するために 、 第 1 7 の発明による 動検出 置は 5 の発明において 、 予め定め られた位置 に けられた特徴点 i、口戴用 5 別マ クの画像を この特徵占 。心識用識別マ クから既知の距離だけ離れた位置か ら取り込 み そのとぎの特徴点の奥行き情報を初期登録する初期化手 段をさ ら に有する とを特徵とする
の第 1 7 の発明による 動検出装置では 、 予め定め られ た位 βに けられた特徴占 B哉別マ クの画像が この特徴占 識別マ クから既知の距離だけ離れた距離から取り込まれ
の取 Ό込まれた画像に基づいて奥行き情報が登録される また 刖記の目的を達成するために 、 第 1 8 の発明による 動検出装置は 笛 yw 5 の発明において 、 初期化の時に身体の 部又は全体の画像を取り込み、 その取り込んだ画像と予め 移録しておいた身体の 部又は全体の形状や大きさから求め られる特徴点の奥行き情報を初期登録する初期化手段をさ ら に具備する ことを特徴とする
の第 1 8 の発明による 動検出装置では 、 初期化時に 身体の 部あるいは全体の形状ゃ大ささカゝら特徴点の奥行さ 情報が求め られ、 登録される
また 前記の目的を達成するために 第 1 9 の 明による 埋 検出装置は、 第 5 の発明において 初期化の時に、 身体 の特徴部の画像を既知の距離か ら取り込み の取り込んだ 画像から特徵点の奥行さ情報を初期登録する初期化手段をさ らに具備する こ とを特徵とする
この第 1 9 の発明に る 動検出 置では、 第 5 の発明に おいて 初期化時に、 運動検出装置の装着部か らの入力画像 に既知の距離の身体の特徴画像が取り込まれ、 の取り込ま れた画像に基づいて特徵占の奥行き情報が登録される
また 前記の目的を達成するために 第 2 0 の発明による 運動検出装置は、 第 5 の発明において 初期化の時に、 衣 ¾ 部から予め定められた方向及び距離の画像を取り込み、 この 取り込んだ画像中の特徴占の奥行き情報を初期登録する初期 化手段をさ らに具備する とを特徴とする
この第 2 0 の発明による 動検出装置では、 初期化時に、 予め定め られた方向及び距離の画像が取 Ό込まれ この取り 込まれた画像に基づレ て特徴占の奥行き情報が登録される。
また 前記の目的を達成するために 第 2 1 の発明による 運動検出装 は、 第 5 の発明において 初期化の時に、 装着 部位を規定の距離を移動させる動作を行い のとき取り込 まれた画像によ り の画像中の特徴占の奥行き情報を初期 登録する初期化手段をさ らに具備する とを特徴とする
この第 2 1 の発明による運動検出装置では、 初期化時に、 運動検出装置を装着した部位を規疋の距離を移動させる動作 を行い、 このとき取り込まれた画像に基づいて特徴点の奥行 き情報が登録される。
また、 前記の目的を達成するために、 第 2 2 の発明に運動 検出装置は、 第 2 乃至第 4の発明において、 手に把持あるい は持って操作する物体に固定あるいは装着して、 その物体の 位置及び姿勢を検出することを特徴とする。
この第 2 2 の発明による運動検出装置は 、 物体に運動検出 装置を装着する ことで、 その物体の慣性運動の情報と周囲の 画像から求めたカメ ラ位置姿勢情報をも とに その物体の空 間上での位置及び姿勢が検出される。
図面の簡単な説明
図 1 は、 本発明の実施例に係る運動検出装置の機能動作の 概要を説明するためのブロッ ク図である。
図 2 は、 撮像部等を含む操作入力装置の外観図である。 図 3 は、 ワール ド座標空間における空間センサフレームと 力メ ラセンサフ レームの関係図である。
図 4 Aは、 等立体射影レンズに入射する光線とその射影像 との関係を示す図である。
図 4 Bは、 特徴点探索開始位置と画像射影区分マスクデ 夕のとの関係を示す図である。
図 5 Aは、 運動検出装置における光学系の構成図である 図 5 Bは、 図 5 Aの光学系による撮像画像を示す図である 図 6 Aは、 4面ミ ラー方式による光学系の構成図である 図 6 Bは、 ミ ラ一方式の光学系による撮像画像を示す図で ある。 図 7 Aは、 放物面へ ラ一を使用 した光学系の構成図で る 図 7 Bは、 放物面 、 ラ一を使用 した光卞系による撮像画像 を示す図である。
図 8 は 、 本発明の実施例に係る 動検出装置の中の画像処 理に関する機能動作を 明するためのブ Dッ ク図でめる
図 9 Aは、 光学系を通して取り込まれたフ レ一ム画像とそ の抽出された特徴点画像の様子を示す図である
図 9 Bは、 空間センサが回転移動した後に取 Ό込まれたフ レ一ム画像上における探索特徵ハ占、ヽ画像の様子を示 "5 図である。 図 1 0 Aは、 登録特徴点画像情報をメモ に登録したとき のつ タの概念図である
図 1 0 Bは、 移動後の特徴ハ占、、画像フ 夕の様子を示す図で ある
図 1 1 A及び図 1 1 Bは、 本発明の実施例における 録特 徴点画像の例である
図 1 2 A及び図 1 2 Bは、 本発明の別の実施例における登 録特徴ハ占、ヽ画像の例である
図 1 3 は、 連続するフレ一ム画像上での特徴ハ占、、の振るまい に関するイ メージ図である
図 1 4 は、 画像センサによ 得られる特徴ハ占、、画像の力メ ラ フ レームの画像位 βと奥行き情報及びその不確定要素に関す るィメ一ジ図である
図 1 5 は、 特徴ハ占、ヽの ッチング処理を繰り返すし とで 、 特 徴点情報に関連付けられている姿勢情報と奥行さ情報の 差 が徐々に小さ く なる様子 ·≥:示したィ メ一ン図でめる 図 1 6 は、 m動べク ルの不確定要素が徐々 に小さ く なる 様子のィ メ一ン図でめる
図 1 7 は 、 ある特徵点の 録時の空間姿勢情報 k と一つ前 の姿勢情報 ( n一 1 ) と次に求めよう とする姿勢情報 nの間 の関係図でめる
図 1 8 は 、 動べク 卜ルの不確定要素の関係を示した図で め 。
発明を実施するための最良の形態
以下、 図面を参照して本発明の実施例を 羊細に説明する。 まず、 本実施例に係る 動検出装 を適用 した空間センサ システムの概略構成を図 1 に示す
空間センサフ レ一ム { H } 上での X Y Z軸方向にそれぞれ 配置された角 度センサ 1 0 と加速度センサ 2 0 からの出力 信号は慣性運動検出部 3 0 によ り慣性位置姿勢情報として取 り込まれる また、 撮像部 4 0 に り連続的に取り込まれる O 周辺画像情報は 、 画像比較部 5 0 に入力される 。 画像比較部
5 0 は、 入力された周辺画像情報から特徴点を抽出し、 抽出 した特徴点の動さを求める この画像比較部 5 0 からの比較 情報と慣性 動検出部 3 0 からの 報とから、 力メ ラ位置姿 勢獲得部 6 0 によつて 、 力メ ラセンサフレ ―ム { C } が求め られる。 そして 、 慣性 動検出部 3 0 と力メ ラ 1 置姿勢獲得 部 6 0 力、らのそれぞれの姿勢情報から、 ヮール ド座標空間 {
W } における空間センサフ レ一ムが空間位置姿勢獲
によって求められる な 、 画像比較部 5 0 では計算処理コ ス トを下げるために 、 慣性 動検出部 3 0 からの情報を利用 している。
次に 本実施例の運動検出装置の適用例の概略を説明する 図 2 は従来案の手形状及ぴ姿勢位置検出用の慣性センサ群
2 と前述の撮像部 4 0等を含む空間センサ 1 を手に配置した 様子を示したものである。
なお 慣性センサ群 2 は、 操作者の手の位置と姿勢、 及び その動さを検出するために、 前述の 3軸の角速度センサ 1
0 X 1 0 Υ 1 0 Ζ (以下、 角速度センサ 1 0 と称する) 及び 3軸の加速度センサ 2 0 X 2 0 Υ 2 0 Ζ (以下、 加 速度センサ 2 0 と称する) を含むセンサ群である
したがつて 、 手の甲の回転運動と並進運動は 加速度セン サ 2 0 と角速度センサ 1 0 か ら得られる情報によ り求める こ とがでさる。 しかし、 加速度センサ 2 0 には重力による重力 加速度と慣性運動による慣性加速度が合成されているので、 この重力加速度である傾き成分のフィ ル夕 リ ングや、 角速度 センサ 1 0 の角速度を時間積分して得られる角度情報などに よ り、 慣性加速度情報と重力加速度情報とを分離する。
このよう にして求め られた加速度センサ 2 0 から出力され る慣性 動による慣性加速度情報は 、 物体が定速移動又は停 止している場 にはゼロ となるので 、 その運動状態の区別が つかな < なる
さ ら に角:¾度センサ 1 0 による空間上の回転姿勢情報には ド U フ などによる誤差が発生する のため 角速度セン サ 1 0 による回転姿勢情報には加速度センサ 2 0 の重力加速 度を基 とする う に補正処理が行われる しかし、 こ の補 正では重 軸周 Ό の回車 sに対する補正はできない
そこで本実施例では 手の甲の位置と姿勢を検出するため の刖述の慣性センサ群 2 に加えて 周囲の画像を射影する光 学系とその画像よ Ό空間 6軸方向の連動情報を検出する撮像 部 4 0 と しての画像センサ 4 0 a を備える の画像センサ
4 0 a は、 光軸方向が手の甲 Ζ座キ尔軸方向 、 つま り 、 手の甲 面垂直方向と 致する う に配置される また 画像センサ
4 0 a のレンズは 1 8 0 1又の画角を有した魚眼レンズとなつ ている 。 ただし 光軸方向や画角は の限りではない
したがつて 衣着者の手の甲の側の全天周の画像を同時に 像し 、 それらの画像の動さよ り 画像センサ 4 0 a と周辺 物体の相対的な運動を知る とがでぎる また 画像センサ
4 0 a と慣性センサ群 2 とをセンサ融合する とで、 手の甲 の空間上での姿勢と位置をよ り高精度に測定する ことが可能 となる
で、 動検出装置として見る場 α には、 空間センサ 1 の中の加速度センサ 2 0 と角速度センサ 1 0 によ り構成され る慣性センサ群 2 と周辺画像よ り姿勢を獲得する画像センサ
4 0 a による構成に注 し 指先のセンサ群 7 は考えなく て い
ヮ ル ド座 間における各センサの姿勢フ レ ムの関係 を図 3 に示す Ό ルド座標空間 { W } に対する 及ぴ姿 勢 (ポーズ ) を検出するセノサを空間 (姿勢) センサ 1 とし、 その求めよ とする位置及び姿勢をめ らわすフ レ ―ムを空間 センサフ レ ム { Η } とする 慣性センサ群 2 は空間センサ 1 上に構成されている。 こ こでは、 取扱いを簡単にするため 慣性センサ群 2 の姿勢検出の軸 (慣性センサフ レ ム ) は空 間センサ 1 のフ レームと一致しているものとする また 、 画 像センサ 4 0 a によ り求められるカメ ラ位置姿勢 \ 報はヮ― ル ド座標空間 { W } に対するカメ ラセンサフ レーム { C } の 位置姿勢 (ポーズ ) 情報である。 しかし、 空間センサフ レ一 ム上に構築されているので、 常に一定のフ レーム変換マ 卜 U ックス によ り一致させる ことができる。
図 4 Aの上部に本実施例の光学系の入射光線と射出光線の 概略を す
この光学系は 入射角 ( 0 ) に対して結像面での像高 ( y
) が y : 2 f - S i n ( Θ . / 2 ) と:なる等立体角射影レ ンズの例で構成されてお り 、 物体の見かけの面積、 つま り、 物体の立体角に比例した像となる しかし像の形状は入射角 が大きくなるに従つて変化し、 m平になる の光学系は超
広角の魚眼レンズ等であれば、 距離射影レノズやその他の 形式でも構成する こ とが可能でめる 画角も 1 8 0度の光学 系となってお り 、 天頂方向に光軸を向けた場 、 全天周の画 像が画像センサ 4 0 a上に射影される
入射光線は光学系の射影関係式よ り 、 天頂からの角度、 つ ま り光軸中心に対する角度 ( Θ ) に対して、 図 4 Αの下部に 示す射影画 ί象の I ] 、円の円周上に射影され、 角度が大きく な る (水平方向に傾く ) につれて 、 同心円の半径が大きく なる 位置に射影位置が変わる。 入射角が 9 0 度の光線は水平線か らの光線で 、 円周の顺に射影される と となる 。 また方位角 方向からの光線は、 射影画像の円の中心線の方位角と一致す る線上に射影さ る。
したがつて、 射影画像上の円の中心 置と半径がわかつて いるので 、 画像センサ 4 0 a上での 2 次元座標位置が与え ら れれば、 入射光線の入射角と r 1丄、 角 •ar求める こ とができる
図 4 Aの下部は入射光線角に対する像高の関係と力 角の 関係を、 射影画像上で表した図である また の光学系に よる撮像系と慣性センサ群 2 を組み込んだ 動検出装置のそ の他の実装形態の例を図 5 Aに示す 。 円筒形の筐体 4 6上部 に超広角光学系のレンズ 4 1 0 を設置し 、 その下に撮像素子
4 2 0 を前述の射影条件となるよう に配置する。 まんこ、 —の 光学系はピンホールカメ ラのような結像系となり 近点から 遠点まで焦点の合った画像が結像される さ ら に その下部 の角速度センサと加速度センサを含む慣性センサ群 2 は、 直 交する空間 3軸方向を検出するよう に配置される その他に、 これらの信号を処理する処理系が組み込まれてお り 、 この装 置単独で空間上の姿勢及び位置を検出する とが可能な構成 となっている。 /よ 、 のよ うな光学系の 像画像を図 5 B に示す。 また、 図 6 A、 図 6 B及び図 7 A 図 7 Βにはその 他の光学系の変形例と、 その光学系による 像画像を示す
図 6 Aは 4枚の平面ミ ラ 6 a 、 6 b 、 6 c 、 6 dを四角 錐 4 1 1 の側面に貼り付けた構成の例である の四角錐 4
1 1 は頂点側がカ ツ 卜された形状で 、 それを逆さまに配置し、 平面ミ ラ — 6 a 、 6 b 、 6 c 、 6 d に反射された像が結像レ ンズ系 4 7 を通して撮像素子 4 2 0 に射影される また、 四 角錐 4 1 1 の底面 6 f と上面 6 e は共に 明 あるいは 過 であ り 結像レンズ 4 7 系の光軸方向の周辺像が透過して撮 像素子 4 2 0 に射影される したがつて 図 6 Bのよう にレ ンズ光軸と直交する 4方向の画像 6 A 6 B 6 C 6 D と 光軸方向 6 E の計 5 軸方向の画像が同時に撮像される。 また
5 ラ ―枚数をもっ と増やすこ とでさ らに多 < の方向の画像を する ことも可能である の光学系による射影像は 5つ の領域に分割された中心射影のため、 画像情報の一次変換式 によ 特徵点の空間位置方向を容易に求める とができる 次の図 7 Aは放物面 ラ―を利用 した変形例でめる 放物 面形状 4 1 2 の外側を ラ一としたものを配置する 。 放物面 ミ ラ ― 7 a に反射された周辺像が結像レンズ系 4 7 を通して 撮像素子 4 2 0 に射影される この図 7 Aの放射面形状 4 1
2 も前述したのと同様に 、 頂占は力 ッ 卜されている 。 上面 7 c と底面 7 b も共に透明 、 あるいは透過でめ Ό 結像レンズ 系 4 7 の光軸方向の周辺像が透過して撮像素子 4 2 0 に射影 される したがって、 図 7 Βのよう に光軸と直交する全方向 の画像 7 Aと光軸方向の画像 7 Bが同時に 一
像される さ ら に放物面ミ ラー 7 aでの反射像の画像は円形となるが、 の 外側には中央の透過した画像と同じ方向の画像 7 Dが射影さ れる よつて前述の平面 5 ラ一のタイ プよ り も よ り多 < の 画像を 時に撮像する とが可能となる
図 8 は 、 前述した図 1 の画像比較部 5 0 と力 メ ラ位置姿勢 部 6 0 の内部で行われる処理を機能的に示している の図をもとに、 本実施例における画像処理の流れを説明する 射影光学系 4 1 0 を通して、 撮像部 4 0 で光学像から 信号に変換され さ らには画像データ として記憶される 。 次 にこの画像デー夕が画像比較部 5 0 に入力されるが 严
像部
4 0 に射影される周辺像ィ メージは円形となるので の円 形の外側の部分には画像テ一夕は存在しない このため 、 後 の画像処理などでの高速化を図るために、 予め無効領域とし ての識別を可能とするマスクデ一夕を準備する 。 図 4 Bは、 そのマスクデー夕 —を示したものである では、 2 0 0 X
2 0 0 画素の画像センサのつ 夕 と同じサィ ズにする この とき、 画像デー夕が無く 後の画像処理を 略したいと ころ は 「 0」 のデー夕 •ar ぎ込み、 それ以外の部分は 「 0 J 以外 のデータを書き込む。 こ では、 光軸中心が射影される座標 位置を中心とする有効入射半径の円の外側が Γ 0 」 の丁 夕 となっている。
このデータをも とに画像比較部 5 0 において 、 まず マス クデータ処理 5 1 がなされる。 そして 、 マスクつ 夕処理 5
1 がなされた後 連続するフ レーム画像と して取り込まれた 周辺画像は、 前のフ レーム 5 0 0 の画像との間での処理 が行われ、 さ らに 、 この処理された画像に対してェ Vジ抽出 処理が行われる このェッ ジ抽出処理 5 2 では 、 入力画像の エッジ部を求めるために X方向及び Y方向の微分才ぺレ タ (例えば S o b e 1 ォぺレ --夕) に るェ ジ抽出を行い
X Y両方向において、 ェッ ジが存在する ¾所を探す れは 後述する特徵点画像のマッチング処理 5 3 での誤り を減らす ためである。 ェッジ抽出処理 5 2 において、 エツンが抽出された後、 そ の画像データから周辺画像の相対的な動きを求めるために 特徴占画像抽出処理 5 4が行われる。 こでは 特徵点とな る画像を探すために 予め決められた座標位置周り の入力画 像のェッジを検知しその点を評価する とにより特徴点を探 索して特徴点を抽出する。 なお 図 4 Aにおいては、 探索開 始座標位置を黒点とし、 その周 Ό の矩形領域を探索範囲とし て特徴点初期探索位置情報が定義されている。 れは、 特徴 点情報を多く の方向からのデー夕で登録できるよう にするた めであり、 それは、 空間センサ 1 の前後左右上の周辺方向か らの特徴点の相対的な動きを比較することで、 手の甲部の空 間内での動きをよ り正し く推 できるよう にするためである。 なお、 この特徴点初期探索位置情報などの特徴点抽出に用い る情報は、 新規特徴点探索テーブル 5 9 に記憶される。
特徴点が抽出される と、 後に詳述する無効特徴点追跡処理
5 5 の後、 特徴点登録処理 5 6 が行われる。 特徴点登録処理
5 6 では新規の特徴点情報として、 登録特徴点座標 ( U k
V k ) と、 さ らに特徴点を中心位置とするある一定の矩形領 域の特徵点画像と、 この登録時に既に求められているワール 座標空間 { W } に対する姿勢情報である空間センサフ レー ムへの変換 { Q H k } あるいはその逆変換 { k H。 } とが登録 され さ ら に登録済みフラグもセッ 卜される
さ らに特徴点登録処理 5 6 では、 図 4 Aにおける初期探索 位置周 りで抽出する ことができた全ての特徵点に対しての登 録作業が行われる。 これら登録した特徴点情報は、 次に入力 されるフ レーム画 象におけるマッチング処理 5 3 などで利用 される
なお 最初のフ レーム処理つま り初期化のステップでは、 次の ッチング処理 5 3 は行われず、 この画像比較部 5 0 の 処理は終了する。 さ ら にカメ ラ位置姿勢獲得部 6 0 では初期 化処理 6 4が行われ 、 位置 · 姿勢情報の初期化処理が行われ そして、 次に入力されるフ レーム画像に対して、 前述と 同様のマスクデ一夕処理 5 1 やフ レーム間処理及びエッ ジ抽 出処理 5 2 が行われる
て 2 フ レーム目の処理以降からは、 特徴点情報の登録 済みフラグが調ベられ、 こ こで登録されている特徴点、 すな わち 登録済みフラグがセッ ト されている場合には、 現在の フレ ム内での登録特徴点座標 ( U k , V k ) 付近で、 登録 画像と最も相関の高い部分を探索する。 こ こで、 正しい位置 が見つかる と現在の特徴点座標として記憶し、 特徴点探索フ ラグをセッ 卜する また見つからなかった場合は、 登録情報 の登録済みフラグと特徴点採索フラグをリ セッ 卜する。
での特徴点画像の探索処理において、 通常のマツチン グ処理 5 3 と して 登録特徴点位置に対してある一定の範囲 内において、 特徴占画像を走査しながら、 マッチング処理を 行う そして、 マ Vチング処理 5 3 の結果、 相関値の最も高 い場所をマツチング位置とし、 この点を特徴点マッチング座 標 ( U V 一) とする。 さ らにある基準値を超える相関値 の判定があっ た場合 、 正しく 特徴点を探索できたと判定する 本実施例による射影光学系 4 1 0 を通して取り込まれたフ レ ム画 象とその抽出された特徴占画像の様子を図 9 A、 空 間センサ 1 が回転移動した後、 取 Ό込まれたフ レ ム画像上 における探索特徴点画像の様子を図 9 Bに;^:す。 また 図 1
0 Aは の登録特徴占画像情報をメモ V に登録したとぎのデ
―夕の概令図である こ こで登録特徴占画像は 1 5 X 1 5画 素の 8 ビ V 卜の階調ァ一夕とする の画像デー夕の中央画 素 ( 7 7 ) 座標値が特徴点座標 ( U k V k ) 位置のつ タ となる メモリ 上では左上の画素を開始ァ ド レスとする連 したテ一夕列として通常は管理される
そして、 入力されたフレ ム画像に対して図 1 0 Bのよう に移動した特徴占画像デー夕をマッチング処理 5 3 で利用す る □ の画素情報の佳
果八《しある登録特徴点画像の画像データ を ね合わせ、 各画素の差分の絶対値の積分値が最も小さな と ろを探す。 そのために相関処理では 、 開始ア ド レスであ る特徴点座標 ( U k V k ) に探索領域の大きさの平行移動 分のァ ドレスと さ らにァフィ ン変換による回転操作を加え る必要があり、 の平行移動と回転移動を組み合わせた走査 をひとつの特徴点画像を探举するためにしなければならず、 非常に多くの計算処理が必要となる。 さ らに、 これを登録さ れている全ての特徴点に対して行わなければならず、 非常に 多 < の計算処理 ス 卜力 かつてしまう
そこで、 本実施例は、 この時点で更新されている現在の空 間センサフレーム n の位置姿勢 (ワール ド座標系からみた現 在のセンサフ レーム nへの座標変換を意味する) { Q H n } を算出するのに、 各特徴点が登録された時点でのセンサフ レ ーム kである {。 H k } の逆変換 { k H。 } と、 各特徴点が登 録されてから現在の空間センサフレ一ム n までの座標変換を 表す相対運動パラメ一夕 { k H n } あるいはその逆変換であ る { n H k } を利用 して推定する。 数学的には、 このパラメ 一夕は、 例えば、 フ レーム kでの座標値 ( x k, y k , z k ) が、 センサフ レーム nでの座標値 ( x n, y n , ζ η ) に 対応する とすれば、
Figure imgf000026_0001
あるいは
Figure imgf000026_0002
で表される座標変換で表される ものとなる。 こ こで、 n R k は回転行列であ り、 r 5 j ( i = 1 , 2 , 3 ; j = 1 , 2 , 3 ) を要素とする 3 X 3行列を表す。 この行列は、 3個の独 立なパラメ一夕 ( Φ χ, Φ y , φ ζ ) によ り表現できる。 ― 方、 n T kは並進ベク トルを表し、 独立な 3個のパラメータ
( t x, t y , t z ) で表現する こ とができる。 すなわち、 各フ レーム間の位置姿勢関係は計 6個のパラメ一夕、 つま り 、 ( φ Φ , t t . t z ) で表すこ とが可能で ある
この とさ H r : H k ] めるいは η Η = n H k it H の関係式を利用 しながら 現時占のセンサフ レ ム nのヮー ル ド座キ示系における位置姿勢関係を推 するわけである。
次に の運動パラメ タ と射影光学系の関係式よ り登録 特徴占座 ( U k V k ) の現在のフ レ ム画像内での座標 値を推定する の特徴占移動推定処理 5 7 によ り得られた 特徴点移動推定座 ( U P r d V Ρ r d ) 付近を探索する ことで 探索領域を狭める とがでぎ 計算処理コス ト を下 げる とができる
実際の特徵点画像丁 夕の管理において、 図 1 0 Aのよう な画素情報だけの管理とする と マッチング処理 5 3 の際の 画像ァ 夕走査の度に 画素 とに平行移動 ML置や回転等に る移動位置を射影変 に Ό推定しなければならず、 処理 が複雑になつてしまう
したが て実際には 図 1 1 Aのよう に、 登録時の画素デ
―夕 とに対応する X座標と Y座 のための X Y移動推定画 素座 n:領域を確保する 次に 特徵点探索のためのマツチン グ処理 5 3 の前に 相対 動 ラメ 夕 ] H k } による各 特徴占画像の画奉 との移動推定位置を計算し、 その計算し た移動推定位置のデ 夕を対応する画素の X Y移動推定画素 座標領域に記録する 予め の処理を既に登録されているす ベての特徴点画像におけるすぺての画素つ 夕に対して行つ てお < そして の後のマッチング処理 5 3 に いては の特 微ハ占、、画像テ 夕の X Y座標デ 夕に画像デ 夕の走查のため の平行移動 を加える操作だけで処理が可能とな 全体の 処理が簡単化される o
図 1 1 Bは 録時の特徴点画像の位置と領域を の予 め推定された X Υ移動推定画素座標 よ 位置に移動した状 態を T iした図である o このよ に座標変換された特徵占画像 はもとの矩形画像形状ではな < 射影変換によ 変形される
± ·¾县 A口 ちある o しかし このような形状の画像 T ―夕において もマッナング処理 5 3 においては 単純にァ ドヽ レスの移動や 相関値の計算などの加減演算のみの処理を行う だけでよい。
次にマッチング処理 5 3 における他の変形例について説明 する o
特徵点の追跡において、 対象となる物のそのままの形を追 跡したい 合がある 例えば 景が大き <移動する物体の 前にあるォブン Xク 卜や、 ォブンェク 卜の中に変動する領域 が存在する などが考えられる 特徴点か ら得られた特徴 点画像の中に のよ うな変動する画像成分がある場 a 従来 の方法で行 と マッチングがでぎなく な Όてしまう場合が ある o
そこで 図 1 2 Aのよう に 刖述した X Y移動推定画素座 標 ¾域の他に 録 X Y画素座標領域を設ける 刖述の例にお いては、 登録特徴ハ占、ヽ座標 ( U k V k ) よ り 各画素の 録時 の座標値を求めるために、 登録特徵点画像の画素ァ 夕を、 特徴点を中心とする縦横固定の矩形領域のァ 夕と していた。 したが て、 画素ごとの座標値を矩形領域の縦横の値よ り 求め、 それからその座標値に対して射影変換の変換式よ り、 探索のための推定座標値を求めていた。 しかし 、 この変形例 においては 、 ア ド レス変換においても この登録画素座標デー 夕に対して 、 直接射影変換を行い、 その結果を移動推定画素 座標に登録するだけでよい。
さ らに 、 この登録画素位置の座標値を登録する こ とができ るので 、 その形状を矩形に限定する必要がなく なり 、 どのよ うな形の特徵点画像も登録する ことができるよう になる。 一 見複雑な形状の複雑そうな処理でも、 単純な処理の繰り返し で実行する こ とが可能となる。
したが て、 例えば、 映像の映し出されたモニ二夕に対して モ二夕の枠だけを特徴点画像領域として登録する こともで き 、 映像の内容に左右されずにマッチング処理 5 3 をする こ とがでさる o
図 1 2 Bは、 以上の変形例における登録時の特徴点画像と 探索のための特徴点画像の移動位置と回転を推定した様子を 示したものである。 このよう に登録特徴点画像も矩形である 必要もハ、ヽ < 、 さ らに推定される探索特徴点画像も もとの形状 が変化しても、 マッチング処理では単純な計算のみで行う こ とがでさる 。 以上までの移動位置を推定するために使用され る現在の空間センサフ レーム { n H。 } 情報は、 その時点ま でにおいては、 慣性センサ群 2 によるフ レーム情報の更新が i7¾間位置姿勢獲得部 7 0 で処理されている ものである {。 H n } の逆変換 { n H。 } によ り算出されるが、 撮像素子 4 2 0 による 新はひとつ前の画像処理で求め られた結果が反映 している情報でめる。 したがつて、 慣性センサの ド リ フ トな どによる誤差が蓄積されている可能性があるが、 撮像素子 4
2 0 による更新レ ― 卜の間に発生する誤差は非常に小さな値 である
までの処理で得られた特徴点情報よ り 、 カメ ラ位置姿 勢獲得部 6 0 によ り現在の力メ ラ姿勢情報 { n C 。 } を求め で の力メ ラ位置姿勢獲得部 6 0 では、 カメ ラ座 を中心としたヮ ル ド座標系の動き (相対的な運動) を 追跡する のとして定式化される。 いったんカメ ラ座標系に 対するヮ ルド、座標系の位置姿勢 { n H Q } を算出すれば、 ヮ ル ド、座標系に対する力メ ラ座標系 (すなわち空間センサ 系) の位置姿勢 { H , J は、 その逆行列 (逆変換) として 容易に求める とがでさるわけである。
で図 3 のよう に 、 力 メ ラフ レームは空間センサフ レー ムでめる空間センサ 1 上に構築されているので、 空間センサ フ レ ム { H } に 定の変換マ ト リ ックス { c R H } を加 える とで常に力メ ラフ レ ム { C } に変換する こ とができ る。 したがつて こでは、 明を簡単にするためにカメ ラフ レ ム { C } と 間センサフレーム { H } がー致している も のと して 明する こで nは求めるフ レームの番号、 0 は最初のフ レ ム kは特徴点が登録された時のフ レーム番 号である 先にも説明した通り 、 この最初のフ レーム 0 では 初期化処 a 6 4が行われる また、 このときの空間センサフ レ ムは n = 0 となる 。 つま り、 { H } と { H w } とが 致、 つま り 、 空間センサフ レ一ム { H } とヮ一ル ド座標空 間 { W} とが一致した状態となる また、 この初期化のとさ 撮像素子 4 2 0 から得られる特徴占は、 奥行き情報 z が既知 である特徴点位置を登録する。 な でこの奥行き情報 は、 センサフ レーム系に対する奥行き情報を示す。 また の初期化処理 6 4 については後でさ ら に述べる。 これよ り
{ n C } と { n H } は等価なものと して以下の説明を行う 複数の画像イ メージ · ス 卜 リ ームに特徴点が現れてから消 えるまでの様子を図 1 3 に示す。
特徴点 i は最初にフ レーム画像 kで現れ 、 また、 特徴占 はフ レーム画像 ( n — 2 ) で消えている。 これらのフレ ム 画像ごとに前述したマッチング処理 5 3 や特徴点登録処理 5
6 が行われる。 特徴点が最初に登録された時点か ら、 こ の特 徵点の関連パラメ一夕と して、 特徴点座標 ( U , V) と奥行 さ情報 z が使われる。 このとき、 奥行き情報 z に対する不確 定要素 σ zに最大値を割り 当てる こ の特徴点座標 ( U V
) と奥行き情報 z を図 1 4 に示す
そして、 特徵点が新しいフ レーム画像において正しく マッ チングが取れたとき、 この特徴点が最初に登録されたときの カメ ラフ レーム { k C 。 } (つま り、 { k H D } と等価である ) からの回転と並進情報の推定値を利用 し、 現在の空間セン サフ レーム { n H Q } を更新する。 フ レーム kか らフレーム nへの変換、 すなわち、
{nHk}:P = (" ," ) と、 それに関連する不確定要素 σ ζを最初に更新し、 それか らフレーム 0 、 フ レーム k及びフレーム η の間の関係式 η Η 。 = n H k k H。 を使用 して、 フ レーム 0 か ら n までの変換と、 それに関連する不確定要素び zを更新する。 こ こで、 p は運 動べク トルを示す。 図 1 5及び図 1 6 にその様子のイメージ 図を示す。 なお、 { k H Q } は、 こ こ までの処理で変換 · 更 新されているので既知の値である。
次に、 { n H。 } と関連する不確定要素 σ ζ を順に更新す る こ とによって、 特徴点画像の奥行き情報 ζ も更新する こ と ができる。 これは、 { n H k } = n H。 。 H kを計算する こと によ り得られる特徴点 i の画像のための最初の { n H k } の 再計算による ものと、 それから フレーム k とフレーム n との 対応関係である ( u, V ) と ( u ', V ' ) を基準とした奥 行き情報 z を更新する ことによって行われる。 この新しく求 め られた z が、 次のフレーム変換の推定にも使われる。 なお、 各特徴点情報の内容は以下のよう に表される。
1 ) 特徴点が最初に現れて登録されたときのフレ一ム 番号 k
2 ) フレーム kの中の標準化された特徴点座標 ( u ,
V )
3 ) フ レーム kにおいて定義される奥行き情報 z ( ( u, V ) と関連する形状ベク トル構成要素)
H0 H。 R。,J。: H。( ^ 。, , , ) (運動パラメ 一夕) (すでに、 登録時のフ レームにおいて計算済み) 5 ) ひとつ前の空間センサフ レ一ム { n - i H D } (す でに、 前のフ レームにおいて計算済み)
6 ) ひとつ前のフ レーム ( n — 1 ) の中の標準化され た特徴点座標 U p r e v v p r e v ^
7 ) ひとつ前のフ レーム ( n — 1 ) での共分散マ ト リ ックス c o V
新たなフレーム画像において、 各特徴点を目印として、 前 述のパラメ ―夕を各特徴点と関連させる。
さて で 、 前述の奥行き情報 z { n H k } や、 その他 の値を求めるために以下の処理を行う。 また、 各フレームの 関係を図 1 7 に示す。
なお の時点で、 前のフ レームまでの運動パラメ一夕は 評価し終わっている と仮定する。 さ ら に、 { k H。 } 及び { n _! H k } はすでに平均値と共分散マ 卜 リ ッ クスで評価され ているものとする。 また、
Figure imgf000033_0001
を不確定要素を考慮しながら推定する。 これによ り、 推定値 { n H n _ x } が与えられるので { n H。 } も推定する ことが できる。
次に、 フ レーム ( n — 1 ) の中の特徴点リ ス トにすでに登 録されている特徴点のマッチングを行う 。 なお、 図 1 7 にお いて、 kはこの特徴点が最初に画像に現れたフ レーム番号で、 ( u ' , V ' ) はフ レーム nの中の特徴点の座標値である。 そして、 c o v ( u ' , v ' ) はフレーム nでの共分散マ 卜 リ ッ クスである。
1 ) 以下のよ う に、 Ά^Φ'^Φ ^Φ ^ ^) を予測する
Figure imgf000034_0001
, r.ein,} (式 1 )
2 ) { n H k } を更新するために、 以下の制約を持たせる
z rnu + rnv + rn nt
u =
(式 2 )
Z\r21u + r22v + r23]^nty k
z\r u + r32v + r3i itz k こ こで、 ( u ', v ' ) がフレーム n の中の測定値であ り 、 そして平均値と共分散マ ト リ ッ クスに関して小さな不確定要 素を持っている。
また、 運動ベク トル P = ( ," H , )の初期算定値、 特徴点座標 ( u ' , V " ) と奥行き情報 z が得られる。
それから、 K a l m a n フィ ル夕を使用する ことによって 運動べク トル Ρ = {"Φ",ηΦ η ζ" ,"ή )
及び奥行き情報 ζ を更新する こ とができる。 こ こで、
5^ = (>¾ ," ,"07, )と fを、 更新された平均値と共分散と する。
これで { n H k } が更新される。
次に { n H Q } の更新を行う。 これらの処理において { n H k } の更新が得られたならば、 再び K a 1 m a nフィルタを使 用する ことによって { n H。 } を更新することができる。
さ らに n H 0 = n H k k H 0は、 { n H k } と { k H o } の測定 と、 そして、 K a l m a nフィル夕によって算定されるパラ メータ { n H。 } によって考慮される。 よって、 ( ,ηΦ ,ηΦ ,η
Figure imgf000035_0001
P = ( d" ) となり、 そのとき c o v ( a ) と c o v ( b ) は非常に小さ な値である。 さらに、 3次元式としては、 以下の (式 3 ) を もつ。
f ( a , b , ρ ) = 0 (式 3
)
ここで、 (式 3 ) における a、 b、 p、 及び 0 はベク トル量 である。 ρ を更新するためには、 K a l m a n フィルタを使 用する。 更新後の pの様子を図 1 8 に示す。
したがって、 各特徴点画像と K a 1 m a n フィルタによって、
P = (K " " { 0} を更新する ことができる。 また、 K a l m a nフィル夕を順 に p に適用することができるならば、 pの不確定要素を非常 に大きく減らすことができる。
次に、 フレーム kにおいて定義される奥行き情報 z を推定 する。 これ以降、 K a l m a nフィ ルタを順に運動ベク トル Pだけに適用する。 そして、 p を更新したあと、 再び K a 1 m a n フィルタを適用することによって z の不確定要素 σ ζを 減らすことができる。 これは、 以下の方法によってなされる。 ? ^ ^/^, , , !^が算定された後、 以下の (式 4 ) を用いて再び Ht}を定式化する。
(式 4 )
最初に以下の式を使用して不確定要素を伝播させる。
," , „H。}
測定 :
( , ;, Z , )e{fcH。}
両方とも、 { n H k } に対応する非常に小さい不確定要素を個 々 の特徴点によって運んでも らわなければならない。 そこで、 前述の (式 4 ) を考慮する。
そして、
とその共分散の評価値を得る。 ここで、 フレーム nの奥行き 情報 z に適合させるフレーム k を持つ ( u ', V ' ) は、 前 述の (式 2 ) で定義される。
( U 一, V ' ) 及び c = ) e {„H4}は、 全ての測 定値 (または、 すでに評価された値) と非相関となる。 なお、 奥行き情報 zはもちろん算定される。
フレーム nにおいて全ての値が算定された後、
c = ( , z , , ) Ε{„Η¾}や奥行き情報 z、 及びその他の値 が更新される。
以上のよう にして、 現在の状態を示すフレーム ηを基準と した初期フレーム 0 の位置姿勢の関係 ' { η Η。 } が推定 (更新 ) されると、 ワール ド座標系を基準とした現在フレームの位 置姿勢 {。 Η η } は、 その逆行列 (逆変換) と して算出される。 すなわち、
0 Η ο )
このよう にしてカメ ラ座標系に対する ワール ド座標系の位置 姿勢 { n H Q } (つまり { n C 。 } である。 ) を算出すれば、 ワール ド座標系に対するカメ ラ座標系 (すなわち空間センサ 系) の位置姿勢 {。 H n } は、 その逆行列 (逆変換) として 容易に求める こ とができる。
こ こで、 前述のカメ ラ位置姿勢獲得部 6 0 において、 初期 フ レーム 0 における初期化処理 6 4 について説明する。
カメ ラ位置姿勢獲得部 6 0 は、 特徴点が現れてから消える までの間の特徴点情報を追いつづけ、 この特徴点の 3次元情 報を更新し続ける。 さ らに、 別の特徴点が現れたときに、 現 在の特徴点情報の 3 次元情報を引き継ぐこ とで、 カメ ラフ レ ーム情報を更新し続ける ことができる。 しかし、 最初の空間 センサが起動した時点では、 どの特徴点も 3 次元情報を持つ ていないので、 各特徴点は相対的な奥行き情報しか獲得する とができない。 したがって、 この初期化処理 6 4では ひ とつ以上の既知の特徴点に、 奥行き情報を与える処理を行う まず、 この初期化処理の第 1 の方式について説明する。
なお、 身体運動の検出手段として、 本実施例の運動検出装 置を利用する場合には、 手や頭などに取り付けた運動検出装 置から、 装着者自身の体の少なく とも一部が見える部分に 既知の大きさの識別マークを取り付ける。 この識別マ クは 例えばある既知の間隔だけ離れた特徴点マーク としたり あ るいは、 ある既知の大きさの形をした識別 ク としたりす ることもできる。
例えば、 電源が入力された後のパワーオンリセッ 卜処理や セッ トスイ ッチによる強制リセッ ト処理等の状態のとさに 初期化処理 6 4が行われる。 装着者はこの識別マ クが画像 センサ 4 0 a に入力される位置で、 この初期化処理 6 4 を行 う よう にする。
また、 図 2 に示したような、 手の形状などの p cが可能な ンエスチヤ操作入力装置を利用する場合には、 手のリセッ ンヱスチヤ動作 (例えばグー · パーと手の形状を変化させた ときの動作を リ セッ ト操作と定義しておく) によ りその処理 を行う こ ともできる。 画像センサ 4 0 a は初期化処理 6 4 の ときに、 まずこれらの識別マーク を検出し、 その既知の大さ さから、 識別マークよ り抽出される特徴点の奥行き情報 z を 初期登録する。 この初期化処理 6 4以降、 カメ ラ位置姿勢獲 得部 6 0 では、 この登録した奥行き情報 Z を 他の特徴点情 報に対応付けしながら、 力メ ラフ レ ムを更新し続ける こと ができ ο
したがって、 初期化時に特別なマ ―クがある特定の場所な どで行う必要がなく、 いつでも どこでも簡単に初期化処理を 行 とができる。
また 、 初期化処理の第 2 の方式とし し 刖述した初期化処 理の第 1 の方式と同様に、 装着者自身の体の 部に識別マ クを取り付けるが、 特に大きさや、 間隔などの情報は必要と しない方式もある。 こ の方式は、 身体のポ一ズ (例えば、 手 の位置 • 姿勢や頭の位置 · 姿勢など ) を、 予め決め られた状 能にして初期化処理を行う も のである 。 例えば 、 胸に識別マ ク となるペンダン ト等を取り付ける 。 次に 述の ンエス チャ操作入力装置を利用 して、 このぺンダン の位置でリセ
、つ 卜ジエスチヤ動作を行う よう にする 。 この初期化処理では 手の甲の画像センサ 4 0 aは予め決められた画像入力領域の 特徴占を認識し、 その奥行き情報 z を既知の値で登録する。 したがつて、 初期化のポーズとそのときの画像センサ 4 0 a から既知の特徵点までの距離は装着者自身が予め測定し、 そ の値を初期値と して入力しておく必要がある このよう な方 式であれば、 特徴点の位置が認識できればよいので、 特徴点 の大ささや距離や形状などを認識する必要がなく 、 識別マー ク を小さ くする こ とができる。
さ らに初期化処理の第 3 の方式は 身体に特別な識別マー ク を壮着する こ となく 、 身体自身の寸法や位置関係を既知の 特徴点として利用する方式である。 これは、 前述の方式と同 様に 2種類の方式がある。
一つめの方式は、 装着者自身の身体の初期特徴占 となる部 分の寸法を予め測定し、 初期 録する方式である 例えば 顔の中の目 を特徴点とする とぎには 眼幅の距離を既知の距 離と して利用する。 よ ¾Kの幅や 肩幅などを既知の距離 として利用 してもよい。
さ らにもう一つの方式は、 初期化処理を予め決められた身 体のポーズで行い、 常に一定の距離から身体の一部の特徴占 位置を抽出し、 その特徵点位置が画像センサ 4 0 a に入力さ れるよう にする ものである。 例えば、 手を身体の前に出した ときの初期化動作において、 頭の距離を既知の距離として容 、 録したり、 両手を一定間隔で開ぎ 、 片方の手から も う片方の 手の位置までの距離を測定するためのジェスチャ を初期化ポ 一ズと したりする こ とで、 既知の距離を登録でさる う にす る
れを刖 ¾bのンェスチヤ操作入力装 βで行 た場八口には 体の前の決め られた位置でリセッ 卜ンェスチャ動作を行う よ に る。 れによ り、 手の甲の画像センサ 4 0 a は常にめ る一定範囲の方位と入射角の領域内にある顔の画像を抽出し、 そ の特徴点を既知の特徴点情報として 録する とがでさ る この方式では、 初期化処理のときの既知の特徴点の探索 範囲を限定する こ ともできる
また、 両方式をあわせた方法とする こ とも当然可能で、 特 徴占の既知の間隔と既知の距離情報を初期登録する ことで、 精度を上げる こ とができる
の第 3 の方式によれば身体に特徴占となる特別な 別マ ク を装着する となく初期化処理が行え、 さ らにその操作 性を向上させる とが可能となる
初期化処理の第 4 の方式は 初期化時の周 り の環境と姿勢 の関係とを利用する方式である を前述のン工スチャ操 作入力装置で行う場合には Uセッ トジエスチャ動作時の姿 勢を 例えば、 起立した状 tlでさ ら に手の甲を下に向けた状 能 、 あるいは画像センサ 4 0 a に足元の情報が見える うな 手の姿勢で行う と予め決めておく 。 さ らに、 この姿勢におけ る、 手の甲から床までの距離を予め測定し、 初期登録してお ぐ 。 のとき足元方向の画像よ り抽出される特徴占は、 ほぼ この既知の距離情報の特徴占と して登録する こ とができる
また 、 頭部などに取り付けた運動検出装置の 、 例えば、 起立状態の身長 一夕を距離情報として利用でさるが、 さ ら に首などの曲げによる周辺画像の変化に対しても 足兀方向 の画像を、 空間センサ内の加速度センサ 2 0 の情報によ り検 出できているので 、 常に足兀の画像情報となる特徵占 を識 別する こ とがでさ -る よつて 重力軸に対する頭から足元の 特徴占の角度情報と空間セノサと足元までの距離によ り 、 特 徴点までの距離を推定する とができる 。 したがつて、 初期 化処理のときだけでなく 、 常に奥行き情報がわかる特徴占 して 利用する ともできる なお、 の場合にはめ 程度 足元が開けた、 限定された環境で利用する こ とが条件となる。
次に初期化処理の第 5 の方式は、 初期化動作と して、 予め 既知の運 を行う ジ Xスチヤなどの動作を行う こ とで、 初期 化処理を行う方式である
例えば 刖述のジ スチゃ操作入力装置で行う場合には、 初期化処理と して、 まず初期化開始ジェスチャ動作 (例えば グー 動作を開始動作とする。 ) によ り初期化処理を開 始する。 そして、 予め設定していた初期位置から終了位 iiま で手を動かし で初期化終了ジ工スチャ動作 (例えば、 パ • グ 動作を終了動作とする。 ) を行う こ とによ り初期 化情報の入力を終了させる。 この動作としては、 最初と最後 の動作を ふ直線距離が常に一定で既知の距離となるこ とが 重要である 例えば 手をいつ ぱいに前に伸ばした状態か ら 身体に着ぐ までの 連の動作によ り動く距離は、 ほぼ 定の 距離情報として利用できる。
以上の の初期化ジエスチヤ動作の開始と終了の間で処 理された周辺画像からの特徴点情報の運動パラメ一夕 と奥行 き推定情報に対して既知の移動距離情報を加える ことで 、 各 特徴 ώ-の奥行き情報を登録する こ とができる 。 この方式は身 体の寸法や位置関係情報を直接利用する方式ではなく、 身体 の操作部の動作範囲の情報を利用する ものである。
以上の う に初期化処理 6 4 ではさまざまな方式で初期特 徵点に対する奥行き情報 z の初期登録が可能 で、める。 れら は、 単独で使用する とも可能であるが、 それぞれを組み合 わせて同時に行う ことも可能である。 また 初期化時点での ンェスチャ動作によ り 、 使用する初期化方式を変える こ とも できる。 次に特徴点探索のための新規開始位 «の探索方法について 説明する マッチング処理 5 3 において 録特徴点画像が探 索できな < なる と その情報は廃棄される しかし特徴点の 数が少な < なる と 力メラ姿勢パラメ 夕を求めるための情 報量が減 てしまい 演算精度が落ちてしまう。 また、 肓 υ述 したよう に 、 特徴占の入力画像の方向は なるべく全方向か ら入力されるよ にする ことが 、 姿勢情報の精度を上げる とになる したがつて 、 特徴点のマツチングが取れないとし て廃棄された場 には 、 新たに特徵点を探し出して登録する 必要があ り 、 さ ら には 、 その特徵点の画像の入力方向が現在 登録及び追跡されている特徴占画像の入力方向とは別の方向 である必要がある
そこで これよ り特徴点探索のためのテ ブル構築手法に ついて図 4 B を参照しながら 兑明する 図 4 Bは、 前述した マスクデ 夕処理 5 1 のために使われるマスクデ一夕を拡張 した画像射影区分マスク 7 夕である 周辺の画像処理等を 省略したい部分に関しては、 Γ 0」 のァ タ としているが 射影ィ メ ―ジの円形内部に関しては、 厂 0 J 以外の数値情報 が埋め込まれている さ らにある区分領域 とに数値デ一夕 が埋め込まれてお り このデ 夕をもとに現在探索中の特徵 点の入力画像方向を 別する
ここでは円形内 :部に 2つの同心円と、 それぞれの同心円を 方位方向で区分するいくつかの領域で分けられている。 外側 の同心円は 6つの領域であり、 中間の同心円も 6つの領域で あるが、 外側とは異なる方向で区分けしている。 これらの領 域にはそれぞれの領域を識別するための 号となる区分テ 夕が埋め込まれている ノこ 、 の識別番号には 新規に特 徴点を探索するための開始位置でめる探索開始座 値が ン クされている。 この探索開始座標値は 図 4 Bの各画像射 区分マスクデータ領域のほぼ中央に描かれている黒丸の位置 でめる なあ、 の区分データは 、 図 8 の画像射影区分 ス クデータ 5 8 に対応するものである
つま り 現在の特徵点位置のマツチングがマ Vチング処理
5 3 において正し く 探索できたならば 、 その追跡座標値に相 当する の画像射影区分マスクデ一夕 5 8 の区分テ タを み取る とで、 その大体の入射方向を知る こ とがでさるよう になる しかし この入射方向の角度などを特に知る必要は い すでに登録されているすべての特徵点の探索座 値に 対して の処理を行い、 現在探索中の特徵点が存在しない区 分番号を求め、 その区分番号の探索開始座標値を 採索のた めの新規特徴点探索テーブルに登録するよ にしてもよい のよう にする とによ り、 新規探索特徴点座 値でめる画 像の入射方向を分散する こ とができる
実際に れらの処理を計算で求める こ とも可能であるが そのとぎには現在の特徴点画像座標か ら射影変換の変 式に よ Ό 各特徴点における入射光線角 ( 0 ) と方位角を求め すベての特徴点の入射方向を分析し それから次に探索する 方向を決める こ とになる。 この変換処理ゃ入射方向の分祈な どには よ り多 < の複雑な処理が必要となる。 それに対し 本実施例では、 探索領域の数や方向は 、 この画像射影区分マ スクつ 夕 5 8 の内容を変えるだけで容易に変更する こ とが でさる。
本実施例の特徴点情報の管理において、 特徴点である対象 物の有効性を判定 · 管理する機能を利用する こ とができる。 刖述の力メ ラ位置姿勢獲得部 6 0 における位置 · 姿勢演算処 理 6 2 において、 すベての特徴点の相対的な動きよ り求め ら れる力メラフレ一ム { n 0 } し 、 そのひとつ前の姿勢情報 とによ り画像処理サイ クル間の相対的な姿勢の α } が求め られる。 その後、 それぞれの特徴点 のひとつ前のマッチング座標値に、 の相対運動パラメ一夕 Η η一 ! } を利用 して各特徴点の現在の動きを推定したと きに の推定した座標値と、 実際のマッチング座標値との 差を評価し 、 その評価値がある閾値よ り も大きい場合には、 その特徴占を無効な特徵点と判定する 。 このよう な無効特徴 点判定処理 6 3 で無効と判定された特徵点は、 特徴点採索フ ラグをセッ 卜 したまま、 特徴点登録フラグを リ セッ 卜する。
したがつて、 自然特徴点の画像移動べク トルと空間センサ
1 からの姿勢情報とを比較する こ とによ り 、 周辺画像の特徴 占 なる対象物が、 被計測物体にと て基準となる有用な物 体か 、 それとも無効な移動物体か判定する こ とが出来る。 こ れによ り 空間センサの周り のヮール ド座標空間内で固定さ れた物体 あるいは停止した物体のみを、 姿勢を求めるため の基準情報とする こ とで、 よ り精確な姿勢を求める こ とが可 能となる
なね 、 の無効と判定された特徵占は、 画像比較部 5 0 の 無効特徴点追跡処理 5 5 において、 無効と判定された特徴占 が存在する領域が登録されなレゝよう に処理される。 つま り 新規特徴点探索情報に再度追加されないよう に無効特徴占情 報と して管理される o
したがつて ant効特徵点は特徵点登録フラグがリ セッ h状 態であって、 特徴占探索フラグがセッ 卜された状態である o で、 特徵点登録フラグ又は特徴点探索フラグが'セッ 卜さ れている特徴点は マツチング処理 5 3 で通常の探索処理が 行わ る。 したがつて 、 こ こで再び正しく マ チングが行わ れた特徵点に関しては 、 追跡フラグが再度セッ 卜される o ま たマツチングが正し 行われなかった場合には 、 特徴点登録 フラグと特徴点探索フラグの両方がリ セッ 卜 され、 有効 • 挺 効にかカゝわらず特徴点情報が廃棄される。 次に特徵点登録フ ラグ力 セッ 卜 されていない無効な特徵点に関しては、 以降の 力メ ラ位置姿勢獲得部 6 0 における姿勢情報を求める計算に は利用 されない。
以上のよう \ 効な特徵点はカメ ラ 姿勢 0 に おける 3呉 因となるので、 単純に廃棄する と 、 また次の画 像処理サイ クルで特徴点と して抽出されてしまう可能性が高 再度姿勢計算処理等に利用されてしまう o よって、 それ らの 1 置を追跡して 効な特徽点を管理する 1— とによ り 計 算処理を少なくでさ また、 精確な姿勢を求める こ とち可能 とな o 刖述の画像比較部 5 0 において、 特徴点を e哉別するための 登録画像の大きさ と探索範囲は、 図 4 Aのよ う に固定とした % 的に被測定物の並進移 に対して 3S万の対象物 の各特徴点では動きは小さいが、 近占の対象物の各特徴点で は 遠占に比ベて動きが大きく なる ま り 近 の特徴点 よ 推定される奥行き情報は測定 度に大さ <影響する。
したがつて 前述の力メ ラ位置姿勢獲得部 6 0 における特 徵占 推 処理 6 1 において、 特徴占 の奥行さ情報 Z が推定 された場 Q その特徴点が遠方の特徴点でめる ¾口 にはその 録画像のサイズを大き <再構築し 探索範囲を小さ くする 。 一方 近占の特徴点である場合には 逆に登録画像のサイ ズ を小さ <変更し 、 探索範囲を大き ぐする なお の処理が m求の範囲に記載の 「適応型特徴画像 定手段 」 の処理に対 応する ちのである。
で 対象となるォブジェク の大ささや対象までの距 離によ りその射影光学系 4 1 0 の立体角が変わるので、 距離 情報に応じて 最適な登録画像の大ささや探索範囲を変えな いと 近占の特徵点の画像ほど姿勢変化に対して登録画像の 変形や移動範囲が大きく なつてしまい 特徴占探索において 正し < マ Vチングができなく なつてしま Ό o
そ で 登録特徴点情報の奥行き情報 Z をもとに 、 マッチ ング処理 5 3 のための画像サイズや探索範囲を m適な値に変 更する とによ り、 姿勢検出精度の向上と処理速度の最適化 が図られる o
本実施例の空間センサは 、 手や頭に装着するだけではなく 身体の測定したい部分に装着する とで その部分の 6 自 由 度の空間姿 を計測する とが可能な 身体運動検出装置に 利用する こ とができる 光や磁気などを利用 したセン サのよう に近 <や周 り に基準となる信号源を設置する必要が なく 、 どこでで 利用する こ とができる。 また複数を同時に 取り付けても 相互の干渉や、 データ更新レ ―卜の低下など もなく利用する とができる。 まに、 本実施例にお.ける図 5
Aのよ うな空間センサを、 仮想的なあるいは実際の筆記用具 の末端部分に取 Ό付ける ことで 、 筆記状態のぺン先の動きを 計測する こ とがでさ、 ペン入力型の操作入力装置などに利用 する こ とができる
また、 本実施例の空間センサをデジタル力メ ラなどに取り 付ければ、 画像を連続して撮影する際に、 空間姿勢情報も同 時に記録する とができる。 これらの撮影情報と空間姿勢情 報とをも とに 影した対象物の 3 次元情報を再構築する情 報に使用する ともでき、 3 次元画像データ構築力メ ラ と し ても利用する とがでさる。
以上のよう に 身体に直接装着して利用するだけでなく 、 身体に着けたり 手に持って利用 したりする 具などに取り 付けて、 その道 目一自身の運動を計測する こと 可能である。
以上実施例に基づいて本発明を説明したが 本発明は前述 した実施例に限定されるものではなく 、 本発明の要旨の範囲 内で種々の変形や応用が可能なことは勿論である
産業上の利用可能性
以上詳述したように . 、 本発明 ί 'こよれば、 被装着物の空間位 置と姿勢及び動きを正確に認識できる運動検出装置及びこの ような運動検出装置を直接あるいは間接的に身体に装着する ことで、 体の部分の動きゃジエスチヤなどを認識できる運動 検出装置を提供することができる。 また、 このような運動検 出装置を装着した物体を把持あるいは持ちながら操作するこ とで、 操作する装置の位置、 姿勢などの動きを検出する運動 検出装置を提供することができる。
特に、 第 1 の発明では 、 加速度センサ又は角速度センサの 信号から求めた慣性運動の情報に加えて 像手段からの周 辺画像の情報を用いて空間上での位置及び姿勢を求める こと で 、 測定対象物の位置及び姿勢をよ り正確に測定でさ 。
また、 第 2 の発明では 、 射^像が 5つの領域に分割された 中心射影なので 画像情報の一次変換式によ り特徴点の空間 位置及び方向を容易に求める ことができる
また、 第 3 の発明では 、 平面ミ ラ一夕ィ プよ Ό も 、 よ り多
< の画像を 時に取り込むことがでさる
また、 第 4 の発明では 、 全天周か らの画像を同時に取り込 むことがでさる
また、 第 5 乃至第 7 の発明では 光や磁 などを利用 した センサのよ Ό に近 <や周り に基準となる信号源を設置する必 要が無く ど でも利用する こ とができる また、 複数を同 時に取り付けても相互の干渉ゃデ タ更新レ 卜の低下など もない。
また、 第 8 の発明では 、 現在の特徵点の位置やその周辺画 像の回転処理などの予測を慣性センサか らの姿勢情報をも と に予測する とで 非常に高速に処理する とがでさる。 ま た 、 慣性センサの移動量が少ないときには探索範囲を狭めた り 、 移動虽が大きな場合には探索範囲を広げたり して処理速 度の向上と分析精度の向上の 2 つの目的を切り替える ことが できる。
また、 第 9 の発明では 、 画素と座標値とを対応した情報と しておく とで、 不連続あるいは重累した画像情報に変換さ れても比較処理が容易にできる □ したがつて画素が点在した 状態でマッチング処理を行う とが可能とな り よ り正確か つ高速に処理を行う こ とができる
また、 第 1 0 の発明では、 登録画像の各画素を 占在した画 像データとして管理するので フ レーム画像内の局所ごと対 応で見たり 画像全体に している特徵画素の対応として 見る ことが可能となる。 つま り 撮像 れる画像の複雑さに 対応して特徴領域を広げたり狭めた りでぎ、 口果として、 処 理精度及び処理時間を制御する とができる
また、 第 1 1 の発明では、 閾値を超える fcのを 効な特徵 点と判定する こ とで 、 周辺の画像の中で固定めるいは停止し た物体のみを基準情報とする とで、 よ り正確な 勢を求め る ことが可能となる
また、 第 1 2 の発明では、 効な特徵点の位置を追跡して それらの画像 置を管理する とによ り 、 計 処理が少な < 算
正確な姿勢を求める こ とが可能となる。
また、 第 1 3 の発明では、 常に既知の奥行さ情報 •a:もつた 特徴点などの基準マ クを視野に入れなく とも 特徴点の検 出処理をし ける こ とで 差の少ない姿執情報を求めつづ ける ことができる。 また、 1 4 の発明では 現在の特徴点位置からの射影画 像方向と分類を簡単に知る とができる と ともに 、 計算処理 を高速に行う こ とができる
また、 第 1 5 の発明では 登録特徵点情報の奥行き情報を もとに、 マッチングのための画像サイズや探索範囲を最適な 値に変更して 、 姿勢検出の精度の向上と処理速度の最適化が 図られる
また、 第 1 6 の発明では 別マークがあれば 、 いつでも どこでも簡単に初期化処理を行 こ とができる。
また、 第 1 7 の発明では 別マークがあれば 、 いつでも どこでも簡単に初期化処理を行 こ とができ、 さ らに、 識別 マ クの形状が変化しても対応できる
また、 第 1 8 第 1 9及び第 2 1 の発明では、 初期化時に 特別 /よ 別 Ύ クを装着する必要がない
また、 第 2 0 の発明では 初期化時に特別な識別マーク を 装着する必要がなく 、 さ らに 初期化後の計測中においても 特徴占 夕を補正する とができる
また、 第 2 2 の発明では 手に把持めるいは持つて操作す る物体に 動検出装置を装着する ことによ り、 操作する装置 の位 m 姿勢などの動きを検出する ことができる

Claims

1 • 測定対象物の位
Figure imgf000052_0001
及び 勢を検出する 検出装置で めつて
加速度センサ又は角速度センサの少なく とも 方を用いて 記測定対象物の慣性 動を検出する慣性運動検出手段と 刖 B慣性運動検出手段と固定され前記測定対象物の周囲の 画像を撮像する撮像手段と の
刖 BH撮像手段によ り異なる時占 で撮像された画像を比較す る画像比較手段と
刖記画像比較手段によ り画像を比車父した ?Ρ口果を用いて刖記 測定対象物の位置及び姿勢を検出するカメラ位 姿勢獲得手 段と、
刖 (3己慣性運動検出手段及び刖記力メ ラ位置姿勢獲得手段に つて得られた情報をもとに 前記測定対象物の空間上での 位置及び姿勢を検出する空間位置姿勢獲得手段と
を具備する とを特徴とする運動検出装置 o
2 - 刖記撮像手段は画像を射影する光学手段をさ らに 備 レ
m 己光学手段は 、 少な < と 4枚の平面鏡を含み これら 少なく とも 4枚の平面鏡によ り 、 刖記測定対 物の周囲の画 像 ill記撮像手段に射 する光子- 玄
? を備える こ とを特徴とす る請求項 1 に記載の運 m検出装 m
3 - 刖記撮像手段は画像を射影する光学手段をさ らに 巨備
7
刖 S己光学手段は 、 曲面 ラ によ り、 前 測定対象物の周 囲の ¾ 1冢を刖記 像手段に射影する光学系を備える ことを特 徴とする請求項 1 に記載の運動検出装置
4 • 刖記撮像手段は画 を射影する光チ手段をさ らに具備
1
レ 刖記光学手段は 魚眼レンズによ り、 刖記測定対象物の周 の画 を 刖記撮像手段に射影する光学系を備 ό し とを特 徴とする請求項 1 に記載の運動検出装置
5 • 身体の 部に装着して その装着した部位の位置及び 姿勢を検出する とを特徴とする請求項 2 乃至 4 のいずれか つに記載の 動検出装置
6 • 手の甲に装着して 手の位置及び姿勢を検出する こ と を特徴とする 冃求項 2 乃至 4 のいずれか ―つに記載の運動検 出装置。
7 • 頭部に 着して、 部の位置及び姿勢を検出する こ と を特徴とする 求項 2 乃至 4 のいずれか つに記載の運動検 出装置。
8 • iu記画像比 手段は 登録時の姿勢情報に対して 、 刖 記慣性運動検出手段によつて検出した現在の位置及び姿勢と 刖記撮像手段の射影変換の関係とから特徴点の移動位置及び 探索範囲を推定する特徴占移動推定手段を有し
f?tj記特徴点移動推定手段は 追跡中の特徵点を現在のフレ ムか ら探索する画像マソチング処理を行う こ とを特徴とす る m求項 1 に記載の運動検出装 ίΑ
9 • 前記特徵点移動推定手段は、 登録時の前記特徴点の位 置座標と、 前記特徵 ώの周辺画像における各画素の情報と、 この各画素の情報を追跡するための各画虫の移 推定画素位 置情報と、 前記慣性運動検出手段によつて検出された現在の 位置姿勢情報と、 前記撮像手段の射影変換の闋係とから、 各 画素の移動位置を推定し、 特徵点移動後の画像を探索範囲内 で走査して画像マツチング処理を行う ことを特徴とする請求 項 8 に記載の運動検出装置
1 0 . 前記特徴点移動推定手段は、 登録時に いて前記特 徴点を含む特徴点画像占 おける各画素の情報と 各画素の 位置座標と、 刖記位置座標を追跡するための各画素の移動推 定画素位置情報と、 刖記慣性運動検出手段によ て検出され た現在の位置姿勢情報と、 前記撮像手段の射影変換の関係と から、 各画素の移動位置を推定し、 特徴占移動後の画像を探 索範囲内で走査して画像マツチング処理を行う とを特徴と する請求項 8 に記載の運動検出装置。
1 1 . 而 己カメ ラ位置姿勢獲得手段は 各特徴占 の運動パ ラメ一夕 と特徴点に対して推定された奥行さ情報から求め ら れたカメ ラ位置姿勢情報よ り 、 各特徴点を含む画像から計測 した運動パラメータ と力メ ラ位置姿勢情報か ら求めた運動べ ク トルとの誤差を求め の誤差がある閾値を える特徴点 は無効な特徵点と判疋する無効特徴点判定手段をさ らに有す る こ とを特徵とする m求項 1 に記載の運動検出装置
1 2 . 前記無効特徴点判定手段は、 前記 効な特徵点と判 定した特徴点に関する情報を、 その情報が消滅するまで、 前 記無効な特徴点の位置情報を追跡する無効特徴占追跡手段を さ らに有する ことを特徴とする請求項 1 1 に記載の運動検出
1 3 . HU 己力メ ラ 得手段は、
特徵点の新規登録においてゝ 特徴点情報としてフ レ一ム画 像から見た 3 次元情報と現在のカメ ラフ レーム とを登録し 、 前記特徴点が現れてから消えるまでの間の特徴点を追跡し それに応じて刖記フ レーム画像から見た 3 次元情報を更新し さ ら に、 別の特徴点が現れたときには、 現在のカメ ラフ レ
—ムカゝら求め られる前記別の特徴点の 3 次元情報を登録する ことによ り 、
連続する画像の中に現れては消えてゆく複数の特徴ハ占、ヽ画像 の位置を追跡し 、 刖記複数の特徴の動きよ り ヮール ド座標空 間に対する現在の力メラフレ ―ムを獲得する こ とを特徵とす る請求項 1 に記載の運動検出装 Λ
1 4 . 前記撮像手段は、 画像を射影する光学手段をさ らに 具備し、
前記画像比 手段 光学手段の入射光線軸を識別し 区分する画像射影区分マスク手段をさ らに有する ことを特徴 とする請求項 1 に記載の運動検出装服。
1 5 . 刖記画像比較手段は 、 特徴点画像の奥行き情報を解 祈し、 その解析した奥行き情報に応じて登録時の特徴ハ占、ヽ画像 の大きさ と特徴点探索範囲又は特徴点の登録数を切り替える 適応型特徴点画像設定手段とをさ らに有する こ とを特徵とす る請求項 1 に記載の運動検出衣
1 6 . 既知の大ささ又は間隔の特徴点認識用識別マ 一クの 画像を初期化の時に取り込み 、 この取り込んだ特徵点口心 用 識別マ クの画像の大きさ又は間隔よ り奥行き情報を求めて 登録する初期化手段をさ らに有する とを特徴とする m求項
5 に記載の運動検出装置。
1 7 - 予め定め られた位置に設けられた特徴占 。心識用識別 マ クの画像を、 の特徴点 =¾J ¾ ffl 別マークから既知の距 離だけ離れた位置から取り込み、 その と きの特徴占の奥行き 情報を初期登録する初期化手段をさ ら に有する とを特徴と する 求項 5 に記載の運動検出装置
1 8 初期化の時に身体の一部又は全体の画像を取 込み、 その取り込んだ画像と予め登録しておいた身体の 部又は全 体の形状や大きさか ら求められる特徴点の奥行き情報を初期 登録する初期化手段をさ らに具備する こ とを特徴とする請求 項 5 に記載の運動検出装置。
1 9 - 初期化の時に、 身体の特徵部の画像を既知の距離 ら取り込み、 こ の取り込んだ画像か ら特徵点の奥行き情報を 初期容録する初期化手段をさ らに具備する こ とを特徵とする 請求項 5 に記載の 動検出装 m
2 0 - 初期化の時 ί t 壮 部から予め定め られた方向及び 距離の画像を取り込み、 こ の取り込んだ画像中の特徵占 の奥 行き情報を初期登録する初期化手段をさ らに具備する とを 特徴とする請求項 5 に記載の運動検出 ¾置
2 1 初期化の時に、 看部位を規定の距離を移動させる 動作を行い、 このとき取り込まれた画像によ り の画像中 の特徵占 の奥行き情報を初期登録する初期化手段をさ らに具 備する とを特徴とす 請求項 5 に記載の運動検出装置
2 2 . 手に把持あるいは持って操作する物体に固定あるい は装着して、 その物体の位置及び姿勢を検出する こ とを特徴 とする請求項 2 乃至 4 のいずれか一つに記載の運動検出装置。
PCT/JP2003/014070 2002-11-07 2003-11-04 運動検出装置 WO2004042548A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP03770139A EP1594039A4 (en) 2002-11-07 2003-11-04 APPARATUS FOR MOTION DETECTION
US11/113,380 US7489806B2 (en) 2002-11-07 2005-04-22 Motion detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002324014A JP4007899B2 (ja) 2002-11-07 2002-11-07 運動検出装置
JP2002-324014 2002-11-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/113,380 Continuation US7489806B2 (en) 2002-11-07 2005-04-22 Motion detection apparatus

Publications (1)

Publication Number Publication Date
WO2004042548A1 true WO2004042548A1 (ja) 2004-05-21

Family

ID=32310432

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014070 WO2004042548A1 (ja) 2002-11-07 2003-11-04 運動検出装置

Country Status (6)

Country Link
US (1) US7489806B2 (ja)
EP (1) EP1594039A4 (ja)
JP (1) JP4007899B2 (ja)
KR (1) KR100948704B1 (ja)
CN (1) CN1711516A (ja)
WO (1) WO2004042548A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976330A (zh) * 2010-09-26 2011-02-16 中国科学院深圳先进技术研究院 手势识别方法和系统
CN102402290A (zh) * 2011-12-07 2012-04-04 北京盈胜泰科技术有限公司 一种肢体姿势识别方法及系统
CN102592331A (zh) * 2012-02-14 2012-07-18 广州市方纬交通科技有限公司 一种车辆惯性运动数据采集器
WO2018196227A1 (zh) * 2017-04-28 2018-11-01 王春宝 人体运动能力评价方法、装置及系统
CN110057352A (zh) * 2018-01-19 2019-07-26 北京图森未来科技有限公司 一种相机姿态角确定方法及装置
CN110132272A (zh) * 2019-06-20 2019-08-16 河北工业大学 一种用于空间碎片运动参数的测量方法及系统
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2747236C (en) * 2004-06-25 2013-08-20 059312 N.B. Inc. Shape-acceleration measurement device and method
JP4592360B2 (ja) * 2004-09-02 2010-12-01 公立大学法人会津大学 身体状態監視装置
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
EP1849123A2 (en) * 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
JP5028751B2 (ja) * 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
KR100801087B1 (ko) * 2006-07-05 2008-02-11 삼성전자주식회사 스트럭처드 라이트를 이용한 이동체 감지 시스템 및 방법,상기 시스템을 포함하는 이동 로봇
KR100814289B1 (ko) 2006-11-14 2008-03-18 서경대학교 산학협력단 실시간 동작 인식 장치 및 그 방법
US8792005B2 (en) * 2006-11-29 2014-07-29 Honeywell International Inc. Method and system for automatically determining the camera field of view in a camera network
US7961109B2 (en) * 2006-12-04 2011-06-14 Electronics And Telecommunications Research Institute Fall detecting apparatus and method, and emergency aid system and method using the same
US8416851B2 (en) * 2006-12-20 2013-04-09 Intel Corporation Motion detection for video processing
JP4582116B2 (ja) * 2007-06-06 2010-11-17 ソニー株式会社 入力装置、制御装置、制御システム、制御方法及びそのプログラム
JP4871411B2 (ja) * 2007-07-26 2012-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動センサ位置認識システム及び方法
JP2009115621A (ja) * 2007-11-06 2009-05-28 Toshiba Corp 移動体画像追尾装置
JP5385555B2 (ja) * 2007-11-14 2014-01-08 日立コンシューマエレクトロニクス株式会社 生体検査システム、生体検査装置および生体検査方法
JP5233000B2 (ja) * 2007-11-21 2013-07-10 株式会社国際電気通信基礎技術研究所 動き測定装置
KR100915525B1 (ko) * 2007-12-18 2009-09-04 한국전자통신연구원 칼만 필터를 이용한 실시간 카메라 움직임 추정시스템에서의 움직임 추정 방법 및 장치
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5305383B2 (ja) * 2008-10-07 2013-10-02 国立大学法人秋田大学 手指関節位置推定装置、及び手指関節位置推定方法
US8310547B2 (en) 2008-12-05 2012-11-13 Electronics And Telecommunications Research Institue Device for recognizing motion and method of recognizing motion using the same
JP4810582B2 (ja) * 2009-03-26 2011-11-09 株式会社東芝 移動体画像追尾装置および方法
US8848979B2 (en) * 2009-03-31 2014-09-30 Nec Corporation Tracked object determination device, tracked object determination method and tracked object determination program
US8630456B2 (en) * 2009-05-12 2014-01-14 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
JP5482047B2 (ja) * 2009-09-15 2014-04-23 ソニー株式会社 速度算出装置、速度算出方法及びナビゲーション装置
JP5445082B2 (ja) * 2009-12-03 2014-03-19 ソニー株式会社 速度算出装置及び速度算出方法並びにナビゲーション装置及びナビゲーション機能付携帯電話機
EP2354893B1 (en) * 2009-12-31 2018-10-24 Sony Interactive Entertainment Europe Limited Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
CN102122343A (zh) * 2010-01-07 2011-07-13 索尼公司 躯干倾斜角度确定及姿势估计方法和装置
US9547910B2 (en) * 2010-03-04 2017-01-17 Honeywell International Inc. Method and apparatus for vision aided navigation using image registration
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP5628560B2 (ja) * 2010-06-02 2014-11-19 富士通株式会社 携帯電子機器、歩行軌跡算出プログラム及び歩行姿勢診断方法
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
CN102385695A (zh) * 2010-09-01 2012-03-21 索尼公司 人体三维姿势识别方法和装置
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
JP5872829B2 (ja) * 2010-10-01 2016-03-01 株式会社レイトロン 動作解析装置
KR101364571B1 (ko) * 2010-10-06 2014-02-26 한국전자통신연구원 영상 기반의 손 검출 장치 및 그 방법
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
WO2012088285A2 (en) * 2010-12-22 2012-06-28 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
US8948446B2 (en) * 2011-01-19 2015-02-03 Honeywell International Inc. Vision based zero velocity and zero attitude rate update
CN103415860B (zh) * 2011-01-27 2019-07-12 苹果公司 确定第一和第二图像间的对应关系的方法以及确定摄像机姿态的方法
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8447116B2 (en) * 2011-07-22 2013-05-21 Honeywell International Inc. Identifying true feature matches for vision based navigation
JP5839220B2 (ja) * 2011-07-28 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
CN103017676B (zh) * 2011-09-26 2016-03-02 联想(北京)有限公司 三维扫描装置和三维扫描方法
CN105651201B (zh) * 2011-09-26 2018-08-31 联想(北京)有限公司 三维扫描装置和三维扫描方法
WO2013069048A1 (ja) 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9729788B2 (en) * 2011-11-07 2017-08-08 Sony Corporation Image generation apparatus and image generation method
JP5769813B2 (ja) 2011-11-07 2015-08-26 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
CN103099602B (zh) * 2011-11-10 2016-04-06 深圳泰山在线科技有限公司 基于光学识别的体质检测方法与系统
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
DE102011118811A1 (de) * 2011-11-15 2013-05-16 Seca Ag Verfahren und Vorrichtung zur Ermittlung von Bio-Impedanzdaten einer Person
CN107835039A (zh) * 2011-12-12 2018-03-23 株式会社尼康 电子设备
EP2634670A1 (en) * 2012-03-01 2013-09-04 Asplund Data AB A data input device
US8836799B2 (en) 2012-03-30 2014-09-16 Qualcomm Incorporated Method to reject false positives detecting and tracking image objects
KR101964861B1 (ko) 2012-06-29 2019-04-02 삼성전자주식회사 카메라 장치 및 상기 카메라 장치에서의 물체 추적 방법
WO2014027500A1 (ja) * 2012-08-15 2014-02-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 特徴抽出方法、プログラム及びシステム
CN109799900B (zh) 2012-11-01 2023-02-28 艾卡姆有限公司 手腕可安装计算通信和控制设备及其执行的方法
US9740942B2 (en) * 2012-12-12 2017-08-22 Nissan Motor Co., Ltd. Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US10444845B2 (en) * 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
CN103099622B (zh) * 2013-01-15 2015-12-09 南昌大学 一种基于图像的身体稳定性评价方法
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US9532032B2 (en) * 2013-04-18 2016-12-27 Ellis Amalgamated, LLC Astigmatic depth from defocus imaging using intermediate images and a merit function map
US9020194B2 (en) * 2013-06-14 2015-04-28 Qualcomm Incorporated Systems and methods for performing a device action based on a detected gesture
JP6312991B2 (ja) * 2013-06-25 2018-04-18 株式会社東芝 画像出力装置
CN104296663B (zh) * 2013-07-17 2017-09-19 英华达(上海)科技有限公司 物件尺寸测量系统及其方法
US9235215B2 (en) 2014-04-03 2016-01-12 Honeywell International Inc. Feature set optimization in vision-based positioning
JP6415842B2 (ja) * 2014-04-16 2018-10-31 日本光電工業株式会社 リハビリテーション支援システム
US10281484B2 (en) * 2014-05-02 2019-05-07 Qualcomm Incorporated Motion direction determination and application
CN103961109B (zh) * 2014-05-05 2016-02-24 北京航空航天大学 基于加速度信号和角速度信号的人体姿态检测装置
CN105377133A (zh) * 2014-06-18 2016-03-02 兹克托株式会社 可穿戴设备的身体平衡测量方法及装置
CN104147770A (zh) * 2014-07-24 2014-11-19 燕山大学 基于惯性传感器可穿戴式偏瘫康复设备及捷联姿态算法
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102232517B1 (ko) 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
US9940541B2 (en) 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
US10726593B2 (en) 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
JP6245671B2 (ja) * 2015-02-02 2017-12-13 オーシーアールシステム株式会社 光学端末装置及びスキャンプログラム
US10075651B2 (en) * 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
WO2016187759A1 (en) * 2015-05-23 2016-12-01 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN113093808A (zh) 2015-05-23 2021-07-09 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
JP6700546B2 (ja) * 2015-06-01 2020-05-27 富士通株式会社 負荷検出方法、負荷検出装置および負荷検出プログラム
CN104951753B (zh) * 2015-06-05 2018-11-27 张巍 一种有标识物6自由度视觉跟踪系统及其实现方法
CN105030244B (zh) * 2015-06-29 2018-05-11 杭州镜之镜科技有限公司 一种眨眼的检测方法和检测系统
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
US10750161B2 (en) 2015-07-15 2020-08-18 Fyusion, Inc. Multi-view interactive digital media representation lock screen
US10222932B2 (en) 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10698558B2 (en) 2015-07-15 2020-06-30 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
CN105180804B (zh) * 2015-08-10 2018-07-03 苏州优谱德精密仪器科技有限公司 一种光电检测装置
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US10740907B2 (en) 2015-11-13 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Moving body tracking method, moving body tracking device, and program
JP6611376B2 (ja) * 2015-12-03 2019-11-27 アルプスアルパイン株式会社 位置検出システム
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
JP2017224984A (ja) * 2016-06-15 2017-12-21 セイコーエプソン株式会社 プログラム、装置、キャリブレーション方法
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
CN107316319B (zh) * 2017-05-27 2020-07-10 北京小鸟看看科技有限公司 一种刚体追踪的方法、装置和系统
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
JP6933065B2 (ja) * 2017-09-13 2021-09-08 トヨタ自動車株式会社 情報処理装置、情報提供システム、情報提供方法、及びプログラム
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
WO2019082376A1 (ja) 2017-10-27 2019-05-02 株式会社アシックス 動作状態評価システム、動作状態評価装置、動作状態評価サーバ、動作状態評価方法、および動作状態評価プログラム
CN108413917B (zh) * 2018-03-15 2020-08-07 中国人民解放军国防科技大学 非接触式三维测量系统、非接触式三维测量方法及测量装置
DE102018108741A1 (de) * 2018-04-12 2019-10-17 Klöckner Pentaplast Gmbh Verfahren für optische Produktauthentifizierung
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
CN110617821B (zh) * 2018-06-19 2021-11-02 北京嘀嘀无限科技发展有限公司 定位方法、装置及存储介质
CN109394226A (zh) * 2018-09-05 2019-03-01 李松波 一种人体柔韧素质评测训练设备及评测方法
US10719944B2 (en) * 2018-09-13 2020-07-21 Seiko Epson Corporation Dynamic object tracking
CN109542215B (zh) * 2018-10-09 2022-03-08 中国矿业大学 安全帽佩戴监测方法
JP7190919B2 (ja) * 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
CN110163911B (zh) * 2019-04-10 2022-07-19 电子科技大学 一种图像与惯性结合的头部姿态检测系统
US11029753B2 (en) * 2019-11-05 2021-06-08 XRSpace CO., LTD. Human computer interaction system and human computer interaction method
KR102405416B1 (ko) * 2019-11-25 2022-06-07 한국전자기술연구원 Hmd를 착용한 사용자의 자세 추정 방법
CN112927290A (zh) * 2021-02-18 2021-06-08 青岛小鸟看看科技有限公司 基于传感器的裸手数据标注方法及系统
CN113639685B (zh) * 2021-08-10 2023-10-03 杭州申昊科技股份有限公司 位移检测方法、装置、设备和存储介质
WO2023113694A2 (en) * 2021-12-17 2023-06-22 Refract Technologies Pte Ltd Tracking system for simulating body motion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097637A (ja) * 1998-09-24 2000-04-07 Olympus Optical Co Ltd 姿勢位置検出装置
JP2000132329A (ja) * 1998-10-27 2000-05-12 Sony Corp 面認識装置、面認識方法及び仮想画像立体合成装置
JP2002007030A (ja) * 2000-06-16 2002-01-11 Olympus Optical Co Ltd 運動検出装置及び操作入力装置
JP2002259992A (ja) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5097252A (en) * 1987-03-24 1992-03-17 Vpl Research Inc. Motion sensor which produces an asymmetrical signal in response to symmetrical movement
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
JPH0962437A (ja) * 1995-08-23 1997-03-07 Nec Corp コンピュータ入力装置
JPH10176919A (ja) * 1996-12-18 1998-06-30 Olympus Optical Co Ltd 形状入力装置
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
JP3412592B2 (ja) * 2000-02-08 2003-06-03 松下電器産業株式会社 個人情報認証方法
JP2001344053A (ja) * 2000-06-01 2001-12-14 Olympus Optical Co Ltd 操作入力装置
JP2002023919A (ja) * 2000-07-07 2002-01-25 Olympus Optical Co Ltd 姿勢検出装置及び操作入力装置
US6744420B2 (en) 2000-06-01 2004-06-01 Olympus Optical Co., Ltd. Operation input apparatus using sensor attachable to operator's hand

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097637A (ja) * 1998-09-24 2000-04-07 Olympus Optical Co Ltd 姿勢位置検出装置
JP2000132329A (ja) * 1998-10-27 2000-05-12 Sony Corp 面認識装置、面認識方法及び仮想画像立体合成装置
JP2002007030A (ja) * 2000-06-16 2002-01-11 Olympus Optical Co Ltd 運動検出装置及び操作入力装置
JP2002259992A (ja) * 2001-03-06 2002-09-13 Mixed Reality Systems Laboratory Inc 画像処理装置およびその方法並びにプログラムコード、記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FUJII HIROFUMI ET AL.: "Kakucho genjitsu no tame no gyrosensor o heiyo shita stereocamera ni yoru ichi awase", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU UPATARN NINSHIKI MEDIA RIKAI], vol. 99, no. 574, 20 January 2000 (2000-01-20), pages 1 - 8, XP002979194 *
YOKOKOHJI YASUYOSHI ET AL.: "Gazo to kasokudokei o mochiita HMD-jo deno eizo no seikaku na kasane awase", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 4, no. 4, 31 December 1999 (1999-12-31), pages 589 - 598, XP002979195 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976330A (zh) * 2010-09-26 2011-02-16 中国科学院深圳先进技术研究院 手势识别方法和系统
CN102402290A (zh) * 2011-12-07 2012-04-04 北京盈胜泰科技术有限公司 一种肢体姿势识别方法及系统
CN102592331A (zh) * 2012-02-14 2012-07-18 广州市方纬交通科技有限公司 一种车辆惯性运动数据采集器
WO2018196227A1 (zh) * 2017-04-28 2018-11-01 王春宝 人体运动能力评价方法、装置及系统
CN110057352A (zh) * 2018-01-19 2019-07-26 北京图森未来科技有限公司 一种相机姿态角确定方法及装置
CN110057352B (zh) * 2018-01-19 2021-07-16 北京图森智途科技有限公司 一种相机姿态角确定方法及装置
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
CN111104816B (zh) * 2018-10-25 2023-11-03 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
CN110132272A (zh) * 2019-06-20 2019-08-16 河北工业大学 一种用于空间碎片运动参数的测量方法及系统

Also Published As

Publication number Publication date
KR100948704B1 (ko) 2010-03-22
JP2004157850A (ja) 2004-06-03
EP1594039A1 (en) 2005-11-09
US7489806B2 (en) 2009-02-10
CN1711516A (zh) 2005-12-21
JP4007899B2 (ja) 2007-11-14
EP1594039A4 (en) 2006-11-08
US20050232467A1 (en) 2005-10-20
KR20050072473A (ko) 2005-07-11

Similar Documents

Publication Publication Date Title
WO2004042548A1 (ja) 運動検出装置
CN106643699B (zh) 一种虚拟现实系统中的空间定位装置和定位方法
JP4136859B2 (ja) 位置姿勢計測方法
JP3859574B2 (ja) 3次元視覚センサ
JP4422777B2 (ja) 移動体姿勢検出装置
US7671875B2 (en) Information processing method and apparatus
JP4739004B2 (ja) 情報処理装置及び情報処理方法
JP5205187B2 (ja) 入力システム及び入力方法
JP4898464B2 (ja) 情報処理装置および方法
JP5697590B2 (ja) 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御
CN111353355B (zh) 动作追踪系统及方法
JP2000097637A (ja) 姿勢位置検出装置
JP2002213947A (ja) ターゲット位置を測定するシステム及びその方法
JP2015532077A (ja) 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法
JP2001283216A (ja) 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP2008046750A (ja) 画像処理装置および方法
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
KR20190036864A (ko) 가상현실 전망용 망원경, 이를 이용한 전망용 가상현실 구동 방법 및 매체에 기록된 어플리케이션
CN109800645A (zh) 一种动作捕捉系统及其方法
JP3732757B2 (ja) 画像認識方法および画像認識装置
JP2004086929A (ja) 画像照合装置
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
CN104937608B (zh) 道路区域检测
GB2345538A (en) Optical tracker
Mohareri et al. A vision-based location positioning system via augmented reality: An application in humanoid robot navigation

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11113380

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057007946

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038A27463

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2003770139

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057007946

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003770139

Country of ref document: EP