WO1993015376A1 - System for recognizing and tracking target mark, and method therefor - Google Patents

System for recognizing and tracking target mark, and method therefor Download PDF

Info

Publication number
WO1993015376A1
WO1993015376A1 PCT/JP1993/000107 JP9300107W WO9315376A1 WO 1993015376 A1 WO1993015376 A1 WO 1993015376A1 JP 9300107 W JP9300107 W JP 9300107W WO 9315376 A1 WO9315376 A1 WO 9315376A1
Authority
WO
WIPO (PCT)
Prior art keywords
target mark
image
target
mark
center
Prior art date
Application number
PCT/JP1993/000107
Other languages
English (en)
French (fr)
Inventor
Masayoshi Hashima
Fumi Hasegawa
Keiju Okabayashi
Ichiro Watanabe
Shinji Kanda
Naoyuki Sawasaki
Yuichi Murase
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to JP51309693A priority Critical patent/JP3242108B2/ja
Priority to US08/119,228 priority patent/US5521843A/en
Publication of WO1993015376A1 publication Critical patent/WO1993015376A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • B64G1/646Docking or rendezvous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39387Reflex control, follow movement, track face, work, hand, visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39397Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Definitions

  • the present invention relates to a target mark recognition and tracking system and method for recognizing and tracking a target mark by using a video camera, and more particularly, to an image processing of an image captured by a video force camera. Detects the position, orientation, etc. of the target mark, detects the amount of deviation from the predetermined position based on the position, and based on the amount of deviation, the position
  • the present invention relates to a target mark recognition / tracking system and method for controlling posture and the like.
  • a method of measuring the position and orientation of a target object a method of obtaining the position and orientation of the target object by taking an image of a target mark provided on the target object using a video camera and performing image processing on the image data. It has been known. This method is used, for example, when the robot hand grips the target object as described above. In that case, the video camera is mounted on the robot, and the mouth robot tracks the target mark according to the position and orientation data of the target mark detected by the video camera, and grasps the target object.
  • it takes time to obtain the position and orientation of the target object by performing image processing on the imaging data of the target mark so that real-time feedback to the robot is not possible. Yes, it was difficult to track the target object.
  • the comparison method based on the area is such that the extracted image having the same area as the target mark is determined as the target mark, and the force is the same as that of the target mark. It is practically impossible to extract a target mark from an image with many noises, and thus there is a problem that the applicable range is limited.
  • the feature extraction method based on pattern matching has a problem that a lot of time is required to search the image memory, and the processing time is long.
  • a triangle or a four-point indicating the positional relationship of three or four points is used.
  • a square target mark is used. If the target mark is attached to a specific plane of the target object, the position and orientation of the object can be measured from the positional relationship in the image space of the captured target mark. In this measurement, an operation based on oblique geometry is performed on the coordinates of an image point formed on the image plane of the force camera from the object space of the target mark. If the position or orientation of the object changes, the relationship between the image points of the target mark also changes. Based on the change, it becomes possible to calculate the position and orientation of the target object in three-dimensional space.
  • the target and the target are calculated based on the coordinate values of the image points extracted from the triangular or square image, and thus the target target is calculated.
  • the measurement accuracy varies depending on the position of the target with respect to the camera (i.e., obtaining image data containing directional components from each image point in the image plane, and measuring the target object with the target mark attached).
  • the reference distance to each image point changes and the measurement accuracy for the position and orientation is not stable.
  • the conventional target mark position calculation requires that the plane of the target mark is at an angle with respect to the image plane, so that the camera is directly opposed to the target mark.
  • the calculation parameters increase remarkably as compared with the case where it is performed. For this reason, there has been a problem that the calculation in the position measurement is complicated and the measurement accuracy is reduced accordingly.
  • the points when four point-like marks are imaged by the photographing means, the points have a certain area on the image, and are included in the image data. As a result, the position of a point cannot be specified accurately, and therefore, positioning on a sub-pixel unit image cannot be performed. In other words, the distance to the object and its posture are calculated based on the position of the incorrect point in the image data, and the distance to the object and its posture can be accurately measured. Did not. Disclosure of the invention
  • the present invention has been made in view of such a point, and a first object of the present invention is to provide a target capable of tracking a target mark of an object in real time using a video force camera.
  • the purpose of the present invention is to provide a system and method for recognizing and tracking a get mark.
  • a second object of the present invention is to provide a system and method for recognizing and tracking a target mark capable of extracting a target mark at high speed and reliably.
  • a third object of the present invention is to provide a target mark recognition / tracking system and method which eliminate the dispersion of measurement errors due to the positional relationship between the target mark and the camera.
  • a fourth object of the present invention is to provide a target mark recognition / tracking system and method capable of accurately and easily measuring the distance to a target and its posture.
  • Video camera for capturing target marks and video A moving mechanism equipped with a camera and capable of moving in six degrees of freedom, image processing means for processing the target mark image data by the video camera, and a target histogram based on the target histogram projection histogram information obtained by the image processing means.
  • a target mark tracking system characterized by having a target mark is provided.
  • the target mark is a three-dimensionally shifted white triangle at the center of a black circle, and is provided on the target object.
  • the video camera is mounted on a moving mechanism that can move in six degrees of freedom, and captures target marks.
  • the image processing means processes the image data of the target mark by the video camera, and obtains a projection histogram or the like for each coordinate axis of the target mark.
  • the displacement detecting means detects the displacement of the target mark from information such as the projection histogram.
  • the moving mechanism control means controls the moving operation of the moving mechanism according to the shift amount, and causes the video camera to track the target mark.
  • a target mark composed of a white triangle three-dimensionally shifted in the center of the black circle is imaged using a video camera, and the amount of displacement of the target mark in each coordinate axis direction is determined from the image data.
  • Ask. This shift amount is obtained by processing each axis projection histogram of the image data, and the processing of each axis projection histogram is a calculation in a one-dimensional area. Therefore, the calculation can be performed very easily without any complicated calculation, and the calculation amount is small. Therefore, the amount of target mark deviation can be Is required. As a result, real-time feedback to the moving mechanism according to the amount of deviation becomes possible, and tracking of the target mark by the video force camera becomes possible in real time.
  • the target mark is photographed by a video camera, and the photographed data is processed, so that the video camera is put on the target mark and is always kept at a predetermined position.
  • an image change amount detecting means for detecting a change amount from a target position / posture of the target mark, and a predetermined method for detecting the video camera and the target mark.
  • the actual change amount detecting means for detecting the relative actual change amount from the engagement position, and the image change amount detecting means obtained by experimentally shifting the predetermined relationship between the video camera and the target mark.
  • a target device comprising: identification means for associating the detected value with the detection value of the actual change amount detection means.
  • a visual tracking control scheme is provided.
  • the identification means experimentally shifts the predetermined relational position between the video camera and the target mark, and obtains the detection value of the image change amount detection means at that time, that is, The mutual change from the amount of change from the target position / posture of the target mark and the value detected by the actual change amount detecting means, that is, the relative actual change amount from the predetermined relationship between the video camera and the target mark is obtained. Make an association.
  • the image change amount of the target mark can be rapidly converted into a relative actual change amount from a predetermined relationship between the video force camera and the target mark.
  • the response performance is not degraded and the moving object can be tracked stably.
  • a target mark posture detection method for detecting a posture of a target object around a force camera line of sight based on a camera image of a target having at least a specific shape of a triangle.
  • the X and Y projection histograms of the triangular image are calculated, and the X and Y centroid positions of the target mark triangle image in each of the obtained projection histograms are calculated.
  • the maximum histogram value when the histogram value is maximized, and the X and Y axis values at that time are calculated, and the calculated center of gravity position is calculated.
  • An attitude detection method is provided. In the above configuration, first, the postures of the target marks in the form of triangles are classified in advance and posture patterns are set, and the positions of the respective centers of gravity in the X and Y directions of the obtained image of the target mark in the form of triangles are listed.
  • the target mark's triangular posture can be assigned to any of the pre-categorized and set posture patterns. Determine whether they are equivalent. Then, the posture of the target mask in the determined pattern around the triangular camera viewing axis is calculated. This makes it possible to accurately and easily grasp the amount of rotation of the target mark through the mouth.
  • a process of binarizing the original image a process of grouping images in which pixels of the binarized image are connected, and a process of obtaining an XY projection histogram for the grouped images
  • a target mark including a circle and its center point on a specific plane of the object, and a target mark are defined.
  • a force camera that captures an image of a circle and its center point, a feature extraction unit that extracts feature points necessary for measuring the position and orientation of the object from the target mark image, and a projective geometry related to the feature point
  • a calculating means for calculating a position and a posture of the target mark in the object space by an arithmetic operation.
  • a distance and posture measuring device that measures the distance to the object and the posture of the object
  • the centers of gravity are arranged on the object such that the centers of gravity are located on the same plane, and at least one circle has a different radius from the others.
  • a photographing method for photographing the four disc-shaped marks, and image data of the four disc-shaped marks output from the photographing means the center of gravity of each disc-shaped mark is determined.
  • the calculated center of gravity calculation method and the four center of gravity positions calculated by the center of gravity calculation means solve the four-point perspective problem and calculate the distance to the object and the posture of the object
  • a distance / posture measuring device comprising: Brief description of the drawing Figure 1 shows the overall configuration of the target mark tracking system.
  • Figure 2 is a perspective view of the target mark.
  • Figure 3 is a top view of the target mark.
  • Figure 4 is a side view of the target mark.
  • Figure 5 is a flowchart showing the procedure for detecting a target mark.
  • Figure 6 shows the XY projection histogram of the target mark.
  • FIG. 5 is a diagram showing an example of a binarization process of a projection image.
  • FIG. 8 is a diagram illustrating an example of a labeling process of a binarized image c .
  • FIG. 9 is a diagram illustrating an example of separating an object of group number 3.
  • FIG. 10 is a diagram showing an XY projection histogram of the object of the separated group board 3.
  • FIG. 11 is a diagram showing a target mark in another form and its XY projection histogram.
  • FIG. 12 is a diagram showing another type of target mark and its XY projection histogram.
  • FIG. 13 is a diagram showing an example of a 4-circle target mark for measuring position and orientation.
  • FIG. 14 is a diagram for explaining a method of obtaining the amount of deviation of the target mark in the XY direction.
  • FIG. 15 is an explanatory diagram of how to determine the center position Pm of the target mark.
  • FIG. 16 is a diagram for explaining a method of obtaining the amount of deviation of the target mark in the Z direction.
  • Fig. 17 is an explanatory diagram when the target mark is viewed obliquely.
  • (A) shows the posture of the camera, and
  • (B) shows the target mark image.
  • FIG. 18 is a diagram showing an XY projection histogram of the target mark image of FIG.
  • FIG. 19 is a diagram for explaining a method of calculating the one-way deviation amount.
  • FIG. 20 is a diagram for explaining how to determine the pitch direction shift amount.
  • Fig. 21 shows an image of the target mark rotated in the roll direction and its X-axis projection histogram.
  • FIG. 22 is a diagram for explaining a method of calculating the amount of displacement in the mouth direction.
  • FIG. 23 is an explanatory diagram of a window setting method.
  • FIG. 24 is a diagram showing another example of the target mark.
  • FIG. 25 is a diagram showing still another example of the target mark.
  • FIG. 26 is a diagram showing an example of use of the target mark of FIG. 25, and
  • FIG. 27 is a diagram showing a mouth chart for detecting a displacement and gripping an object.
  • FIG. 28 is a diagram showing a predetermined positional relationship between the video camera and the target mark.
  • FIG. 29 is a diagram showing the motion of the video camera at the time of measuring the amount of displacement.
  • ⁇ FIG. 30 is a coordinate diagram showing the actual measurement positions of the amount of displacement.
  • Figure 31 is a graph showing the z-Ez relationship.
  • Figure 32 is a graph showing the Ex-DX relationship.
  • FIG. 33 is a graph showing the z-Ax relationship.
  • Figure 34 is a ⁇ -chart showing the procedure for rapidly converting the displacement E * on the image to the actual displacement D *.
  • FIG. 35 is a coordinate diagram showing each component of the actual shift amount.
  • FIG. 36 is a graph showing the z_Ez relationship.
  • Figure 37 is a graph showing the Ey-Dy relationship.
  • Figure 38 is a graph showing the z-Ay relationship.
  • FIG. 39 is a flowchart showing a first control example.
  • FIG. 40 is a coordinate diagram for explaining coordinate conversion.
  • FIG. 41 is a flowchart showing a second control embodiment.
  • FIG. 42 is a coordinate diagram illustrating coordinate conversion.
  • Figure 43 is a projection histogram showing the case where the triangle in the image of the target mark deviates significantly from the center of the circle.
  • Figure 44 is a projection histogram that explains how to find the center of the circle in the target mark image.
  • FIG. 45 is a diagram for explaining a method of obtaining a projection histogram of an image of only a triangle from an actual projection histogram of a target mark image including a triangle and a circle.
  • Figure 46 is a diagram showing the reference shape and position of the triangle of the target mark.
  • FIG. 47 shows the position of the center of gravity of the triangle of the target mark, the maximum value of the histogram value, and the position thereof.
  • Figure 48 is a diagram showing the first half of the posture pattern divided when the roll angle of the triangle is gradually increased.
  • FIG. 49 shows the latter half of the posture pattern that is divided when the roll angle of the square is gradually increased.
  • FIG. 50 is a diagram showing the position of the center of gravity, the maximum value of the histogram value, and the posture patterns classified according to the position.
  • FIG. 51 is a diagram for explaining the configuration of hardware for obtaining projection histogram data.
  • FIG. 52 is a diagram for explaining how to move the window.
  • FIG. 53 is a specific configuration diagram of an embodiment of hardware for obtaining projection histogram data.
  • FIG. 54 is a timing chart of the signal waveform in each block shown in FIG.
  • Fig. 55 is a block diagram showing a position and orientation measurement device.
  • Fig. 56 is a diagram showing the principle of measurement by the target mark.
  • FIG. 57 is a diagram showing the relationship between a target mark and its image.
  • FIG. 58 is a diagram showing an image of a circle and a center point.
  • FIG. 59 shows a method for determining a vanishing point.
  • FIG. 60 is a diagram illustrating a method of obtaining the attitude of the target mark 0 -FIG. 61 is a diagram illustrating an example of the target mark.
  • FIG. 62 is a plan view showing a first example of a target mark provided on an object.
  • FIG. 63 is a flowchart showing the procedure of the first distance / posture calculation.
  • FIG. 64 is a diagram showing labeling and histogram processing.
  • Figure 65 is an XY projection histogram.
  • FIG. 66 is a plan view showing a second example of the target mark provided on the object.
  • Fig. 67 is a flowchart showing the procedure of the second distance / posture calculation. A ⁇ 0 o
  • Figure 68 is an XY projection histogram. '
  • FIG. 69 is a plan view showing a third example of the target mark provided on the object.
  • FIG. 70 is a flowchart showing the procedure of the third distance / posture calculation.
  • Figure 71 shows a coordinate system fixed to the object and a coordinate system fixed to the force camera.
  • FIG. 1 is a diagram showing an overall configuration of a target mark tracking system according to the present invention.
  • the target mark tracking system includes a target object 1, a target mark 10, a camera 20, a robot 30, an image processing device 40, a displacement calculating device 50, and a mouth robot control device 60. Consists of
  • the evening target mark 10 is a three-dimensionally shifted white triangle at the center of the black circle, as described later, and is provided on the object 1.
  • the camera 20 is mounted on a robot 30 that can move in six degrees of freedom, and picks up an image of the target mark 10.
  • the image processing device 40 processes the image data of the target mark 10 by the camera 20 and obtains a projection histogram or the like of the target mark 10 with respect to each coordinate axis.
  • a work station is used for the displacement calculating device 50, and a target mark 10 is extracted from information such as a projection histogram sent from the image processing device 40, and the extracted target mark is extracted.
  • Target mark 1 0 Is detected. The details will be described later.
  • Robot controller
  • Numeral 60 controls the movement of the mouth bot 30 in accordance with the shift amount, and causes the camera 20 to track the target mark 10.
  • the mouth bottle 30 achieves a predetermined work purpose by grasping the grasping portion 1H of the target object 1 by the tracking operation. Next, the configuration of the target mark 10 will be described with reference to FIGS.
  • FIG. 2, FIG. 3, and FIG. 4 are a perspective view, a top view, and a side view of the target mark.
  • the target mark 10 is formed by placing a white triangle 12 on a support 13 provided at the center of a black circle 11.
  • the white triangle 12 is shifted by the height of the column 13.
  • Behind the black circle 11, a white area is provided as described later in detail.
  • the pillar 13 is painted in black like the black circle 11.
  • the support 13 need not necessarily be black if it is clear that the support 13 does not enter the imaging area of the camera 20 due to the manner of movement of the object 1.
  • the target mark 10 is provided on the target object 1 as described above, and the camera 20 captures the target mark 10.
  • the extraction of the target mark 10 and the detection of the shift amount of the target mark 10 are performed based on the image data.
  • the method of extracting the target mark 10 from the image will be described with reference to FIGS. 5 to 13 and the target mark 10 will be described with reference to FIGS. 14 to 50.
  • a method for detecting the amount of deviation will be described.
  • Figure 5 is a chart showing the procedure for detecting a target mark.
  • a target mark image in which a triangle is arranged inside a circle is detected from the projection image.
  • XY projection histogram of this target mark image (histogram As shown in Fig. 6, the number of extreme values (maximum value or minimum value, hereinafter also referred to as “peaks” or “valleys”) is two in both X and Y, and the number of valleys is One feature is that the number does not change when the target mark is rotated.
  • the X projection histogram is the total value of pixels having the same X coordinate value
  • the Y projection histogram is the total value of pixels having the same Y coordinate value.
  • the number following S indicates the step number.
  • each image having the same value (0 or 1) in the binarized image and having a different number is assigned to each image composed of a set of connected pixels.
  • Label and grouping.
  • Fig. 8 shows an example of the result of this labeling process.
  • the binary images in Fig. 7 are grouped into eight groups of group auditors 1 to 8, respectively.
  • the target mark detection processing of steps S5 to S11 is performed on each of the images of each of the group numbers 1 to 8 thus obtained.
  • FIG. 9 shows, for example, a case where this target mark detection processing is performed on an image of the group target No. 3 which is the target target mark.
  • FIG. 10 shows, for example, the result of performing this processing on the image of group No.3.
  • Peaks are detected in the XY projection histogram obtained in this way, and the number is counted. Instead of mountains, valleys may be used.
  • the extracted image is determined to be the image of the target mark in FIG. 6, and the group number ⁇ (3 in this embodiment) of the image is presented.
  • the target mark to be detected is not limited to the one shown in FIG. 6, but may be, for example, one shown in FIG. 11 or FIG.
  • the mark can be detected by using three projections and two valleys in the X projection, and two peaks and one valley in the Y projection.
  • the position and orientation of the object to which the mark is attached can be measured. That is, as shown in Fig. 13, the mark in Fig. 6 is set as the origin mark Ml, the mark in Fig. 11 is set as the sub-origin mark M2, and the line connecting them and the middle point are almost orthogonal. Circles M3 and M4 are arranged on the right and left sides of the line, respectively, and the four circles M1 to M4 form a four-circle target mark. By measuring the position and orientation of this four-circle target mark, the four-circle target is measured. The purpose of this method is to estimate the position ⁇ posture of an object with a target mark.
  • the processing method is as follows.
  • the origin mark M1 is detected by the mark detection method described above, and the coordinates of the center of gravity (origin) are obtained from the binarized image of the mark M1.
  • the target marks to be detected are not limited to those of the embodiment, but can detect various types of marks specified by the extreme values when the XY projection histogram is obtained by the present method. is there.
  • the feature extraction based on the extremum may be feature extraction using a combination of the maximum value and the minimum value, or may be feature extraction based on any one. You can use it.
  • the target mark detection method even when many objects are mixed in the image or the image has a lot of noise, the target mark can be detected more reliably and faster than the conventional method. A toma can be detected.
  • Figure 14 is a diagram for explaining how to obtain the X and Y direction shifts of the target mark.
  • the figure shows a case where the target mark 10 is shifted from the center of the screen of the camera 20.
  • the image of the target mark 10 (target mark image) 10 A captured by the camera 20 is taken into the image memory 41 of the image processing device 40, and is stored in the image coordinate system 42. Be recognized.
  • the target mark image 10A includes a black circle image 11A and a white triangle image 12A.
  • the image memory 41 is composed of 512 pixels in both the X and Y directions, and the coordinate position of each point in the image memory 41 is displayed in units of pixels.
  • the shift amounts of the target mark 10 in the X and Y directions are the target mark image 1 OA, the target position P o (tX, ty), and the target mark image 1
  • the difference from the center position P m (mx, my) of the OA is expressed by the following equation (1).
  • FIG. 15 is an explanatory diagram of how to determine the center position Pm of the target mark.
  • the center position Pm (mx, my) of the target mark 10A corresponds to the center point of the black circle image 11A.
  • the image processing device 40 integrates the pixel values “0” and “1” of the binarized target mark image 10 A, and projects the X-axis projection histogram (histogram) 15 and A projection histogram 16 in the Y-axis direction is created, and then the X and Y coordinates of the center position Pm (mx, my) are obtained from the projection histograms 15 and 16 ⁇ That is, the center position Pm ( mx, my) is obtained from the following equation (3) using both end positions Xb1 and Xb2 obtained from the projection histogram 15 in the X-axis direction.
  • the center position P m (mx, my) obtained in this way, and the preset target position P o (t X, ty) Is the amount of deviation of the target mark 10 in the X and Y directions, as described above. Next, how to determine the amount of deviation of the target mark 10 in the Z direction will be described.
  • FIG. 16 is a diagram for explaining a method of obtaining the amount of deviation of the target mark in the Z direction.
  • the shift amount in the Z direction of the target mark 10 is obtained from the difference between the area Ma of the target mark image 10A and the target area (the area of the circle indicated by 10B) Ta.
  • the image processing device 40 calculates the target mark 10 by multiplying either the X-axis projection histogram 15 or the Y-axis projection histogram 16 described above over the entire area.
  • the area Ma of A is obtained, and the deviation amount in the Z direction is obtained from the difference between the area Ma and a preset target area Ta.
  • This shift Lz is the shift in the camera coordinate system 22 in the same manner as the shifts Lx and Ly described above.
  • Fig. 17 is an explanatory diagram of the target mark when viewed diagonally, (A) shows the camera posture, and (B) shows the target mark image. Are respectively shown.
  • the force camera coordinate system 22 is displaced in one direction, the pitch direction, and the negative direction.
  • the deviations in the Y direction, the pitch direction, and the ⁇ rule direction refer to rotation around the X axis, around the ⁇ axis, and around the ⁇ axis in the camera coordinate system 22 (see Fig. 16).
  • the target mask image 10 ⁇ at that time is shown in Fig.
  • the white triangle image 12 A appears to be displaced from the black circle image 11 A.
  • the reason why the white triangle image 12 A looks shifted is that the white triangle 12 is shifted from the black circle 11 by the amount of the support 13.
  • the shift amounts in the unidirectional and pitch directions can be determined. The method of obtaining the value is described below.
  • FIG. 18 is a diagram showing an X and Y projection histogram of the target mark image of FIG. 1 (B).
  • the peak (peak) corresponding to the shift of the white triangle image 12 A with respect to the black circle image 11 A is shown.
  • position and valleys of - position of ([pi peak) appears shifted t displacement of the X-axis projection arsenide scan chromatogram 1 7 and Y axis projection histogram 1 8 Karayo over direction and the pitch direction is obtained.
  • FIG. 19 is a diagram for explaining how to determine the amount of deviation in one direction.
  • Xb1, Xb2-XP1, and Xp2 are obtained from the X-axis projection histogram 17 shown in the figure.
  • Xb 1 and Xb 2 are the coordinate values at both ends of the X-axis projection histogram 17.
  • the black circle image 11A is located between Xb1 and Xb2.
  • X p 1 and X p 2 are the X-axis projection These are the coordinates of the peaks in Stogram 17.
  • the white triangle image 12 A is located between X pl and X p 2.
  • the position of the white triangle image 12A (Xp1 to XP2) in the black circle image llA (Xbl to Xb2) is determined. Just ask. That is, the difference between the center position X bc of the entire black circle image 11 A (target mark image 1 OA) and the center position X pc of the white triangle image 12 A may be obtained, and the following equations (5), (6) And (7).
  • Xbc Center position of X-axis projection histogram 17 (Center position of X-axis direction of black circle image 11A)
  • FIG. 20 is a diagram for explaining how to determine the amount of deviation in the pitch direction.
  • the pitch direction shift amount L pitch can be obtained in exactly the same manner as when the vertical direction shift amount Lyaw is obtained. That is, first, Yb1 and Yb2 (coordinate values at both ends of the Y-axis projection histogram 18) from Y-axis projection histogram 18 and Yp1 and Yp2 (Y-axis projection histogram) The coordinates of the peak of the program 18) are obtained, and these values can be used to obtain the following equations (8), (9), and (10).
  • Ybc Center position of Y-axis projection histogram 18 (Center position of black circle image 11A in Y-axis direction)
  • FIG. 21 is a diagram showing a target mark image rotated in the portal direction and its X-axis projection histogram.
  • the force-measurement coordinate system 22 rotates in the mouth direction, as shown in the figure, one vertex 12 C of the white triangle image 12 A in the target mark image 10 A rotates, The position of the valley of the X-axis projection histogram 19 also changes according to the position of the vertex 12C. Focusing on this point, the displacement in the direction of the mouth is determined from the X-axis projection histogram 19 as shown in FIG.
  • FIG. 22 is a diagram for explaining how to obtain the roll direction deviation amount.
  • Xpl, Xp2 and Xlp are obtained from the X-axis projection histogram 19.
  • X p 1 and XP 2 are the coordinate values of the peak of the X-axis projection histogram 19 (the coordinate values at both ends of the white triangle image 12 A in the X-axis direction).
  • X1p is the coordinate value of the valley of the X-axis projected histogram 19 (the X-axis direction coordinate value of the top 12C of the white triangle image 12A).
  • the roll direction deviation Lroll can be obtained from the following equations (11) and (12) using these values.
  • the displacement calculator 50 described above calculates the displacements Lx, Ly, Lz, Lyaw, Lpitch, and Lroll (represented as above) by the following equation (13). ), Multiply by the proportional gains k (kX, ky, kz, kyaw, kpitch and kro11) to obtain the speed command value V (VX, Vy, Vz, Vz) for the robot 30. yaw, V pitch and Vroll).
  • V kL (1 3)
  • V, k, and L are all vectors.
  • the speed command value V is sent from the displacement calculating device 50 to the mouth-bot control device 60.
  • the speed command value V indicates the moving speed of the camera 20 (moving speed of the origin of the camera coordinate system 22), that is, the moving speed of the hand of the robot 60 equipped with the camera 20. .
  • the robot controller 60 calculates the amount of movement of the robot controller 60 for each sampling time from the speed command value V, and commands the amount of movement to operate the mouth port 30. Control. If the sampling time of the mouth bot control device 60 is shorter than the time (measurement time) during which the speed command value V is displaced and fed back from the Hama calculation device 50, the speed command value is used. Interpolate V as the command value for several sampling destinations. For example, if the measurement time is five times the sampling time, the operation of the robot 30 is controlled such that the robot moves to the command position in five sampling operations.
  • FIG. 23 is an explanatory diagram of a window setting method.
  • the target since the camera 20 and the target mark 10 are not perpendicular, the target This shows a case where the tomato image 10A looks flat.
  • the target mark image 10A is taken into the image memory 41 of the image processing device 40, where the mark recognition is performed, and the window 44 is set around the recognized target mark image 1OA. Is done.
  • the position of the center of gravity of the target mark 10A obtained by the projection histogram processing at the time of mark recognition is set as the center of the window 44.
  • the sizes W 1 X and W 1 y of the window 44 are the vertical and horizontal sizes m] X and m] of the target mark 10 A obtained by the projection histogram processing at the time of mark recognition. It is obtained by multiplying y by a preset ratio, for example, 2 times.
  • the target mark is previously placed on the target object 1 around the black circle 11 of the target mark 10.
  • a white area is provided so as to be slightly larger than the vertical and vertical size of 10 per multiplied by the set ratio.
  • the white area 43 can always be secured in the image memory 41. Therefore, even if the distance between the target mark 10 and the camera 20 changes and the size of the target mask image 10A captured in the image memory 41 changes, the target mask will change.
  • a window 44 can be set around the target mark image 1OA without the image 10A protruding from the white area 43.
  • This window is used to set the target mask 10A tracking status.
  • the projection histogram information obtained at the time of mark recognition is used as described above, but at the time of subsequent tracking, new projection histogram information obtained at each measurement by the camera 20 is used. Done.
  • FIGS. 24A and 24B are diagrams showing another example of the target mask, wherein FIG. 24A is a perspective view and FIG. 24B is a side view.
  • the target mark 100 in this example is configured by drawing a white triangle 120 on the upper surface of a triangular prism 130 provided at the center of a black circle 110.
  • the triangular prism 130 is painted black except for the white triangle 120, like the black circle 110.
  • FIG. 25 is a diagram showing still another example of the target mark.
  • the target mark 101 in this example is obtained by cutting a black circle area to lower it, and placing a white triangle 122 on the bottom of the black circle area 111 formed by lowering the black circle area. That is, it is configured by shifting the white triangle 122 in the negative direction.
  • the concave shape of the black circle region 111 is square, but another shape, for example, a bowl shape may be used.
  • one rodents at sign in FIG. 2 5 can be used when such as docking, such as two objects are in close contact .
  • one object 1A is provided with a target mark 101
  • the other object 1B is provided with a camera 20, and the camera 20 captures the target mark 101.
  • the camera 20 capturing the target mark 101 approaches the target mark 101, and even if the two objects 1A and 1B come into contact with each other, the camera 20 is still in the target mark. 1 0 1
  • the shooting can be continued. Therefore, docking can be completed using the image data.
  • FIG. 27 is a diagram showing a flowchart for executing tracking of a target mark and gripping of an object.
  • the value following S indicates the step number.
  • steps S21 to S25 are performed on the image processing apparatus 30 side
  • steps S26 to S32 are performed on the position shift calculation apparatus 50 side. Is done.
  • [S31] Determine the position and size of window 44 for the next measurement. [S32] It is determined based on the sensor signal from the robot 30 whether or not the target object 1 has been gripped. If it is determined that the user has grasped the object, the process ends, otherwise, the process returns to step S22.
  • the target mark 10 constituted by shifting the white triangle 12 three-dimensionally at the center of the black circle 11 is imaged using the camera 20. From the image data, deviation amounts LX, Ly, Lz, Lyaw, Lpitch and Lroll of the target mark 10 are obtained. These shift amounts Lx and the like are obtained from each axis projection histogram processing of the image data, and each axis projection histogram processing is a calculation in a one-dimensional area. For this reason, the calculation can be performed very easily without the need for complicated I calculations, and the amount of calculation is small. Therefore, the deviation amount L x of the target mark 10 can be obtained by high-speed processing.
  • the robot 30 can grasp the target object 1 by the tracking operation and achieve a predetermined work purpose.
  • the target mark is configured by a black circle and a white triangle, but the target mark is formed by the color. Can be conversely combined to form a white circle and a black triangle.
  • the relationship between the actual movement amount of the target mark (absolute scale such as mm) and the image movement amount (the number of pixels) on the image is represented by the target mark and the target mark. If the distance between the target mark and the video force camera changes significantly because the distance between the video camera and the video camera changes nonlinearly, the response performance will deteriorate and stable operation will occur. Getting Hard, In other words, for the same target image movement amount on the image, the actual movement amount of the target mark differs due to the difference in distance between the target mark and the video force camera.
  • Another embodiment that solves these problems so that even when the distance between the target mark and the video camera changes significantly, the response performance does not deteriorate and the moving object can be tracked stably. Is described below.
  • FIG. 28 shows a predetermined positional relationship between the video camera 20 and the target mark 10
  • FIG. 28A shows a predetermined positional relationship between the video camera 20 and the target mark 10.
  • FIG. 7B is a diagram showing a coordinate positional relationship at the time
  • FIG. 7B is a diagram showing an image of the target mark 10 taken by the video force camera 20 at that time.
  • 0-Xyz indicates a right-handed coordinate system fixed to the video force camera 20
  • 0-XYZ indicates a right-handed coordinate system fixed to the target mark 10.
  • the z-axis and the z-axis are set so as to face opposite directions on the same straight line, and the x-axis and the y-axis are set in parallel, and the y-axis and the x-axis are set in parallel.
  • FIG. 28 (B) the image of the target mark 10 taken by the video camera 20 is shown in FIG. 28 (B). The image is as shown, and this is the image of the target mark 10 when it is at the target position.
  • the image processing device 40 and the position shift calculating device 50 in FIG. The target image obtained by the video camera 20 is the target The amount of displacement in each axis direction is obtained as follows by comparing with the image at the time when step 10 hits the target position.
  • the amount of such displacement changes nonlinearly with respect to the amount of displacement in the real coordinate system depending on the distance between the video force camera 20 and the target mark 10.
  • the relevance between the two shift amounts is determined by actual measurement and identification (association) is performed.
  • the target mark 10 is fixed, and the tip of the six-degree-of-freedom manipulator 30a of the robot 30 is set.
  • the coordinates fixed to the target mark 10 By moving a predetermined amount experimentally in the system (0—XYZ) and then processing the image of the target mask 10 obtained by the video camera 20 at that time, Measure and record the amount of deviation from the target position on the screen.
  • the video camera 20 may be fixed, and the target mark 10 may be placed on a stage that can be moved in six degrees of freedom, and the actual measurement may be performed by moving the target camera.
  • 30 b in Fig. 29 grips the target object It is a hand to do.
  • the camera coordinate system (o-Xyz) is converted to the target coordinate system (0- XYZ), move in the x, y, and z directions, roll, pitch, and unidirectional directions (rotation around the Z, Y, and X axes). This is done by measuring the amount and the amount of displacement (in pixels) of the target mark 10 image.
  • the video camera 20 is moved to each point in the z-axis direction, and the value of the z-axis (the video camera 20 and the target mask 10 0) are moved. And the area E z (pixel value) of the target mark 10 on the screen at that time.
  • the video camera 20 is moved by several points in the positive and negative directions of the y and X axes, and the actual movement amounts D x and D y at that time, and the deviation amount E x, of the target mark 10 on the screen. Measure E y (pixel value).
  • the video camera 20 is rotated several points around the X, Y, and Z axes of the target coordinate system (0—XYZ), and the actual movement amounts Dyaw, Dpitch, Droll, and the target mark 10
  • the amount of displacement Eya w, Epitch, Eroll (pixel value) on the screen is measured. The above measurement is performed at each point in the z-axis direction.
  • the video force camera 20 Since the deviation between the video camera 20 and the target mark 1Q from the predetermined relation position is relatively small, the video force camera 20 The range in which is shifted in each axial direction is sufficient only in the vicinity of the predetermined relation position.
  • the deviation from the predetermined relationship between the video camera 20 and the target mark 10 is relatively small, and the distance z between the video camera 20 and the target mark 10 is small. If constant, the E x— D x relationship is a straight line through the origin Can be approximated by This is the same for each of the other axes, t, o
  • the inclination in the straight line, the inclination can be considered to be a function of the value of the distance Z.
  • the curve in FIG. 33 is obtained.
  • Figure 33 shows the z-AX relationship in the X-axis direction.
  • FIG. 34 is a flowchart showing a procedure for rapidly converting the displacement E * on the image to the actual displacement D *.
  • the number following S indicates the step number.
  • the actual deviation D * obtained by the above processing is expressed in absolute scale (mm for position, radian for posture, etc.) in real coordinates, and as shown in Fig. 35, the translation component D x , D y, and D z are the amounts of displacement in the y-axis, X-axis, and z-axis directions in the camera coordinate system 0 — xyz, and the rotational components Droll, Dpitch, and Dyaw are the target coordinate system XYZ Is the amount of shift described in.
  • FIGS. 36 to 38 Specific data corresponding to the respective relationship diagrams shown in FIGS. 31 to 33 are shown in FIGS. 36 to 38.
  • Figure 36 is a graph of specific numerical values showing the z-Ez relationship.
  • Figure 37 plots the Ey-Dy relationship in the y-axis direction for each distance z.
  • Figure 38 is a graph showing the z-Ay relationship in the y-axis direction.
  • FIG. 39 is a flowchart showing the first control embodiment.
  • the video force camera 20 is moved to the target coordinate system ⁇
  • the position is corrected by rotating about the origin ⁇ of -XY z, and the first control embodiment is an effective method when the amount of displacement with respect to the posture is relatively small.
  • the processing time is short.
  • the number following S represents the step number.
  • the speed command value V * of Dyaw (14) is, as shown in Fig. 40, And the new coordinate system shifted the camera coordinate system o _ xyz in the z-axis direction by a distance Z t between the video camera 2 0 and the target mark 1 0 o R - X R y velocity command value in R z R Is converted to As a result, the attitude shift (pitch, arrow direction) of the video camera 20 is approximately rotated around the origin 0 of the target coordinate system XYZ.
  • FIG. 41 is a flowchart showing the second control embodiment.
  • the actual displacement D * in the target coordinate system 0—XYZ is converted into the actual displacement in the camera coordinate system 0—xyz, thereby controlling the position of the video camera 20. Is what you do.
  • the second control example takes a little processing time, but is a strict control method, and is an erect method regardless of the magnitude of the amount of displacement related to the posture.
  • the numbers following S represent step numbers.
  • the target coordinate system 0 the rotation matrix representing the predetermined (target) posture of the video camera 20 as viewed from XYZ is C d
  • the rotation matrix representing the current posture of the video camera 20 is Ca
  • the target coordinates are Coordinate 0—The displacement of the orientation of the video camera 20 in XY Z Droll, Dpitch, and Dy, where Dt is the matrix that represents the rotational transformation, the following equation (15) holds.
  • C d C a (C d- «D t -'C d) ⁇ ⁇ ⁇ (1 6)
  • D a C d — 'D t — tC d as shown, current Chikarame La coordinate system O a - X a y a Z a as seen from the displacement amount of the video power ra 2 0 posture, the position Chikarame La coordinate system 0 d - X d y d
  • the speed command value of the video force camera 20 is calculated by multiplying the actual deviation in the camera coordinate system 0 — Xyz obtained in step S64 by a constant gain.
  • step S65 The speed command value calculated in step S65 is output to the manipulator 30a.
  • step S666 As a result of the output of the speed command value in step S666, the video camera 20 and the target mark 10 have a predetermined positional relationship. As a result, the hand 30b Whether it could be grasped Is determined, and if gripping is not possible, the process returns to step S61.
  • the Ez relation and the z-A * relation may be considered to be approximately represented by straight lines, respectively, and an appropriate approximate linear function may be set. In that case, the conversion error is large, but the conversion can be performed at a higher speed. Also, if the z- EZ relationship and the z-A * relationship are not replaced by functions and are held as tables, and conversion is performed using these tables, the storage capacity for each table will increase slightly. Conversion can be performed at high speed.
  • the predetermined relationship between the video camera and the target mark is experimentally shifted, and the position of the target mark on the image obtained at that time is shifted from the target position. From the deviation amount and the actual deviation amount between the video camera and the target mark from the predetermined relational position, identification as an association is performed, and as a result, from the target position of the target mark on the image, The actual deviation from the predetermined relationship between the video camera and the target mark is calculated based on the deviation.
  • the amount of deviation of the target mark on the image from the target position can be rapidly converted to the amount of actual deviation from the predetermined relationship between the video camera and the target mark. , Even if the distance between the target mark and the video camera changes significantly, stable tracking of a moving object can be performed without deteriorating the response performance.
  • a proportional gain is multiplied to the actual deviation amount obtained above, and a speed command value in a coordinate system in which a rotational component is displaced by a distance between the video camera and the target mark is calculated.
  • the speed command value for position control of the video camera is used to control the position of the video camera.
  • the target mark displacement L roll [Eq. (12), see FIG. 22] is small. Although it depends on the shape of the target mark's triangle, if the angle exceeds 90 degrees, it will be impossible to detect this angular displacement L ro ll in any shape of triangle. Problems arise. If the shape of the triangle is an acute angle isosceles triangle, it will not be detectable even with a slight rotation.
  • the roll direction deviation correction is processed by repeatedly detecting the roll direction deviation amount L roll.
  • the projection histogram at the vertex position of the triangle has the largest value. It happens that it is not always the value. Therefore, as in the above embodiment, for example, when processing is performed such that the midpoint of the two peak points Xpl and Xp2 in the projection histogram in the X direction is the center of the triangle, misregistration is underdetected. Therefore, there is a problem that it takes time to correct the displacement. Further, when detecting the above two peak points XP1, Xp2, there is a risk that the local peak may be regarded as the original peak due to the influence of noise and the like.
  • the histogram values are 5 x and 5 x, respectively. Find the two points ⁇ 5 y, and find the midpoint of these two points, X cg and Y eg, respectively. Let X cg and Y eg be the center positions (X cg and Y cg) of the target mark circle image.
  • FIG. 45 (B) shows the projection histogram in X and Y directions of the image of the circle calculated in this way
  • Fig. 45 (A) shows the image of the target mark image consisting of a triangle and the circle behind it. The measured histogram in the X and Y directions is shown. Then, by subtracting the measured projection histogram of the image of the target mark consisting of the triangle and the circle behind shown in Fig. 45 (A) from the calculated projection histogram of the circle image shown in Fig. 45 (B). Then, a projection histogram in the X and Y directions of the triangular image shown in Fig. 45 (C) is obtained.
  • the rotation posture of the triangle in the roll direction is detected as follows.
  • the triangular shape of the target mark is defined as an acute isosceles triangle, and the acute angle of the acute angle is specified to be smaller than 45 degrees.
  • the posture of the triangle 12a as shown by the two-dot chain line in Fig. 46 is used as the reference posture, and the triangle rotated in the roll direction with respect to the center of gravity G of the triangle 12a.
  • the counterclockwise rotation angle of 1 2 b be.
  • the angle between the line connecting the base angle E and the center of gravity G of the triangle 12a to the X-axis direction is set to 0, and the line connecting the base angle E and the center of gravity G is the side of the triangle 12a.
  • F be the point intersecting with, and let the length of this line segment EF be L p (number of pixels).
  • the coordinates (X g, Y g) of the center of gravity G are calculated using the projection histograms of the triangle image in the X and Y directions.
  • the X and Y coordinate values Xm and Ym that maximize the histogram value and the maximum values Hy and Hx at that time are obtained.
  • the rotation posture of the triangle 12 b is classified into the following posture patterns.
  • Figures 48 and 49 show the transition of the positional relationship of the center of gravity G with respect to the coordinate values Xm and Ym when the rotation angle is gradually increased, and are divided into 24 types of patterns.
  • A, B, a, b, 0 are symbols for indicating the weight (area) balance with respect to the coordinate values Xm, Ym, and the weight (area) of A> a> 0 and B> b> 0 They are in a size relationship.
  • the arrow indicates the center of gravity G for the coordinate values Xm and Ym.
  • the rotation angle in each posture pattern is expressed by the following equation.
  • Figure 50 classifies the above 24 patterns based on the magnitude and magnitude relationship of the values Xg, Yg, Xm, Ym, Hy, and Hx.
  • the posture patterns shown enclosed are those that cannot be specifically classified by the values Xg, Yg, Xm, Ym, Hy, and Hx.
  • the coordinates (X g, Y g) of the center of gravity G and the X, Y coordinate values at which the histogram value is the maximum are obtained using the measured histograms of the triangle image in the X and Y directions.
  • Xm, Ym, and the maximum values Hy and HX at that time are obtained, by comparing these values with the classification shown in Fig. 50, it is possible to determine which triangle of the target mark is actually measured. It is possible to know whether the posture pattern is c , and from the above equations (17) to (40), it is also possible to know what the rotation angle is.
  • the ⁇ -axis rotation of the triangle is described when the apex angle of the acute angle isosceles triangle of the target mark is smaller than 45 degrees.
  • the triangular roll rotation when the rotation angle is smaller than the degree, although the classification shown in FIGS. 48 to 50 is slightly changed, the rotation angle can be detected basically based on the same idea.
  • the coordinates of the center of gravity G of the triangular image (X g, X g) are calculated using the triangular target mark of a specific shape and the measured histograms of the triangular image in the X and Y directions.
  • Y g) and the X and Y coordinate values Xm and Ym that maximize the histogram value and the maximum values Hy and HX at that time and rotate the triangular posture from the pre-classified posture pattern Try to find it as a corner.
  • the detected values Xg, Yg, Xm, Ym, Hy, and Hx are values that can be detected very easily in image processing. Therefore, the boundary line is extracted and the length of each side of the triangle of the target mark is calculated.
  • a known method that requires complicated processing such as specifying the posture of the triangle on the image from the ratio and the like is used. In comparison, it is very easy to specify the posture of the triangle.
  • a general-purpose image processing device is used. That is, the image scan data for one frame from the camera is stored in the frame memory 301 after storing the image data in accordance with each command given via the bus. Window setting process, store it in the frame memory 302, then perform binarization processing, store it in the frame memory 303, and finally perform projection histogram processing to perform the histogram program. Stored in memory 304. Then, the data stored in the history program memory 3'04 is read out to the CPU, and the positional deviation is detected.
  • FIG. 51 (B) is a diagram for explaining the principle of an embodiment of an image processing apparatus in which the processing for obtaining projection histogram data is accelerated. That is, in the present embodiment, the processing of store, window setting, binarization, and projection histogram are performed simultaneously without using the frame memory, and the obtained projection histogram data is stored in a histogram memo. To be stored in 305.
  • FIG. 53 is a specific block diagram of the embodiment shown in FIG. 51 (B).
  • FIG. 54 is a timing chart showing a signal waveform in each block of FIG. 53, which will be referred to when describing the embodiment of FIG. 53 below.
  • the video signal (Fig. 54 (A)) is input to the analog comparator 311 via the clamp section 3108, and the predetermined slice from the bus is input to the comparator 311.
  • the data of the level is converted into an analog value by the DA converter 310 and input.
  • the comparator 311 outputs a binarized pulse signal [Fig. 54 (D)] based on the video signal exceeding the slice level.
  • the sync separator 309 converts the video signal into a vertical sync signal and a horizontal sync signal [Fig.
  • the window judgment in the X direction is based on the input of the horizontal synchronizing signal, and the dot clock of 12 MHz [Fig.
  • FIG. 54 (E) is the logical product of the X-side window signal and the Y-side window signal.
  • the AND circuit 313 outputs the AND output of the binarized pulse signal [Fig. 54 (D)] and the signal in the window [Fig. 54 (E)] [Fig. 54 (F)]. Is output.
  • This AND output indicates a binarized signal in the window, and the histogram processing unit 316 outputs the dot clock (Fig. 54 (C)) only while this AND output is "1".
  • Histogram values are obtained by counting.
  • the obtained histograms in the X and Y directions are stored in the storage unit (M) 317 in the X direction and the storage unit (M) 318 in the Y direction, respectively.
  • the CPU reads the histogram data of these storage units 317 and 318 via the bus.
  • the AND output is output to the image monitor 315 via the display unit 314.
  • the window comparison, store, binarization, and projection histogram processes described above are performed during the horizontal scan, and the histogram values are stored in the storage unit during the vertical retrace period. Stored in 317 and 318.
  • a series of processes such as window comparison, store, binarization, projection histogram processing, and storage of histogram values start the image scan of the next frame. It will be completed by the time.
  • the window 307 is moved at high speed in the screen 306, and the projection histogram in the window is examined.
  • the target mark is searched.
  • the target mark needs to have a triangular shape.
  • an embodiment that recognizes a target mark that does not have a triangular shape will be described. .
  • FIG. 55 is a block diagram showing the configuration of this embodiment.
  • a work object hereinafter, simply referred to as an object 1 gripped by the mouth bot hand is at an arbitrary position and posture in a three-dimensional space.
  • an image of the target mark ⁇ picked up by the combined camera 20 is input from the force memory interface 3.
  • the position and orientation measuring apparatus of the present embodiment measures the position and orientation of an object based on the image data of the target mark A.
  • the target mark A is on a specific plane of the object 1 and includes a circle and its center point.
  • the target mark A is imaged by the camera 20, and an image of the circle and its center point is created.
  • the camera interface 3 is connected to an image memory 4 and an image processing processor 5 by an image bus 6.
  • the image of the target mark A is temporarily stored in, for example, the image memory 4 and is stored in the image processing process.
  • the feature points necessary for measuring the position and orientation of the object 1 are extracted by the monitor 5.
  • the CPU 7 and the main memory 8 are arithmetic means for calculating the position and orientation of the object 1, and perform the projection geometric operation on the feature points extracted from the image space to obtain the object of the target mark A.
  • the position and orientation in space can be calculated.
  • This calculation means is connected to the image processor 5 and the like via the control port 9.
  • Fig. 56 is a diagram showing the principle of measuring the position and orientation by the target mark A.
  • the target mark A is composed of a circle of radius r and its center point C.
  • FIG. 56 shows a state in which the projection images A i and C i are seen through the target mark A to the image plane i which is the image plane of the camera 20.
  • the viewpoint 0 is the lens center of the camera 20
  • the image plane i is originally located on the negative side in the Z-axis direction, but in order to clearly associate the object space with the image space, It is drawn on the positive side.
  • f is the focal length of the camera 20 lens.
  • X, ⁇ , and Z are the reference coordinates of the camera 20, and Xt, Yt, and Zt are the reference coordinates of the object space with the center point C of the target mark A as the origin.
  • the posture of the target mark A with respect to the camera 20 is a posture slightly rotated around the straight line m on the Yt axis, and the intersection points S, T of the straight line m and the circumference of the target mark A are assumed.
  • the diametric vector connecting is parallel to the image plane i.
  • the image processing processor 5 extracts predetermined feature points, and the CPU 7 extracts the feature points of the target mark A. Measure position and orientation.
  • a circle with a known radius It uses the fact that the position and posture of a circle in three-dimensional space are uniquely determined from the projected image of the circle and its center point.
  • At least one straight line forming the diameter of the circle in the object space is used as a target by utilizing the fact that the straight line is parallel to the image plane. Find the two points S and T that specify the diameter parallel to the image plane i of the topic A. From the ratio of the distance between the image points on the image plane i and the diameter 2r of the circle, the center point C The coordinates of are determined.
  • two or more vanishing points are obtained from an image of an arbitrary diameter of a circle in a three-dimensional space. Using the fact that each line connecting this vanishing point and the image of the center point C i coincides with the direction of the diameter of the actual circle in the object space, the target mark A is The normal vector Zt to the plane containing the circle is obtained. In this case, the direction of the plane including the target mark A can be determined without knowing the value of the radius of the circle of the target mark A.
  • FIG. 5 is a diagram showing the relationship between the target mark A and its image at the reference coordinates of the camera 20.
  • Figure 57 shows a cross section of the oblique cone determined from viewpoint 0 and the image A i of the circle cut by a plane containing the viewpoint ⁇ and any two points U and V of the diameter of the target mark A. It is shown. Where points U, V, And the vector at point C can be expressed by the following equations (45) to (47), respectively.
  • ( ⁇ U) and the like denote vectors with the start point at point ⁇ and the end point at point U, etc., s, t, u Is a scalar quantity.
  • points U and V are points on the circumference, and C is the center point of the circle.
  • FIG. 58 is a diagram showing an image of the circle of the target mark A projected on the image plane i and the center point.
  • the circle of the target mark A always projects the ellipse image A i on the image plane i, except when the camera 20 is directly opposite the target mark A surface of the object 1. If the image points of intersections S and T of the circle of target mark A and the straight line m passing through the center point C are S i and T i, the line bisected by the image point C i of the center point C There is only one minute, and it is easy for the image point S i, Extracted as T i. Assuming that the coordinates of the image point C i are (X., y 0), the coordinate value of the center point C is the distance between the circle diameter 2 r and the image points S i and T i at the image plane i. Is determined by the ratio p of
  • FIG. 59 is a diagram illustrating a method of determining vanishing points when four points on one straight line are projected on an image plane i. If the cross ratio R is expressed as R (a, b, c, d) for four points a, b, c, d on one straight line, the cross ratio is
  • the distance between them is a known value as the radius value r.
  • the vanishing point can be unambiguously determined from the coordinates in the image space of the two points on the circumference that make up the diameter and the center point C of the circle. Then, the direction of the line segment from the viewpoint ⁇ to the vanishing point matches the direction of the line segment connecting the points U and V on the circumference of the target mark A.
  • the values corresponding to the distances a c and be in the above equation are both r, the radius of the circle of the target mark A does not need to be known as a result of being canceled by the numerator denominator.
  • the target mark A is obtained.
  • the normal vector Zt see Fig. 56
  • FIG. 60 is a diagram showing a method of obtaining the attitude of the target mark A from the image A i of the target mark A.
  • Two or more straight lines passing through the image point C i of the center point C on the image plane i and different from the line segment S i T i Assuming, two or more vanishing points are obtained from each intersection with the projected image A i of the circle. From these vanishing points, a specific vanishing line is determined based on the properties of the cross ratio described above. This vanishing line determines a vector parallel to a straight line m having a diameter parallel to the image plane ⁇ of the target mark A in the object space, such as a vector D in FIG. This determines the target vector A's normal vector.
  • the coordinate value of the center point C is calculated from the coordinates of the image point C i by the diameter 2 r of the circle and the image plane i C (pX., Py., P ⁇ ) is determined by the ratio p of the image points S i and T i to the distance at the point.
  • FIG. 61 is a diagram illustrating an example of the target mark A.
  • the target mark A consists of a circle divided into four regions by two orthogonal diameters, and is alternately painted white and black to specify the center point. If a point with a certain area is displayed to specify the center point, it is necessary to extract the center of gravity as the center point. However, since the center of gravity does not always coincide with the center point, a certain error has conventionally occurred at the stage of feature point extraction.
  • the center point can be extracted with high sensitivity by specifying the center point by the intersection of two boundary lines, so that the image processing can be performed without being affected by noise.
  • Processor In 5 the feature points are stably extracted. Even if the center point is simply specified by the intersection of two diameters, an improvement in the extraction accuracy of the center point can be expected.
  • a target mark including a circle independent of the posture of an object and its center point is used, so that the position and posture can be measured with stable accuracy.
  • accurate measurements can be made with simple calculations.
  • FIG. 62 is a plan view showing a first example of a target mark provided on an object.
  • the target mark is composed of four black (hatched portions) disk-shaped marks 231-234 on a flat white background 230 and separated by a predetermined distance from each other. Things. At least one of the radii of the marks 2 3 1 to 2 3 4 is different from the others. These target marks are placed on the object.
  • the white mark 230 of the target mark does not necessarily have to be a plane, but if it is not a plane, the positions of the centers of gravity of the four disc-shaped marks 231 to 234 are on the plane. Need to be located.
  • such a target mark is photographed by a small CCD camera attached to the tip of a manipulator, and the image data is processed by a distance / posture calculation device.
  • FIG. 63 is a flowchart illustrating a procedure of a first distance / posture calculation performed by the distance / posture calculation device. The procedure of the first distance / posture calculation will be described along this flow chart. In the figure, S The number following the number indicates the step number.
  • CS 7 2 Inverts the input image data to black and white and then binarizes it.
  • Labeling is performed based on the binarized data. That is, for example, as shown in FIG. 64 (A), for example, label 4 for mark 2 3 1, label 6 for mark 2 32, label 7 for mark 2 3 3, and label 3 for mark 2 3 4 Is attached. And Figure 6 4
  • the mark selection range initially includes all four marks 2 3 1 to 2 3 4, and therefore, marks 2 3 with the number of pixels 8500 in FIG. 6 4 (B) labeled 3 4 is selected.
  • the mark selected in this step is excluded from the mark selection range in the next and subsequent executions of this step. Therefore, at the next execution of the main step, the mark 2 32 of the number of pixels 5 1 2 0 is selected. Similarly, at the next execution of the main step, the mark 2 of the number of pixels 5 1 1 4 33 is selected, and at the time of the fourth execution of this step, the remaining mark 2 3 1 is selected.
  • the mark selected in step S74 is subjected to projection histogram processing in the X and Y directions, and the projection histogram in the X direction is processed.
  • [S76] Obtain the load averages X0 and Yo of these projected histograms in the X direction 2 35 and the projected histogram 2 36 in the Y direction. And the center of gravity position address in the Y direction.
  • Fig. 66 shows a second example of a target mark provided on an object
  • (A) is a plan view of the target mark
  • (B) is a target mark viewed from the directions of arrows C and D shown in (A). It is sectional drawing. That is, the target mark is composed of a box-shaped body 240 and two circular holes 2 41 and 2 42 (hereinafter, marks 24 1 and 24 2) which are marks on the white top plate 24 6.
  • the bottom plate 245 is provided with two white colored disks 243, 244 (hereinafter, referred to as marks 243, 244) that serve as marks.
  • the marks 2 41 and 2 42 have different radii, and the marks 2 43 and 2 44 It has a radius smaller than that of the marks 241 and 242, and is disposed directly below each of the marks 241 and 242.
  • the inside of the box 240 is colored black. These target marks are placed on the object.
  • such a target mark is photographed by a small CCD camera attached to the tip of the manipulator, and the image data is processed by a distance / posture calculator.
  • FIG. 67 is a flowchart showing the procedure of the second distance / posture calculation performed by the distance / posture calculation device. The procedure of the second distance / posture calculation will be described along this flowchart. In the figure, the number following S indicates the step ban.
  • step S84 As shown in FIG. 68 (A), for the mark selected in step S84, for example, mark 24, and mark 24 located within this mark 24, X direction and Y direction
  • the projection histogram processing is performed to obtain a projection histogram 247 in the X direction and a projection histogram 248 in the Y direction.
  • FIG. 68 (A) is an enlarged view of the vicinity of the mark 244 in a range slightly outside the range surrounded by the X and Y coordinate values of the peak obtained in step S87.
  • the data in mask 249 set in step S88 is inverted between black and white, and then projected in the X and Y directions.
  • Stogram processing is performed to obtain a projection histogram 250 in the X direction and a projection histogram 251 in the Y direction.
  • the distributed loads of the projection histogram 250 in the X direction and the projection histogram 251 in the Y direction are obtained, and these are set as B X and By, respectively.
  • step S91 Based on the distributed loads B and By calculated in step S89 (these are the distributed loads only for small circle mark 24), the X direction of mark 24 The load average in the Y direction is obtained, and the result is used as the address of the center of gravity of the mark 2 4 4 in the X direction and the address of the center of gravity in the Y direction.
  • the address of the center of gravity of the mark 244 in the X direction and the address of the center of gravity in the Y direction are obtained by projecting the mark 244 in the camera direction and obtaining the center of gravity of the projected figure obtained on the plane of the mark 242. It is a position address.
  • the resolution is reduced even when the camera faces the object with the circular mark. Without this, the distance to the target and its posture can be measured accurately.
  • FIG. 69 is a plan view showing a third example of the target mark provided on the object.
  • target mark marks 261-1 to 2464 have the same configuration as target mark marks 241-1 to 244 of the second embodiment shown in FIG.
  • Reference numerals 61, 262, 2665, and 2666 have the same configuration as the target mark marks 231-1234 of the first embodiment shown in FIG. Such a thing —Place a get mark on the object.
  • such a target mark is photographed by a small CCD camera attached to the tip of the manipulator, and the image data is processed by a distance / posture calculation device.
  • FIG. 70 is a flowchart showing a procedure of a third distance / posture calculation performed by the distance / posture calculation device. The procedure of the third distance / posture calculation will be described along this flowchart. In the figure, the numbers following S represent step numbers.
  • step S105 If four centroids can be detected by executing step S105, proceed to step S109, while the camera's line of sight is Large inclination, mark 2 6 3, 2 6 If 4 cannot be detected because it is hidden by marks 261, 262 and cannot be detected, go to step S107.
  • the stereoscopic mark detection method of step S105 with good resolution is applied, but when the camera's line of sight is greatly inclined with respect to the circular mark, the mark 263, Since 2 64 is hidden behind marks 26 1 and 26 2, and cannot be detected, and the position of the two centers of gravity cannot be detected, in this case, apply the detection method of step S 108 .o
  • FIG. 71 shows a coordinate system fixed to the object and a coordinate system fixed to the force camera.
  • a reference coordinate system is set on the image plane 27 1 of the camera.
  • the origin 0 is set at the position where the optical axis 27 2 and the image plane 27 1 intersect
  • the direction of the line of sight (the direction of the optical axis 27 2) is the Z axis
  • Right with axis Set hand system coordinates is performed assuming that the focal point 273 exists at a point separated by a distance f in the negative direction of the Z axis.
  • For the actual perspective transformation matrix it is necessary to consider the actual lens system, but here a simple modeling was performed.
  • the coordinate system of the object a point of the four characteristic points to be used for measurement (before mentioned center of gravity), and the object coordinate origin 0 R.
  • the normal direction of the plane 2 7 4 4 points are present as Z R axis, X R, with respect to the Y B axis, taken as coordinate system constituting the right-hand system.
  • coordinate system respectively three base-vector from the origin ⁇ R to other three characteristic points, A (al, a 2, 0), ⁇ (b 1, b 2, 0) , C (c 1, c 2 , 0) to (each point is present in the X R Y R plane).
  • each feature point 0 R , A, B, C on the image plane 27 1 are ⁇ 1, “, ⁇ , r, and the vector from the origin ⁇ to each projection point is 0 1 (ol, o 2, 0), (a I, a 2, 0), (1, 2, 0), (71, 2, 0) From the above, each feature point ⁇ R , Expressions of A, B, and C and projected points 0 1, 1, ⁇ , and r on the screen 27 1 can be expressed in each coordinate system.
  • each feature point ⁇ R, A, B, and the screen 2 7 projected feature points on 1 (projection point) 0 1, ", beta, about the coordinate transformation between the r, is described.
  • base-vector A from the object coordinate origin ⁇ R, B, C and, click base feature points on the images plane Torr, beta, obtains a transformation matrix linking the r.
  • the vector is represented by the homogeneous coordinate representation in which the fourth component is normalized to 1.
  • the coordinate system 0 R -X R Y R Z R translates the coordinate system X— XYZ: translates s in the X axis direction, t in the Y axis direction, and u in the Z axis direction, It can be understood that it was further rotated. Therefore, the vectors A, B, and C are connected to the vectors ", ⁇ , by a matrix of the product of the transformation matrix representing the translation and rotation and the transformation matrix representing the perspective transformation PzP.
  • I P z PTU ⁇ I R ⁇ ⁇ ⁇ (54)
  • U is a unit transformation matrix
  • I R is a vector represented by the coordinate system 0 R — X R Y R Z R
  • I is a vector obtained by perspectively transforming it into the XY plane and expressed in the coordinate system XYZ.
  • P z, P, T, U are the following matrices. n I, n I 2 ⁇ I 3 s
  • F focal length expressed in units such as meters), and pixels per unit length Is a number.
  • T is the coordinate system ⁇ R -X R Y R Z R and the coordinate system 0 —
  • P represents the translation and rotation between XYZ
  • P represents the perspective transformation of the focal length f
  • P z represents the projection transformation on the XY plane.
  • ⁇ XR (nil, n 21, na I) T (59) ⁇ Y (n, 2 , n 22, n 3 2 ) r (60) ⁇ ZR (n, 3, n 23, n 33 ) T * * ⁇ (61)
  • Pz PTU is calculated based on equations (55) to (58)
  • the following conversion equation (62) is obtained.
  • the vectors A, B, and C are substituted for the vector I R and the vectors ", ⁇ , and ⁇ are substituted for the vector I. That is,
  • equation (70) is a simultaneous coordinate display, it can be transformed into the following equation (71). * ⁇ -(7 1)
  • the projection point 01 of the object coordinate origin 0 R can be expressed as follows.
  • T is called a transformation matrix, and T is given by the following equation (90).
  • X R is assumed to have been converted to the number of pixels.
  • Li box T can be expressed attitude of distance and the object to the object.
  • the positions of the centers of gravity are determined based on the four disk-shaped marks provided on the object.
  • the positions of the four marks can be specified accurately, and therefore, the object Distance and posture can be measured accurately and easily.
  • the resolution can be improved even when the photographing unit is directly facing (facing) the object with the disc-shaped mark.
  • the distance to the object and its posture can be accurately measured without lowering.
  • the distance to the object and its posture are accurately measured without lowering the resolution by using a three-dimensional mark, while the line of sight of the imaging means is greatly inclined with respect to the disc-shaped mark.
  • the small circle mark is hidden behind the great circle mark and cannot be seen, four flat disk-shaped circles are used to compensate for the defects of the three-dimensional mark

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

明 細 書
タ一ゲッ トマークの認識 · 追跡システム及び方法
技 術 分 野
本発明はビデオカメ ラを用いてタ一ゲッ トマークを認識し、 追跡するタ一ゲッ トマークの認識 · 追跡システム及び方法に関 し、 特に、 ビデオ力メ ラで撮影された画像の画像処理によつて ターゲッ トマークの位置、 姿勢等を検出し、 それに基づき、 所 定位置からのずれ量を検出し、 そのずれ量に応じて自己の位置 景
姿勢等を制御するターゲッ トマークの認識 ·追跡システム及び 方法に関する。
術 背
ロボッ 卜に移動物体を自律的に把持させたり、 宇宙機などを ドッキングさせる場合、 その移動物体や宇宙機に設けられたタ ーゲッ トマークを、 ビデオカメ ラを用いて認識し、 追跡するこ とが必要となる。
従来から、 対象物体の位置及び姿勢を計測する方法として、 対象物体に設けたターゲッ トマークをビデオカメ ラを用いて撮 像し、 その撮像データを画像処理して対象物体の位置及び姿勢 を求める手法が知られている。 この手法は、 上述したように、 ロボッ トハ ン ドが対象物体を把持する場合などで用いられる。 その場合、 ビデオカ メ ラはロボッ トに搭載され、 ビデオカ メ ラ が検出したターゲッ トマ一クの位置及び姿勢データに応じて口 ボッ トはタ一ゲッ トマークの追跡を行い、 対象物体を把持する, しかし、 上記従来の方法では、 ターゲッ トマークの撮像デ一 タを画像処理して対象物体の位置及び姿勢を得るまでに時間が かかるため、 ロボッ 卜へのリ アルタ イ ムなフ ィードバックが不 可能であり、 対象物体の追跡が困難であった。
また、 画像上でパター ンマ ッ チ ングにより目標物を追跡する 方法もあるが、 2次元空間での計算になるため、 計算量が多く 時間を要する。
さらに、 対象物体の追跡に関して、 対象物体の運動を把握し て移動位置を予測する方法もあるが、 この場合は、 対象物体が 規則正しく運動していることが前提となるので、 通常の対象物 体の移動には単純には適用することができない。
なお、 ターゲッ トマークの認識の前段階として、 他の物体が 混在したりノ ィズが多い画像中から目的のマークを抽出するこ とが必要となる。 このための従来の手法としては、 マークの面 積による比較を行つたり、 パターンマ ッ チ ングによる特徵抽出 が行われている。
しかし、 面積による比較の手法は、 目的とするマークと同じ 程度の面積を持つ抽出画像を目的のマークと判定するものであ る力、 同程度の大きさの物体が周囲にある場合ゃノ ィズの多い 画像から目的のマークを抽出することは実質的に不可能であり、 よつて適用範囲が限定されるという問題点がある。
また、 パタ ーンマ ッ チ ングによる特徵抽出手法では、 画像メ モリ内をサーチするために多くの時間が必要となり、 処理時間 が長くかかるという問題点がある。
またさらに、 対象物体の三次元空間内での位置、 姿勢等を計 測する場合に、 3点乃至 4点の位置闋係を示す三角形、 又は四 角形のターゲッ トマ一クが使用されている。 ターゲッ トマ一ク が対象物体の特定平面に貼り付けられていれば、 撮像されたタ ーゲッ トマークの画像空間での位置関係から物体の位置と姿勢 を計測できる。 この計測に際しては、 ターゲッ トマークの物体 空間から力メ ラの画像平面に結像された像点の座標に対して斜 影幾何学に基づく演算が実行される。 物体の位置、 或いは姿勢 が変化すればターゲッ トマークの像点間の関係も変化するから. その変化に基づいて対象物体の三次元空間における位置と姿勢 についての演算が可能になる。
しかし、 従来のタ一ゲッ トマ一ク.による計測装置では、 三角 形、 又は四角形の画像から抽出された像点の座標値に基づいて 位置と姿勢についての演算が実行されるから、 ターゲッ トマ一 クのカメ ラに対する姿勢によつて測定精度にばらつきが生じる ( すなわち、 画像平面内での各像点から、 方向成分が含まれる画 像データを得て、 ターゲッ トマークが貼着された対象物体の特 定平面を記述する場合には、 各像点に対する基準距離が変化し て位置と姿勢についての測定精度に安定性が欠けるという問題 点があった。
また、 従来のタ一ゲツ トマ一クによる位置の演算では、 タ一 ゲッ トマークの平面が画像平面に対してある角度をなしている ことを必要と し、 したがって、 カメ ラをターゲッ トマークに正 対させた場合に比べて演算パラメ ータが著しく増加する。 この ため、 位置の測定においても演算が複雑になって、 その分だけ 測定の精度が低下するという問題点があつた。
また、 4つの点状のマークを撮影手段で画像化した場合に、 画像上ではその点はある面積を有してしまい、 画像データにお いて点の位置を正確に特定することができず、 したがって、 サ ブピクセル単位の画像上の位置決めができないという 題点が あった。 すなわち、 そう した画像データにおける不正確な点の 位置を基に、 対象物までの距離やその姿勢を算出することにな り、 対象物までの距離やその姿勢を、 精度よく計測することが できなかった。 発 明 の 開 示
本発明はこのような点に鑑みてなされたものであり、 本発明 の第 1の目的は、 ビデオ力メ ラを用いて对象物体のタ一ゲッ ト マークをリアルタイムで追跡することができるタ一ゲッ トマ一 クの認識 ·追跡システム及び方法を提供することである。
本発明の第 2の目的は、 高速、 かつ確実に目的のターゲッ ト マークを抽出できるようにしたターゲッ トマ一クの認識 ·追跡 システム及び方法を提供する ことである。
本発明の第 3の目的は、 ターゲッ トマークとカメ ラとの位置 関係による測定誤差のばらつきをなく したターゲッ トマークの 認識 ·追跡システム及び方法を提供することである。
本発明の第 4の目的は、 対象物までの距離やその姿勢を、 精 度よく、 かつ簡単に計測するようにしたターゲッ トマ一クの認 識 · 追跡システム及び方法を提供することである。
本発明では上記課題を解決するために、
ビデオカメ ラを用いてターゲッ トマークを追跡するタ一ゲッ トマーク追跡システムにおいて、 対象物体に設けられ、 黒円の ' 中央部に白三角形を立体的にシフ トさせて構成したタ一ゲッ ト マークと、 タ一ゲッ トマークを撮像するビデオカメ ラと、 ビデ ォカメ ラを搭載し 6 自由度方向に移動可能な移動機構と、 ビデ ォカメ ラによるターゲッ トマークの画像データを処理する画像 処理手段と、 画像処理手段によって得られたターゲッ トマーク の投影ヒス トグラム情報からターゲッ トマ一クのずれ量を検出 するずれ量検出手段と、 ずれ量に応じて移動機構の移動動作を 制御し、 ビデオ力メ ラにタ一ゲッ トマークの追跡を行わせる移 動機構制御手段と、 を有することを特徵とするターゲッ トマ一 ク追跡システムが、 提供される。
タ一ゲッ トマークは黒円の中央部に白三角形を立体的にシフ 卜 させて構成したものであり、 対象物体に設けられる。 ビデオ カメ ラは、 6 自由度方向に移動可能な移動機構に搭載され、 タ —ゲッ トマークを撮像する。 画像処理手段は、 ビデオカメ ラに よるターゲッ トマークの画像データを処理し、 タ一ゲッ トマ一 クの各座標軸に対する投影ヒス トグラム等を求める。 ずれ量検 出手段は、 その投影ヒス トグラム等の情報からターゲッ トマ一 クのずれ量を検出する。 移動機構制御手段は、 そのずれ量に応 じて移動機構の移動動作を制御し、 ビデオカメ ラにターゲッ ト マークの追跡を行わせる。
このように、 黒円の中央部に白三角形を立体的にシフ 卜 させ て構成したターゲッ トマークをビデオカメ ラを用いて撮像し、 その画像データからターゲッ トマ一クの各座標軸方向のずれ量 を求める。 このずれ量は、 画像データの各軸投影ヒス ト グラム 処理等によつて求められるが、 この各軸投影ヒス ト グラム処理 等は一次元領域での計算である。 このため、 その計算は複雑な 計算を必要とせず非常に簡単に行うことができ、 計算量も僅か である。 したがって、 ターゲッ トマークのずれ量は、 高速処理 で求められる。 その結果、 ずれ量に応じた移動機構へのリ アル タイムなフィードバッ クが可能となり、 ビデオ力メ ラによるタ ーゲッ トマークの追跡がリ アルタ イ ムで可能となる。
また、 タ一ゲッ トマークをビデオカメ ラにより撮影し、 その 撮影データを処理することで、 ビデオカメ ラをターゲッ トマ一 クに对し常時、 所定関係位置に保持するようにするターゲッ ト マーク視覚追跡制御方式において、 ビデオカメ ラから出力され たターゲッ トマークの画像においてターゲッ トマークの目標位 置 · 姿勢からの変化量を検出する画像変化量検出手段と、 ビデ ォカメ ラとタ一ゲッ トマークとの所定闋係位置からの相対的な 実変化量を検出する実変化量検出手段と、 ビデオカメ ラとター ゲッ トマークとの所定関係位置を実験的にずらし、 そのときに 得られる、 画像変化量検出手段の検出値と、 実変化量検出手段 の検出値とから、 相互の関連づけをする同定手段と、 を有する ことを特徴とするターゲッ トマーク視覚追跡制御方式が、 提供 される。
以上の構成により、 同定手段は、 ビデオカメ ラとタ一ゲッ ト マークとの所定関係位置を実験的にずらし、 そのときに得られ る、 画像変化量検出手段の検出値、 即ち、 画像上のターゲッ ト マークの目標位置 ·姿勢からの変化量と、 実変化量検出手段の 検出値、 即ち、 ビデオカ メ ラとターゲッ トマ一クとの所定関係 位置からの相对的な実変化量とから、 相互の関連づけをする。
このように、 同定をすることにより、 ターゲッ トマークの画 像変化量を、 ビデオ力メ ラとターゲッ トマ一クとの所定関係位 置からの相対的な実変化量に高速に変換でき、 ターゲッ トマ一 クとビデオカメ ラとの間の距離が大きく変化した場合において も、 応答性能が劣化せず、 安定に移動物体の追跡を行える。
また、 少なく とも特定な形状の 3角形から成るターゲッ トマ —クのカメ ラ撮影画像に基づいて対象物体の力メ ラ視線軸回り の姿勢を検出するタ一ゲッ トマークの姿勢検出方法において、 ターゲッ トマークの 3角形の画像の X , Y方向の各投影ヒス ト グラムを求め、 求められた各投影ヒス ト グラ ムにおいて、 タ一 ゲッ トマークの 3角形の画像の X, Y方向の各重心位置を求め、 求められた各投影ヒス ト グラ ムにおいて、 ヒス ト グラ ム値が最 大になるときの各最大ヒス ト グラ ム値、 およびそのときの X , Y軸値を求め、 求められた各重心位置、 並びに各最大ヒス トグ ラム値および X, Y軸値、 さらに、 ターゲッ トマークの幾何的 既知データに基づき、 ターゲッ トマークの 3角形の姿勢が、 予 め分類され設定されている姿勢パター ンの中のいずれのパター ンに相当するかを判別し、 判別されたパターンにおけるターゲ ッ トマークの 3角形のカ メ ラ視線軸回りの姿勢を算出すること を特徴とするタ一ゲッ トマークの姿勢検出方法が、 提供される。 上記構成において、 まず、 予めターゲッ トマークの 3角形の 姿勢を分類して姿勢パターンを設定しておき、 求められたター ゲッ トマークの 3角形の画像の X, Y方向の各重心位置、 並び に各最大ヒス トグラム値および X, Y軸値、 さらに、 ターゲッ トマークの幾何的既知データに基づき、 ターゲッ トマークの 3 角形の姿勢が、 予め分類され設定されている姿勢パタ一ンの中 のいずれのパターンに相当するかを判別する。 そして、 判別さ れたパターンにおけるターゲッ トマ一クの 3角形のカメ ラ視線 軸回りの姿勢を算出するようにする。 これにより、 ターゲッ ト マークの口一ル回転量を的確に、 且つ簡単に把握できる。 また、 原画像を 2値化する過程と、 2値化した画像のうちの 画素が連結している画像をグループ化する過程と、 グル一プ化 された画像について X Y投影ヒス トグラムを求める過程と、 グ ループ化された画像の X Y投影ヒス トグラムの極値の数を計数 する過程と、 計数した極値の数を、 目的とするターゲッ トマ一 クについて予め求めた X Y投影ヒス トグラムの極値数と比較し て、 グループ化された画像が目的とするターゲッ トマークであ るか否か判定する過程とからなるタ一ゲッ トマークの検出方法 が、 提供される。
また、 ターゲッ トマークの像に基づいて物体の位置と姿勢を 計測する位置、 姿勢の計測装置において、 物体の特定平面上に あって円とその中心点を含むターゲッ トマ一クと、 ターゲッ ト マークを撮像して円とその中心点の画像を作成する力メ ラと、 ターゲッ トマークの画像から物体の位置と姿勢の計測に必要な 特徵点を抽出する特徵抽出手段と、 特徵点に関する射影幾何学 濱算によってターゲッ トマークの物体空間内での位置及び姿勢 を演算する演算手段と、 を有することを特徴とする位置、 姿勢 の計測装置が、 提供される。
さらに、 対象物までの距離および対象物の姿勢を計測する距 離姿勢計測装置において、 各重心が同一平面上に位置するよう に対象物に配置され、 少なく とも 1つの円の半径が他と異なる 4つの円板状マークと、 4つの円板状マークを撮影する撮影手 段と、 撮影手段から出力される 4つの円板状マークの画像デー タに基づき、 各円板状マークの重心位置を算出する重心算出手 段と、 重心算出手段が算出した 4つの重心位置を基に、 4点透 視問題を解き、 対象物までの距離および対象物の姿勢を演算す る演算手段と、 を有することを特徴とする距離姿勢計測装置が. 提供される。 図 面 の 簡 単 な 説 明 図 1 はタ一ゲッ トマーク追跡システムの全体構成を示す図で あ O o
図 2 はタ一ゲッ トマークの斜視図である。
図 3はターゲッ トマークの上面図である。
図 4はタ一ゲッ トマークの側面図である。
図 5 はタ一ゲッ トマ一クの検出手順を示すフ ロ ーチャー トで ある。
図 6 はターゲッ トマークの X Y投影ヒ ス トグラ厶を示す図で め
図 Ί は投影画像の 2値化処理の例を示す図である。
図 8は 2値化処理画像のラベリ ング処理の例を示す図である c 図 9はグループ番号 3の物体を分離する例を示す図である。 図 1 0 は分離したグループ審号 3の物体の X Y投影ヒ ス トグ ラムを示す図である。
図 1 1 は他の形態のターゲッ トマークとその X Y投影ヒ ス ト グラムを示す図である。
図 1 2 はまた他の形態のタ一ゲッ トマ一クとその X Y投影ヒ ス トグラムを示す図である。
図 1 3は位置 · 姿勢を計測するための 4円ターゲッ トマ一ク の例を示す図である。
図 1 4はタ一ゲッ トマークの X Y方向ずれ量の求め方を説明 する図である。 図 1 5 はターゲッ トマ一クの中心位置 P mの求め方について の説明図である。
図 1 6はターゲッ トマークの Z方向ずれ量の求め方を説明す る図である。
図 1 7 はタ一ゲッ トマ一クを斜めから見た場合の説明図であ り、 (A ) はカ メ ラの姿勢を、 (B ) はターゲッ トマーク画像 をそれぞれ示す。
図 1 8は図 1 7のターゲッ トマーク画像の X Y投影ヒス トグ ラムを示す図である。
図 1 9はョ一方向ずれ量の求め方を説明する図である。
図 2 0はピッチ方向ずれ量の求め方を説明する図である。
図 2 1 はロール方向に回転したターゲッ トマークの画像及び その X軸投影ヒス トグラムを示す図である。
図 2 2は口一ル方向ずれ量の求め方を説明する図である。
図 2 3はウ ィ ンドウ設定方法の説明図である。
図 2 4はターゲッ トマークの他の例を示す図である。
図 2 5はターゲッ トマ一クのさらに他の例を示す図である。 図 2 6は図 2 5のターゲッ トマ一クの使用例を示す図である, 図 2 7 は位置ずれ検出および物体の把持を行うためのフ口一 チャー トを示す図である。
図 2 8はビデオカメ ラとタ一ゲッ トマークとの所定位置関係 を示す図である。
図 2 9はずれ量実測時のビデオカメ ラの動きを示す図である < 図 3 0はずれ量の実測位置を示す座標図である。
図 3 1 は z— E z関係を示すグラフである。
図 3 2は E x— D X関係を示すグラフである。 図 3 3は z— A x関係を示すグラフである。
図 3 4は画像上のずれ量 E * を実ずれ量 D * に高速に変換す る手順を示すフ π—チ ヤ 一 トである。
図 3 5 は実ずれ量の各成分を示す座標図である。
図 3 6 は z _ E z関係を示すグラフである。
図 3 7 は E y— D y関係を示すグラフである。
図 3 8は z — A y関係を示すグラ フである。
図 3 9 〖ま第 1 の制御実施例を示すフ ロ ーチ ャ ー トである。 図 4 0 は座標変換を説明する座標図である。
図 4 1 は第 2の制御実施例を示すフ ロ ーチ ャ ー トである。 図 4 2 は座標変換を説明する座標図である。
図 4 3はターゲッ トマークの画像において 3角形が円の中心 から大き くずれた場合を示す投影ヒ ス ト グラ ムである。
図 4 4はタ一ゲッ トマークの画像における円の中心の求め方 を説明する投影ヒ ス トグラムである。
図 4 5 は 3角形と円とから成るターゲッ トマークの画像の実 測投影ヒ ス トグラムから 3角形のみの画像の投影ヒス ト グラ ム を求める方法を説明する図である。
図 4 6 はターゲッ トマークの 3角形の基準形状と位置を示す 図である。
図 4 7 はタ一ゲッ トマークの 3角形の重心位置とヒス トグラ ム値の最大値およびその位置とを示す図である。
図 4 8は 3角形のロ ール角を漸増させたときに分けられる姿 勢パター ンの前半を示す図である。
図 4 9 は 3.角形のロール角を漸増させたときに分けられる姿 勢パター ンの後半を示す図である。 図 5 0 は重心位置やヒス トグラム値の最大値およびその位置 に応じて分類された姿勢パターンを示す図である。
図 5 1 は投影ヒス トグラムデータを得るためのハードウェア の構成を説明する図である。
図 5 2はウィ ンドウの移動の仕方を説明する図である。
図 5 3は投影ヒス トグラ厶データを得るためのハードウエア の実施例の具体的構成図である。
図 5 4は図 5 3に示す各プロ ックにおける信号波形のタィ ミ ングチャー トである。
図 5 5は位置、 姿勢の計測装置を示すプロ ック図である。
図 5 6はターゲッ トマ一クによる計測の原理を示す図である。 図 5 7はターゲッ トマ一クとその画像の闋係を示す図である。 図 5 8は円と中心点の画像を示す図である。
図 5 9 は消失点を決定する方法を示す図である。
図 6 0 はターゲッ トマ一クの姿勢を求める方法を示す図であ る 0 - 図 6 1 はタ一ゲッ トマークの一例を示す図である。
図 6 2は対象物に設けられるターゲッ トマ一クの第 1の例を 示す平面図である。
図 6 3は第 1の距離姿勢渲算の手順を示すフロ ーチャー トで める。
図 6 4はラベリ ングおよびヒス トグラム処理を示す図である。 図 6 5は X Y投影ヒス トグラム図である。
図 6 6は対象物に設けられるターゲッ トマークの第 2の例を 示す平面図である。
図 6 7は第 2の距離姿勢演算の手順を示すフロ ーチャー トで あ <0 o
図 6 8は X Y投影ヒス トグラム図である。 '
図 6 9 は対象物に設けられるターゲッ トマークの第 3の例を 示す平面図である。
図 7 0 は第 3の距離姿勢演算の手順を示すフローチヤ一 トで あ Ο ο
図 7 1 は対象物に固定された座標系と力メ ラに固定された座 標系とを示す図である。
発明を実施するための最良の形態 以下、 本発明の実施例を図面に基づいて説明する。
図 1 は本発明に係るタ一ゲッ トマーク追跡システムの全体構成 を示す図である。 図において、 ターゲッ トマ一ク追跡システム は、 対象物体 1、 ターゲッ トマーク 1 0、 カメ ラ 2 0、 ロボッ ト 3 0、 画像処理装置 4 0、 位置ずれ演算装置 5 0及び口ボッ ト制御装置 6 0から構成される。
夕—ゲッ トマ—ク 1 0 は、 後述するように、 黒円の中央部に 白三角形を立体的にシフ ト させて構成したものであり、 対象物 体 1 に設けられる。 カ メ ラ 2 0 は、 6 自由度方向に移動可能な ロボッ ト 3 0 に搭載され、 ターゲッ トマーク 1 0を撮像する。 画像処理装置 4 0 は、 カ メ ラ 2 0によるターゲッ トマーク 1 0 の画像データを処理し、 タ一ゲッ トマーク 1 0の各座標軸に対 する投影ヒ ス ト グラム等を求める。 位置ずれ演算装置 5 0は、 例えばワークステ一シ ョ ンが使用され、 画像処理装置 4 0から 送られてきた投影ヒス トグラ ム等の情報から目的とするターゲ ッ トマーク 1 0を抽出し、 その抽出したタ一ゲッ トマーク 1 0 のずれ量を検出する。 その詳細は後述する。 ロボッ ト制御装置
6 0は、 そのずれ量に応じて口ボッ ト 3 0の移動動作を制御し カメ ラ 2 0にタ一ゲッ トマ一ク 1 0の追跡を行わせる。 口ボッ 卜 3 0は、 その追跡動作によつて対象物体 1の把持部 1 Hを把 持して所定の作業目的を達成する。 次に、 上記のターゲッ トマ ーク 1 0の構成を図 2から図 4を用いて説明する。
図 2、 図 3、 及び図 4はターゲッ トマークの斜視図、 上面図 及び側面図である。 図に示すように、 ターゲッ トマーク 1 0は. 黒円 1 1の中央に設けられた支柱 1 3に白三角形 1 2を載せて 構成したものである。 白三角形 1 2は、 支柱 1 3の高さ分だけ シフ ト している。 黒円 1 1の背後には、 詳細は後述するように- 白領域が設けられる。 また、 支柱 1 3は、 黒円 1 1 と同様に黒 色に塗られている。 なお、 支柱 1 3は、 对象物体 1の移動態様 によってカメ ラ 2 0の撮影領域に入ってこないことが明らかな 場合は、 必ずしも黒色である必要はない。 このタ一ゲッ トマ一 ク 1 0は、 上述したように対象物体 1 に設けられ、 そのターゲ ッ トマーク 1 0をカメ ラ 2 0が撮像する。 ターゲッ トマ一ク 1 0の抽出及びターゲッ トマーク 1 0のずれ量の検出は、 その画 像データを基にして行われる。 以下に、 まず図 5〜図 1 3を参 照して画像の中からのターゲッ トマーク 1 0の抽出方法を、 さ らに図 1 4〜図 5 0を参照してタ一ゲッ トマーク 1 0のずれ量 の検出方法を説明する。
図 5はタ一ゲッ トマークの検出手順を示すフ口一チャー トで ある。 この実施例では、 投影画像中から、 円の内部に三角形が 配置されたターゲッ トマーク画像を検出するものとする。 この ターゲッ トマーク画像の X Y投影ヒス トグラム (ヒス トグラ ム) を求めると、 図 6 に示すように、 その極値 (極大値または 極小値で、 以下、 「山」 または 「谷」 とも称する) の数は X、 Yともに山が 2つ、 谷が 1つであり、 この特徴はターゲッ トマ ークが回転しても数が変化しないことである。 なお、 X投影ヒ ス トグラムは同じ X座標値を持つ画素の合計値、 Y投影ヒス ト グラムは同じ Y座標値を持つ画素の合計値である。 図 5の中で. Sに続く数字はステップ番号を表す。
〔 S 1 〕 まず、 原画像をカメ ラ 2 0で撮影してその原画像デ 一タを画像処理装置 4 0 の画像メ モ リ に取り込む。
〔 S 2〕 次いで、 その画像メ モ リ内の画像データを 2値化す る。 この処理の結果、 例えば図 7 に示すような 2値化画像が得 られる。
〔 S 3〕 次に、 ラベリ ング処理によつて、 2値化画像中にお いて同じ値 ( 0または 1 ) を持ち、 連結している画素の集合か らなる各画像に対し、 それぞれ異なる番号 (ラ ベル) を付与し てグループ化する。 図 8はこのラベリ ング処理結果の例を示す ものであり、 図 7の 2値化画像はグループ審号 1〜 8の 8個の グループにそれぞれグループ化される。
このようにして求めた各グループ番号 1〜 8の各画像に対し てステップ S 5〜S 1 1のターゲッ トマークの検出処理を行う <
〔 S 4〕 まず、 グループ審号 nを、 n = l とする。
〔 S 5〕 グループ番号 nをグループ数 8と比較し、 グループ 番号 nがグループ数 8より小さいならば、 ステ ッ プ S 5へ進み- グループ数 8に達したならば、 ステップ S 1 2へ進む。
〔 S 6〕 処理対象の画像データ中からグループ審号 nの画像 を切り出す。 つま り、 ラベリ ング処理によってグループ化され た各画像をゥィ ンドウ処理によりグループ毎に分離してそれぞ れの 2値画像を作成する。 図 9 は、 例えば、 目的とするターゲ ッ トマ一クであるグループ蕃号 3の画像に対して、 このタ一ゲ ッ トマーク検出処理が行われた場合を示す。
[ S 7 ] このようにして切り出した画像に対して面積による フィルタ リ ングを行う。 すなわち、 計測範囲において目的とす るターゲッ トマークの面積 (画素数) がとり得る値の最大値と 最小値を予め算出し、 その範囲内にグループ番号 nの画像が入 つているか否かでフィルタ リ ングをする。 これにより、 切り出 した画像がターゲッ トマークであるか否かの大雑把な判定を行 うことができる。 この面積によるフィルタ リ ングで検出対象か ら除外されなかった場合には、 ステップ S 8へ進み、 除外され た場合にはステップ S 1 1へ進む。
〔 S 8〕 次にそのグループ蕃号 nの画像について X Y投影ヒ ス トグラムを求め、 その結果をメモリに格納する。 図 1 0には、 例えば、 グループ蕃号 3の画像に対してこの処理が行われた結 果を示す。
C S 9 j このようにして求めた X Y投影ヒス トグラムにおい て山を検出し、 その数をカウ ン トする。 なお、 山の代わりに、 谷であつてもよい。
〔 S 1 0〕 この山の数が、 図 6のターゲッ トマークの X Y投 影ヒス トグラムにおいて予め求めてある山の数と一致するか否 かを判定する。 図 6のターゲッ トマークにおいては、 山の数が X、 Yともに 2つであるという特徵を有し、 グループ審号 3の 画像はその条件に一致する。 一致するならばステップ S 1 3へ 進み、 一致しなければステップ S 1 1へ進む。 なお、 山の代わ りに谷である場合は、 図 6のターゲッ トマークにおいては、 谷 の数が X、 Yともに 1つであるという特徴を有し、 グループ審 号 3の画像はその条件に一致する。
〔 S 1 1 〕 グループ審号を一っィ ンク リ メ ン トする。
〔 S 1 2〕 グループ番号 nがグループ数 8に達してしまった 場合は、 ターゲッ トマ一クを画像の中から抽出できなかったと して本プログラ厶を終了する。
〔 S 1 3〕 切り出した画像が図 6のタ一ゲッ トマークの画像 であると判定して、 その画像のグループ番号 η (この実施例で は 3 ) を呈示する。
〔 S 1 4〕 マーク検出 (抽出) に成功したものとして本プロ グラムを終了する。
なお、 上記マーク抽出方法において、 検出対象のターゲッ ト マークは図 6の形態のものに限られるものではなく、 例えば図 1 1 または図 1 2 に示すようなものであってもよい。 かかる形 態のマークの場合、 X投影では山は 3つ、 谷は 2つ、 Y投影で は山は 2つ、 谷は 1つとなることを特徴と して、 マークの検出 ができる。
また本実施例では、 上述の図 6 と図 1 1 のような異なる 2種 類のマークを用いることによって、 それが付けられている物体 の位置 · 姿勢を計測することもできる。 すなわち、 図 1 3に示 すように、 図 6のマークを原点マーク M l と し、 図 1 1のマー クをサブ原点マーク M 2 とし、 それらを結ぶ線とその中点でほ ぼ直交する線の右左にそれぞれ円 M 3 、 M 4を配し、 この 4つ の円 M 1 〜M 4で 4円ターゲッ トマークを構成する。 この 4円 タ—ゲッ トマークの位置 · 姿勢を計測することで、 その 4円タ ーゲッ トマ一クの付された物体の位置♦姿勢を推定するもので あるが、 その処理方法は以下のようなもので-ある。
① 前述のマーク検出方法により原点マーク M 1を検出し、 そのマーク M 1の 2値化画像からその重心位置座標 (原点) を 求める。
② 同様にしてサブ原点マーク M 2の重心位置座標 (サブ原 点) ¾ "求 toる。
③ 原点の座標とサブ原点の座標との中点の座標を求める。
④ 重心位置がこの中点の座標に近い物体を 2つ選び、 これ をターゲッ トマークの残りの 2つの円 M 3、 M 4 とする。
⑤ この段階では 2円のいずれが M 3であり、 いずれが M 4 であるかの特定はできない。 そのため、 原点の座標とサブ原点 の座標とからそれらを結ぶ直線の方程式を導き、 ④で求めた 2 円の座標を直線の方程式に代入することによって、 円 M 3、 M 4が、 この直線の方程式の上側にあるか、 あるいは下側にある かをそれぞれ判別して 2つの円 M 3、 M 4を特定する。
⑥ 以上により、 4円ターゲッ トマークの平面上の 4点の座 標が求められるので、 これの 4点を使って 4点透視問題を解き- その 4円ターゲッ トマークの位置 ·姿勢を計測する。
以上のターゲッ トマークの検出 (抽出) にあたっては種々の 変形形態が可能である。 特に、 検出対象のターゲッ トマークは 実施例のものに限られるものではなく、 X Y投影ヒス トグラム を求めたときにその極値によつて特徵づけられる種々の形態の マークを本手法によって検出できるものである。 この極値によ る特徴抽出は、 極大値と極小値を合わせたもので特徴抽出する ものであっても、 また何れか一方により特徴抽出するものであ つてもよい。
以上のように、 本ターゲッ トマークの検出手法によれば、 画 像中に多くの物体が混在したり、 ノ ィ ズが多い画像であつたり した場合にも、 従来手法により も確実かつ高速にターゲッ トマ -クを検出することができる。
つぎに、 以上のようにして検出されたターゲッ トマーク 1 0 におけるずれ量を検出する方法を、 図 1 4以降の図を参照して 説明する。
図 1 4はタ一ゲッ トマ一クの X, Y方向ずれ量の求め方を説 明する図である。 図はタ一ゲッ トマーク 1 0がカメ ラ 2 0の画 面中心からずれて写っている場合を示す。 カメ ラ 2 0が撮像し たタ一ゲッ トマ一ク 1 0の画像 (ターゲッ トマーク画像) 1 0 Aは、 画像処理装置 4 0の画像メ モ リ 4 1 に取り込まれ、 画像 座標系 4 2 において認識される。 ターゲッ トマーク画像 1 0 A は、 黒円画像 1 1 A及び白三角形画像 1 2 Aから成る。 ここで, 画像メ モ リ 4 1 は、 X方向、 Y方向ともに 5 1 2 ピクセルから 構成され、 画像メ モ リ 4 1 内の各点の座標位置はピクセルを単 位と して表示される。
この画像座標系 4 2 において、 ターゲッ トマ一ク 1 0の X方 向及び Y方向のずれ量は、 タ一ゲッ トマーク画像 1 O Aの目標 位置 P o ( t X , t y ) と、 ターゲッ トマーク画像 1 O Aの中 心位置 P m (m x, m y ) との差分として、 次式 ( 1 ) で表さ れる。
X方向のずれ量 1 = m X - t x
Y方向のずれ量 1 y = m y— t y ( 1 ) 目標位置 P o ( t x , t y ) を画像メ モ リ 4 1の中心点 P o ( 2 5 6 , 2 5 6 ) とし、 タ一ゲッ トマーク画像 1 0 Aの中心 位置 Pm (mx, m y ) を Pm ( 1 5 6, 3 5 6 ) とすれば、 X方向のずれ量 l x二 1 5 6— 2 5 6 =— 1 0 0、 Y方向のず れ量 l y = 3 5 6— 2 5 6 = 1 0 0となる。
実際には、 タ一ゲッ トマ一ク 1 0のずれ修正は、 力メ ラ座標 系 2 2で行うので、 上記の画像座標系 4 2でのずれ量 l x, 1 yは、 次式 ( 2 ) によってカメ ラ座標系 2 2でのずれ量 L X , L yに変換される。
L X = 1 y
L y =- 1 x ( 2 )
上記の例では、 L x = 1 0 0, L y =_ 1 0 0となる。
次に、 ターゲッ トマーク画像 1 O Aの中心位置 Pm (mx, my ) の求め方について説明する。
図 1 5はターゲッ トマ一クの中心位置 P mの求め方について の説明図である。 図において、 ターゲッ トマーク 1 0 Aの中心 位置 Pm (mx, my) は、 黒円画像 1 1 Aの中心点に相当す る。 画像処理装置 4 0は、 2値化したターゲッ トマーク画像 1 0 Aの各画素値 「 0」 、 「 1」 を積算して X軸方向の投影ヒス ト グラ ム (ヒス ト グラ ム) 1 5及び Y軸方向の投影ヒス トグラ ム 1 6を作成し、 続いて、 その投影ヒス トグラム 1 5及び 1 6 から中心位置 Pm (m x , my) の X座標及び Y座標を求める < すなわち、 中心位置 Pm (mx, my) の X座標 mxは、 X軸 方向の投影ヒス トグラ ム 1 5から得られる両端位置 X b 1及び X b 2を用いて、 次式 ( 3 ) から求められる。
mx - (X b l +X b 2 ) / 2 ( 3 ) また、 中心位置 Pm (m X , my) の Y座標 myは、 Y軸方 向の投影ヒス ト グラ ム 1 6から得られる両端位置 Y b 1及び Y b 2を用いて次式 ( 4 ) から求められる。 ' m y = (Y b l + Y b 2 ) / 2 ( 4 ) このようにして求められた中心位置 P m (m x, m y ) と、 予め設定されている目標位置 P o ( t X , t y ) との差分が、 上述したように、 ターゲッ トマーク 1 0の X方向及び Y方向の ずれ量となる。 次にターゲッ トマーク 1 0の Z方向ずれ量の求 め方について説明する。
図 1 6 はターゲッ トマークの Z方向ずれ量の求め方を説明す る図である。 ターゲッ トマ一ク 1 0.の Z方向ずれ量は、 ターゲ ッ トマーク画像 1 0 Aの面積 M a と目標面積 ( 1 0 Bで示す円 の面積) T a との差分から求められる。 すなわち、 画像処理装 置 4 0 は、 上述した X軸方向の投影ヒ ス トグラム 1 5または Y 軸方向の投影ヒ ス トグラム 1 6のいずれかを全域にわたって積 算することによってターゲッ トマ一ク 1 0 Aの面積 M aを求め, その面積 M a と予め設定されている目標面積 T a との差分から, Z方向のずれ量を求める。 例えば、 目標面積 T aを 1 0 0 0 0 ピク セル、 タ一ゲッ トマーク画像 1 O Aの面積 M aを 6 0 0 0 ピク セルとすると、 Z方向のずれ量 L zは、 T a— M a = 4 0 0 0 ピク セル ( 1 0 0 0 0 — 6 0 0 0 ) に応じた値をとる。 こ のずれ量 L z は、 上記のずれ量 L x, L yと同様に、 カメ ラ座 標系 2 2でのずれ量である。
次にカ メ ラ座標系 2 2の姿勢ずれ量の求め方について説明す る。
図 1 7 はターゲッ トマ一クを斜めから見た場合の説明図であ り、 (A) はカ メ ラの姿勢を、 (B) はターゲッ トマーク画像 をそれぞれ示す。 カメ ラ 2 0がターゲッ トマ一ク 1 0を斜めか ら撮像する場合、 力メ ラ座標系 2 2はョ一方-向、 ピッチ方向、 —ル方向にずれている。 なお、 ョー方向、 ピッチ方向及び σ ール方向のずれとは、 カメ ラ座標系 2 2 (図 1 6参照) での X 軸回り、 Υ軸回り及び Ζ軸回りの回転をいう。 ここで、 ョ一方 向及びピッチ方向のずれによって、 カメ ラ 2 0が図 1 7 ( Α ) に示す姿勢をとつたとすると、 そのときのターゲッ トマ一ク画 像 1 0 Αは、 図 1 7 ( B ) に示すように、 白三角形画像 1 2 A が黒円画像 1 1 Aに対してずれているように見える。 このよう に、 白三角形画像 1 2 Aがずれて見えるのは、 白三角形 1 2が 黒円 1 1から支柱 1 3の分だけシフ ト しているからである。 こ の白三角形画像 1 2 Aのずれを検出することによって、 ョ一方 向及びピッチ方向のずれ量が求まる。 その求め方について以下 に説明する。
図 1 8は図 1 Ί ( B ) のターゲッ トマーク画像の X , Y投影 ヒ ス トグラムを示す図である。 図に示すように、 X軸投影ヒ ス トグラム 1 7及び Y軸投影ヒス トグラム 1 8では、 黒円画像 1 1 Aに対する白三角形画像 1 2 Aのずれに对応して、 その山 (ピーク) の位置及び谷 (π —ピーク) の位置がずれて現れる t この X軸投影ヒ ス トグラム 1 7及び Y軸投影ヒス トグラム 1 8 からョ ー方向及びピッチ方向のずれが求まる。
図 1 9 はョ一方向ずれ量の求め方を説明する図である。 図に 示した X軸投影ヒス トグラム 1 7から、 先ず、 X b 1、 X b 2 - X P 1、 X p 2を求める。 X b 1及び X b 2は X軸投影ヒス ト グラム 1 7の両端座標値である。 この X b 1 と X b 2の間に黒 円画像 1 1 Aが位置している。 X p 1及び X p 2は X軸投影ヒ ス トグラム 1 7の山の座標値である。 この X p l と X p 2 との 間に白三角形画像 1 2 Aが位置している。 ョ 一方向ずれ量 Lya を求めるには、 この白三角形画像 1 2 Aの部分 (X p 1〜X P 2 ) が黒円画像 l l A (X b l ~X b 2 ) のどの部分に位置 するかを求めればよい。 すなわち、 黒円画像 1 1 A (ターゲッ トマーク画像 1 O A) 全体の中心位置 X b c と白三角形画像 1 2 Aの中心位置 X p c との差を求めればよく、 次式 ( 5 ) 、 ( 6 ) 及び ( 7 ) を用いて求めることができる。
X p c = (X p l + X p 2 ) / 2 ( 5 )
X b c = (X b l + X b 2 ) / 2 ( 6 )
L aw = X b c - X p c ( 7 ) こ こで、 X p c : 白三角形画像 1 2 Aの X軸方向中心位置
X b c : X軸投影ヒス ト グラ ム 1 7の中心位置 (黒 円画像 1 1 Aの X軸方向中心位置)
L yaw : ョ一方向ずれ量
図 2 0 はピッチ方向ずれ量の求め方を説明する図である。 ピ ツチ方向ずれ量 L pitch は、 ョ—方向ずれ量 Lyaw を求める場 合と全く 同様にして求めることができる。 すなわち、 先ず、 Y 軸投影ヒ ス ト グラ ム 1 8から Y b 1及び Y b 2 ( Y軸投影ヒス トグラ ム 1 8の両端座標値) 、 並びに Y p 1及び Y p 2 (Y軸 投影ヒ ス ト グラ ム 1 8の山の座標値) を求め、 これらの値を用 いて、 次式 ( 8 ) 、 ( 9 ) 及び ( 1 0 ) から求めることができ る
Y p c = (Y P 1 + Y P 2 ) / 2 ( 8 )
Y b c = (Y b l + Y b 2 ) / 2 ( 9 )
L pitch = Y b c - Y p c ( 1 0 ) こ こで、 Y p c : 白三角形画像 1 2 Aの Y軸方向中心位置
Y b c : Y軸投影ヒス ト グラ ム 1 8の中心位置 (黒 円画像 1 1 Aの Y軸方向中心位置)
Lpitch : ピッチ方向ずれ量
次に力メ ラ座標系 2 2が口一ル方向に回転した場合の口ール 方向ずれ量の求め方について説明する。
図 2 1は口ール方向に回転したタ一ゲッ トマークの画像及び その X軸投影ヒス トグラムを示す図である。 力メ ラ座標系 2 2 が口一ル方向に回転すると、 ターゲッ トマーク画像 1 0 A内の 白三角形画像 1 2 Aにおいて、 図に示すように、 その一頂点 1 2 Cが回転し、 その一頂点 1 2 Cの位置に応じて、 X軸投影ヒ ス ト グラ ム 1 9の谷の位置も変化する。 この点に着目して、 口 ール方向のずれを図 2 2に示すように、 X軸投影ヒス トグラム 1 9から求める。
図 2 2はロール方向ずれ量の求め方を説明する図である。 口 —ル方向ずれ量 Lrollを求めるには、 先ず、 X軸投影ヒス トグ ラ ム 1 9から、 X p l、 X p 2及び X l pを求める。 X p 1及 び X P 2は X軸投影ヒス トグラム 1 9の山の座標値 (白三角形 画像 1 2 Aの X軸方向両端の座標値) である。 X 1 pは X軸投 影ヒス ト グラ ム 1 9の谷の座標値 (白三角形画像 1 2 Aの一頂 点 1 2 Cの X軸方向座標値) である。 口—ル方向ずれ量 Lroll は、 これらの値を用いて、 次式 ( 1 1 ) 及び ( 1 2) から求め ることができる。
X p c = (X p l +X p 2 ) X2 · ♦ . · ♦ ( i i )
Lroll=X p c -X l p ( 1 2) こ こで、 X p c : 白三角形画像 1 2 Aの X軸方向中心位置 L rol 1: ロール方向ずれ量
前述した位置ずれ演算装置 5 0では、 このようにして求めた ずれ量 L x、 L y、 L z、 Lyaw 、 Lpitch 及び Lroll (これ らを代表してしとする) に、 次式 ( 1 3 ) に示すように、 比例 ゲイ ン k ( k X、 k y、 k z、 k yaw 、 k p i tch 及び k ro 11 ) を掛け、 ロボッ ト 3 0に対する速度指令値 V ( V X、 V y、 V z、 V yaw 、 V pitch 及び Vroll) を作成する。
V = k · L ( 1 3 )
ここで、 V、 k、 Lはと もにベク ト ルである。
この速度指令値 Vは位置ずれ演算装置 5 0から口ボッ ト制御 装置 6 0に送られる。 速度指令値 Vは、 カメ ラ 2 0の移動速度 (カメ ラ座標系 2 2の原点の移動速度) 、 すなわちカメ ラ 2 0 を搭載しているロボッ ト 6 0の手先の移動速度を示している。 このため、 ロボッ ト制御装置 6 0は、 その速度指令値 Vから、 ロボッ ト制御装置 6 0のサンプリ ング時間毎の移動量を計算し, その移動量を指令して口ボッ ト 3 0の動作を制御する。 口ボッ ト制御装置 6 0のサンプリ ング時間が、 速度指令値 Vが位置ず れ濱算装置 5 0からフ ィ ー ドバッ クされてく る時間 (計測時 間) より短いときは、 その速度指令値 Vを数サンプリ ング先の 指令値と してその間を補間する。 例えば、 計測時間がサンプリ ング時間の 5倍ならば 5サンプリ ングの動作でその指令位置に 移動するように、 ロボッ ト 3 0の動作を制御する。
次に、 ターゲッ トマ一ク画像 1 0 Aの画像処理時に行われる ウ ィ ン ドウ設定方法について説明する。
図 2 3はウ ィ ン ドウ設定方法の説明図である。 図では、 カメ ラ 2 0とタ一ゲッ トマーク 1 0とが垂直でないため、 ターゲッ トマ一ク画像 1 0 Aが偏平に見える場合を示す。 ターゲッ トマ ーク画像 1 0 Aは、 画像処理装置 4 0の画像メモ リ 4 1 に取り 込まれてマーク認識が行われ、 認識されたターゲッ トマーク画 像 1 O Aの回りにウィ ンドウ 4 4が設定される。
すなわち、 マーク認識時に投影ヒス トグラム処理によって得 られたターゲッ トマ一ク 1 0 Aの重心位置をゥイ ンドウ 4 4の 中心とする。 また、 ウィ ンドウ 4 4のサイズ W 1 X及び W 1 y は、 同様にマーク認識時に投影ヒス トグラム処理によって得ら れたタ一ゲッ トマーク 1 0 Aの縦、 横のサイズ m 】 X及び m 】 yに、 予め設定した比率、 例えば 2倍を掛けて得る。 この場合、 ウ ィ ン ドウ 4 4の領域を画像メモ リ 4 1上に確実に確保するた め、 予め対象物体 1上でタ一ゲッ トマーク 1 0の黒円 1 1の周 囲に、 ターゲッ トマ一ク 1 0の縦、 撗サイズに対して設定比率 を掛けた分より少し大きくなるように白領域を設けておく。 こ うすることにより、 画像メ モ リ 4 1 に常時、 白領域 4 3を確保 することができる。 このため、 ターゲッ トマーク 1 0 とカメ ラ 2 0 との距離が変化して画像メモ リ 4 1 に取り込まれたターゲ ッ トマ一ク画像 1 0 Aの大きさが変化しても、 ターゲッ トマ一 ク画像 1 0 Aは白領域 4 3からはみだすことなく、 タ一ゲッ ト マーク画像 1 O Aの回りにウィ ンドウ 4 4を設定することがで きる。
このように、 ターゲッ トマ一ク画像 1 O Aの回りに白領域 4 3を確保し、 その白領域 4 3にウィ ンドウ 4 4を設定すること により、 ノ イズなどのターゲッ トマーク画像 1 0 A以外の黒領 域を除去することができる。
このウィ ンドウ設定は、 ターゲッ トマ一ク 1 0 Aの追跡スタ ー ト時には、 上述したようにマーク認識時に得られた投影ヒス トグラム情報を用いて行われるが、 その後の追跡時には、 カメ ラ 2 0 による計測時毎に得られる新たな投影ヒス トグラム情報 を用いて行われる。
図 2 4はターゲッ トマ一クの他の例を示す図であり、 ( A ) は斜視図、 (B ) は側面図である。 この例でのターゲッ トマー ク 1 0 0 は、 黒円 1 1 0の中央に設けられた三角柱 1 3 0の上 面に白三角形 1 2 0を描いて構成したものである。 三角柱 1 3 0 は、 白三角形 1 2 0の部分以外では黒円 1 1 0 と同様に黒色 に塗られている。
図 2 5 はターゲッ トマ一クのさ らに他の例を示す図である。 この例でのタ一ゲッ トマーク 1 0 1 は、 黒円領域を削って低く し、 その低く して形成した黒円領域 1 1 1の底に白三角形 1 2 1を置いたものである。 すなわち、 白三角形 1 2 1を負の方向 にシフ ト して構成したものである。 この例では、 黒円領域 1 1 1の凹形状を角状にしたが、 他の形状、 例えば、 お碗型形状と することもできる。
図 2 6 は図 2 5のタ一ゲッ トマークの使用例を示す図である c 上記のターゲッ トマーク 1 0 1 は、 ドッキングなどのように、 二つの物体が密着するようなときに用いることができる。 例え ば、 図に示すように、 一方の物体 1 Aにターゲッ トマーク 1 0 1 を設け、 他方の物体 1 Bにカメ ラ 2 0を設け、 カメ ラ 2 0で タ一ゲッ トマーク 1 0 1を撮像しつつ、 物体 1 A及び 1 Bをド ッキングさせる。 この場合、 ターゲッ トマーク 1 0 1を撮像す るカメ ラ 2 0がタ一ゲッ トマ一ク 1 0 1へ接近し、 両物体 1 A 及び 1 Bが接触しても、 カメ ラ 2 0 はターゲッ トマーク 1 0 1 を撮影を継続することができる。 したがって、 その画像データ を用いてドッキングを完了させることができる。
図 2 7はターゲッ トマ一クの追跡と物体の把持とを実行する ためのフ ロ ーチャ ー トを示す図である。 図において、 Sに続く 数値はステップ審号を示す。 このフロ ーチャ ー トの各ステップ の内、 ステップ S 2 1〜ステップ S 2 5は画像処理装置 3 0側 において、 ステップ S 2 6〜ステップ S 3 2は位置ずれ演算装 置 5 0側においてそれぞれ実行される。
〔 S 2 1〕 カメ ラ 2 0からの撮像データに基づいてマーク認識 を行う。 '
C S 2 2 ウ ィ ン ドウ 4 4の設定を行う。
〔 S 2 3〕 原画を取り込む。
〔S 2 4〕 2値化を行う。
〔 S 2 5〕 X軸方向及び Y軸方向の投影ヒス トグラム 1 5及び 1 6を求める。
〔 S 2 6〕 タ一ゲッ トマ一ク 1 0の確認を行う。
〔 S 2 ?〕 ターゲッ トマーク 1 0が存在するか否かを判別する { 存在する場合は次のステップ S 2 8に進み、 そうでなければス テツプ S 2 1 に戻る。 以上のステップ S 2 1〜 S 2 7は、 図 5 に示すマーク検出手順に相当する。
〔 S 2 8〕 ターゲッ トマーク 1 0のずれ量 L X、 L y、 L z、 L yaw 、 L pitch 及び Lrollを求める。
L S 2 9 ] 速度指令値 (制御指令値) Vを作成する。
〔 S 3 0〕 速度指令値 Vを出力する。
〔 S 3 1〕 次回の計測のためのゥイ ンドウ 4 4の位置、 サイズ を決定する。 〔 S 3 2〕 ロボッ ト 3 0からのセ ンサ信号によつて対象物体 1 を把持したか否かを判別する。 把持したと判別した場合はその まま終了し、 そうでなければステ ッ プ S 2 2に戻る。
以上述べたように、 本実施例では、 黒円 1 1の中央に白三角 形 1 2を立体的にシフ ト させて構成したターゲッ トマ一ク 1 0 をカメ ラ 2 0を用いて撮像し、 その画像データからターゲッ ト マーク 1 0のずれ量 L X、 L y、 L z、 L yaw 、 L p i t ch 及び L ro l lを求める。 これらのずれ量 L x等は、 画像データの各軸 投影ヒス トグラム処理から求められるが、 この各軸投影ヒス ト グラム処理は、 一次元領域での計算である。 このため、 その計 算は、 複雑な I†算を必要とせず非常に簡単に行う ことができ、 計算量も僅かである。 したがって、 ターゲッ トマーク 1 0のず れ量 L x等は、 高速処理で求められる。 その結果、 ずれ量 L x 等に応じたロボッ ト 3 0へのリアルタイムなフィー ドノ、'ックが 可能となり、 カメ ラ 2 0 によるターゲッ トマ一クの追跡がリ ァ ルタ イ ムで可能となる。 ロボッ ト 3 0 は、 その追跡動作によつ て対象物体 1 を把持し所定の作業目的を達成することができる, 上記の説明では、 ターゲッ トマークを黒円と白三角形で構成 したが、 その色を逆に組み合わせて白円と黒三角形で構成する こ と もでき る。
ところで、 上記の実施例の装置では、 ターゲッ トマ一クの実 移動量 (m mなどの絶対的なスケール) と、 画像上でのその画 像移動量 (ピクセル数) との関係が、 ターゲッ トマークとビデ ォカメ ラとの間の距離により非線型に変化するために、 ターゲ ッ トマーク とビデオ力メ ラとの間の距離が大きく変化する場合 には、 応答性能が劣化し、 安定に動作させることが困難になる, すなわち、 画像上でのターゲッ トマークの同一の画像移動量 に対し、 タ一ゲッ トマークの実移動量は、 タ'一ゲッ トマークと ビデオ力メ ラとの間の距離が異なることによつて異なってしま う o
こう した問題点を解決して、 ターゲッ トマークとビデオカメ ラとの間の距離が大きく変化した場合においても、 応答性能が 劣化せず、 安定に移動物体の追跡を行えるようにした他の実施 例を、 つぎに説明する。
図 2 8は、 ビデオカメ ラ 2 0 とターゲッ トマ一ク 1 0 との所 定の位置関係を示し、 (A ) は、 ビデオカメ ラ 2 0 とターゲッ トマーク 1 0 とが所定の位置関係にあるときの座標位置関係を 示す図であり、 (B ) は、 そのときにビデオ力メ ラ 2 0で撮影 されたターゲッ トマーク 1 0の画像を示す図である。 図中、 0 - X y zはビデオ力メ ラ 2 0に固定された右手系の座標系を示 し、 0— X Y Zはターゲッ トマ一ク 1 0に固定された右手系の 座標系を示す。 z軸と Z軸とが同一直線上に相反する方向を向 いて設定され、 X軸と Y軸とが平行、 y軸と X軸とが平行にな るように設定される。 ビデオ力メ ラ 2 0 とタ一ゲッ トマ一ク 1 0 とが所定の位置関係にあるときには、 ビデオカメ ラ 2 0で撮 影されたターゲッ トマーク 1 0の画像は、 図 2 8 ( B ) に示す ような画像となり、 これが目標位置にあるときのターゲッ トマ ーク 1 0の画像である。
ところで、 ビデオカメ ラ 2 0 とターゲッ トマ一ク 1 0 との所 定の位置関係 (図 2 8に示す状態) がずれた場合、 図 1の画像 処理装置 4 0および位置ずれ渲算装置 5 0 は、 ビデオカメ ラ 2 0により得られるターゲッ トマ一ク 1 0の画像をタ一ゲッ トマ —ク 1 0が目標位置にあつたときの画像と比較することにより 各軸方向のずれ量を次のように求める。
• X , Y方向については、 画面内でのターゲッ トマーク 1 0 の白三角板 1 2の中心位置のずれ量として、
• Z方向については、 画面内でのタ一ゲッ トマーク 1 0の黒 円板 1 1の面積のずれ量と して、
• ピッチ, ョ一方向については、 画面内でのターゲッ トマー ク 1 0の黒円板 1 1の中心位置と、 白三角板 1 1の中心位置と の距離のずれ量と して、
• ロール方向については、 画面内でのターゲッ トマ一ク 1 0 の白三角板 1 2の回転 (自転) ずれ量として、
それぞれ求める。
こう したずれ量が、 ビデオ力メ ラ 2 0 とターゲッ トマーク 1 0 との距離に依存して、 実座標系でのずれ量に対し、 非線型に 変化するため、 図 1 のロボッ ト制御装置 6 0では、 まず、 両者 のずれ量の間の関連性を実測によって求めて同定 (関連付け) を行う。
すなわち、 図 2 9 に示すように、 タ一ゲッ トマーク 1 0を固 定し、 ロボッ ト 3 0の 6 自由度マニ ピュ レータ 3 0 aの先端を. ターゲッ トマ一ク 1 0 に固定された座標系 (0— X Y Z ) にお いて実験的に所定量動かし、 そのときにビデオカメ ラ 2 0で得 られたターゲッ トマ一ク 1 0の画像を画像処理することにより - ターゲッ トマ一ク 1 0の目標位置からの画面上でのずれ量を測 定し、 記録する。 なお、 ビデオカメ ラ 2 0を固定し、 ターゲッ トマ一ク 1 0を 6 自由度移動可能なステージに載せ、 動かすこ とにより実測してもよい。 図 2 9中の 3 0 bは対象物体を把持 するハンドである。
さらに詳しく言えば、 ターゲッ トマ一ク 1 0の画面上でのず れ量、 および実座標系でのずれ量の実測は、 カメ ラ座標系 (o - X y z ) をターゲッ ト座標系 (0— X Y Z) 上で、 x, y , z方向、 ロール、 ピッチ、 ョ一方向 (Z軸、 Y軸、 X軸回りの 回転) にそれぞれ移動 ' 回転させ、 そのときの所定位置からの 実移動 · 回転量と、 ターゲッ トマーク 1 0の画像のずれ量 (単 位はピクセル) を測定することで行う。
具体的には、 図 3 0に示すように、 まず、 ビデオカメ ラ 2 0 を z軸方向の各点に移動し、 z軸の値 (ビデオカメ ラ 2 0とタ —ゲッ トマ一ク 1 0との距離) と、 そのときのターゲッ トマ一 ク 1 0の画面上での面積 E z (ピクセル値) とを計測する。 つ ぎに、 ビデオカメ ラ 2 0を y, X軸正負方向に数点移動させ、 そのときの実移動量 D x, D yと、 ターゲッ トマーク 1 0の画 面上でのずれ量 E x, E y (ピクセル値) とを計測する。 また、 ビデオカメ ラ 2 0をターゲッ ト座標系 (0— XY Z) の X, Y, Z軸回りに数点回転させ、 そのときの実移動量 Dyaw , Dpitc h , Drollと、 ターゲッ トマーク 1 0の画面上でのずれ量 Eya w , Epitch , Eroll (ピクセル値) とを計測する。 以上の計 測を z軸方向の各点において行う。
なお、 追跡フィ一ドバッ ク制御を行なっている最中には、 ビ デォカメ ラ 2 0とタ一ゲッ トマーク 1 Qとの所定関係位置から のずれが比較的小さいことから、 ビデオ力メ ラ 2 0を各軸方向 にずらせる範囲は、 所定関係位置近傍だけで十分である。
以上の測定を行うことで、
- ビデオカメ ラ 2 0とタ一ゲッ トマ一ク 1 0との距離 zと、 画面上でのタ一ゲッ トマ一ク 1 0の面積 E z との z — E z関係 • ビデオカメ ラ 2 0 とタ一ゲッ トマ一ク 1 '0 との距離 zがー 定である場合の各軸方向 ( x, y , ロール, ピッチ, ョー) の 実ずれ量 D* と、 画面上でのずれ量 E* との D* — E* 関係
(*は添字であり、 ここでは * = x, y , roll, pitch, yaw) • ビデオカメ ラ 2 0 とターゲッ トマーク 1 0 との距離 z と、 上記 D* - E* 関係との z — (D* — E* ) 関係
に関するデータを得ることができる。
つぎに、 図 1のロボッ ト制御装置 6 0では、 z — E z関係に 関するデータを z — E z平面にプロ ッ 卜 して、 図 3 1 に示す曲 線を得る。 そして、 この曲線を、 近似的に 4次関数 z = f (E z ) と して数式化する。 したがって、 この関数 z = f (E z ) を用いれば、 画面上でのターゲッ トマ一ク 1 0の面積 E zから, ビデオ力メ ラ 2 0 とターゲッ トマーク 1 0 との距離 zを簡単に 算出することができる。 なお、 ビデオカメ ラ 2 0がターゲッ ト マーク 1 0 に正対しない場合に生じるターゲッ トマ一ク 1 0の 黒円板 1 1 の画面上での楕円化は、 面積 E z に殆ど影響はない c また、 上記 D* — E* 関係に関するデータから、 各軸方向 ( X , y , ロー ル, ピッチ, ョー) の実ずれ量 D* と、 画面上 でのずれ量 E* との関係は、 例えば図 3 2のようにプロ ッ トさ れる。 図 3 2 は X軸方向の E x— D x関係を、 上記 z — ( D* 一 E* ) 関係に関するデータをも使つて各距離 z毎にプロ ッ ト したものである。 この図から分かるように、 ビデオカメ ラ 2 0 とタ一ゲッ トマーク 1 0 との所定関係位置からのずれが比較的 小さ く、 かつ、 ビデオカメ ラ 2 0 とターゲッ トマーク 1 0 との 距離 zが一定である場合、 E x— D x関係は、 原点を通る直線 で近似することができる。 これは他の各軸方向についても同様 t、ある o ·
ところで、 上記直線において、 その傾きは、 距離 Zの値の関 数になっているとみることができる。 そこで、 例えば図 3 2を 基に、 直線の傾き A xを距離 zに対しプロ ッ トすると、 図 3 3 の曲線が得られる。 図 3 3は X軸方向の z — A X関係を示して いる。 ここで、 図 3 3の曲線を、 近似的に 2次関数 A x = g
( z ) として数式化する。 同様に、 他の各軸方向についても、 A * = g * ( z ) ( * = y , roll, pitch, yaw) として数式ィ匕 することができる。
したがって、 以上の同定の結果から、 画像上での目標位置か らのタ一ゲッ トマ一ク 1 0のずれ量 (単位はピクセル) を 実ずれ量 D* に高速に変換することができるようになる。
図 3 4は、 画像上のずれ量 E* を実ずれ量 D* に高速に変換 する手順を示すフローチャー トである。 図中、 Sに続く数字は ステツプ審号を表す。
〔S 4 1〕 図 1の画像処理装置 4 0および位置ずれ演算装置 5 0から出力される、 画像上でのタ一ゲッ トマーク 1 0の黒円 板 1 1の面積 E zを、 予め同定の結果求められた関数 z = f
(E z ) に代入し、 ビデオ力メ ラ 2 0とタ一ゲッ トマーク 1 0 との距離 zを求める。
〔S 4 2〕 ステップ S 4 1で求めた距離 zから、 ビデオカメ ラ 2 0とタ一ゲッ トマ一ク 1 0とが所定闋係位置にあるときの 両者の距離 Z tを減算することで、 z方向の実ずれ量 D zを求 のる。
CS 4 3 ステップ S 4 1で求めた距離 Zを、 予め同定の結 果求められた関数 A* = g * ( z ) ( * = x , y , roll, pitc h, yaw) に代入し、 各軸方向の傾き A* を算出する。
〔 S 4 4〕 ステップ S 4 3で算出された各軸方向の傾き A* と、 図 1の画像処理装置 4 0および位置ずれ演算装置 5 0から 出力される、 画像上での各軸方向の目標位置 ·姿勢からのずれ 量 E* とを、 D* = E* / A * ( * = x , y , roll, pitch, y aw) に代入して、 各軸方向の実ずれ量 D* を求める。
以上の処理で求められた実ずれ量 D* は、 実座標での絶対的 スケール (位置ならば mm、 姿勢ならばラ ジアン等) で表され、 図 3 5 に示すように、 並進成分 D x, D y , D zは、 カメ ラ座 標系 0 — x y zでの y軸、 X軸、 z軸方向の各ずれ量であり、 回転成分 Droll, Dpitch , Dyaw は、 ターゲッ ト座標系〇一 X Y Zで記述されたずれ量である。
図 3 1〜 3 3で示した各関係図に対応する具体的なデータを 図 3 6 ~ 3 8において示す。 図 3 6 は z — E z関係を示す具体 的な数値のグラ フである。 図 3 7 は y軸方向の E y— D y関係 を各距離 z毎にプロ ッ ト したものである。 図 3 8は y軸方向の z— A y関係を示すグラ フである。
つぎに、 以上のようにして変換された実ずれ量 D* ( * = X , y , roll, pitch, yaw) を用いて、 図 1のロボッ ト制御装置 6 0が、 ロボッ ト 3 0のマニピュ レータ 3 0 aへ送る速度指令値 を作成し、 それによつてターゲッ トマークの実時間追跡制御を 行うが、 その制御手順の 2つの実施例を、 図 3 9および図 4 1 に示すフローチャー トに従って、 以下に説明する。
図 3 9 はその第 1の制御実施例を示すフローチャー トである。 第 1の制御実施例は、 ビデオ力メ ラ 2 0をタ一ゲッ ト座標系〇 -X Y zの原点〇を中心として回転することで、 位置修正を行 うものであり、 この第 1の制御実施例は、 姿勢に関するずれ量 が比較的小さい場合に有効な方法であり、 厳密さを欠くが処理 時間が短いという特徴がある。 図中、 Sに続く数字はステップ 番号を表す。
〔 S 5 1〕 ビデオ力メ ラ 2 0からターゲッ ト.マーク 1 0の画 像を入力する。
〔S 5 2〕 画像処理装置 4 0および位置ずれ演算装置 5 0で, 画面上でのずれ量 E* ( * = X , y , z, roll, pitch, yaw) を検出する。
CS 5 3 αボッ ト制御装置 6 0で、 ずれ量 を実ずれ量 D* ( * = X , y, z, roll, pitch, yaw) に変換する。
CS 5 43 さらにロボッ ト制御装匿- 6 0で、 ステップ S 5 3 で変換された実ずれ量 D* に、 比例ゲイ ン K* (* = X, y , z , roll, pitch, yaw) を次式 ( 1 4 ) のように乗じて、 速度 指令値 V* (* = x, y , z, roll, pitch, yaw) を算出する。
Vx 0 Ky 0 0 0 0 Dx
Vy x 0 0 0 0 0 Dy
Vz 0 0 Kz 0 0 0 Dz
Vroll 0 0 0 Kroll 0 0 Droll
V Pitch 0 0 0 0 0 Kyaw D pitch
Figure imgf000038_0001
0 0 0 0 K pitch 0 Dyaw ( 1 4 ) の速度指令値 V* は、 図 4 0に示すように、 回転成分に対 し、 カメ ラ座標系 o _ x y zをビデオカメ ラ 2 0 とターゲッ ト マーク 1 0 との距離 Z tだけ z軸方向にずらした新座標系 o R - X R y R z R での速度指令値となるように変換される。 これ により、 ビデオカメ ラ 2 0の姿勢のずれ (ピッチ、 ョー方向) を近似的にタ一ゲッ ト座標系〇一 X Y Zの原点 0を中心と して 回転することになる。
〔 S 5 5〕 ステップ S 5 4で算出された速度指令値 V* をマ ニピユ レータ 3 0 aへ出力する。
〔 S 5 6〕 ステップ S 5 5での速度指令値 V* の出力の結果. ビデオ力メ ラ 2 0 とターゲッ トマーク 1 0 とが所定位置関係に なり、 その結果、 ハン ド 3 0 bが対象物体 1を把持できたか否 かを判別し、 把持できないならば、 ステップ S 5 1へ戻る。
図 4 1 は第 2の制御実施例を示すフローチャー トである。 第 2の制御実施例は、 ターゲッ ト座標系 0— X Y Zでの実ずれ量 D* をカメ ラ座標系 0— x y zでの実ずれ量に変換し、 これに よりビデオカメ ラ 2 0を位置制御するものである。 この第 2の 制御実施例は、 処理時間が若干かかるが、 厳密な制御方法であ り、 姿勢に関するずれ量の大きさに拘らず有勃な方法である。 図中、 Sに続く数字はステップ番号を表す。
[ S 6 1〕 ビデオカメ ラ 2 0からターゲッ トマ一ク 1 0の画 像を入力する。
〔 S 6 2〕 画像処理装置 4 0および位置ずれ演算装置 5 0で- 画面上でのずれ量 E* ( * = X , y , z, roll, pitch, yaw) を検出する。
〔 S 6 3〕 ロボッ ト制御装置 6 0で、 ずれ量 E* を実ずれ量 D X ( * = X , y , z, roll, pitch, yaw )に変換する。 〔 S 6 4〕 さらにロボッ ト制御装置 6 0で、 ステップ S 6 3 で変換された実ずれ量 D* を、 カメ ラ座標系- o - X y zでのず れ量に変換する。 この変換の仕方を以下に説明する。
すなわち、 ターゲッ ト座標系 0— XYZからみたビデオカメ ラ 2 0の所定 (目標) 姿勢を表す回転行列を C d、 ビデオカメ ラ 2 0の現在の姿勢を表す回転行列を C a、 ターゲッ ト座標系 0— XY Zでのビデオカメ ラ 2 0の姿勢のずれ量 Droll, Dpi tch , Dyaw の回転変換を表す行列を D tとすると、 次式 ( 1 5 ) が成り立つ。
C a = D t C d * · · ( 1 5 ) これより、 次式 ( 1 6 ) が求まる。
C d = C a (C d -«D t -'C d) · ♦ · ( 1 6 ) ここで、 D a = C d— 'D t—tC dとすると、 D aは、 図 4 2に 示すように、 現在の力メ ラ座標系 O a — X a y a Z a からみた ビデオ力メ ラ 2 0の姿勢のずれ量の、 所定位置の力メ ラ座標系 0 d - X d y d z d への回転変換を表す行列である。 したがつ て、 D aを算出して力メ ラ座標系 0 — X y zでの実ずれ量を求 める。
〔S 6 5〕 ステップ S 6 4で求めたカメ ラ座標系 0 — X y z での実ずれ量に定数ゲイ ンをかけてビデオ力メ ラ 2 0の速度指 令値を算出する。
〔S 6 6〕 ステップ S 6 5で算出された速度指令値をマニピ ユレータ 3 0 aへ出力する。
〔S 6 7〕 ステップ S 6 6での速度指令値の出力の結果、 ビ デォカメ ラ 2 0とターゲッ トマーク 1 0とが所定位置関係にな り、 その結果、 ハンド 3 0 bが対象物体 1を把持できたか否か を判別し、 把持できないならば、 ステップ S 6 1へ戻る。
以上の第 2の制御実施例では、 若干計算量は増えるが、 より 応答性能のよい追跡制御が実現できる。
以上説明した実施例ではいずれも、 z— E z関係および z— A * 関係を、 それぞれ 4次曲線および 2次曲線で近似的に表せ ると見做し、 適当な近似関数 z = f ( E z ) , A * = g * ( z ) を設定して、 それらの関数を使用して画面上のずれ量を実 ずれ量に変換することが行われているが、 他の方法として、 z - E z関係および z— A * 関係を、 それぞれ直線で近似的に表 せると見做し、 適当な近似直線関数を設定するようにしてもよ い。 その場合には、 変換誤差が大き くなるが、 より高速に変換 が行われ得る。 また、 z— E Z関係および z— A * 関係を関数 に置き換えず、 各テーブルとして保持し、 これらテーブルによ つて変換を行えば、 各テ一ブルのための記憶容量が多少増える が、 より高速に変換が行われ得る。
以上の図 2 8〜 4 2 によって示したように、 ビデオカメ ラと ターゲッ トマ一クとの所定関係位置を実験的にずらし、 そのと きに得られる、 画像上でのターゲッ トマークの目標位置からの ずれ量と、 ビデオカメ ラとタ一ゲッ トマークとの所定関係位置 からの実ずれ量とから、 相互の関連づけである同定を行い、 結 果的に、 画像上でのターゲッ トマークの目標位置からのずれ量 を基に、 ビデオカメ ラ とターゲッ トマークとの所定関係位置か らの実ずれ量を求める。
このように、 同定をすることにより、 画像上でのターゲッ ト マ一クの目標位置からのずれ量を、 ビデオカメ ラとターゲッ ト マークとの所定関係位置からの実ずれ量に高速に変換でき、 タ ーゲッ トマークとビデオカメ ラとの間の距離が大きく変化した 場合においても、 応答性能が劣化しない、 安定な移動物体の追 跡を行える。
さらに、 上記求められた実ずれ量に、 比例ゲイ ンをかけ、 さ らに回転成分に対し、 ビデオカメ ラとタ一ゲッ トマークとの距 離だけずらせた座標系での速度指令値を算出し、 ビデオカメ ラ の位置制御の速度指令値とし、 これによつてビデオカメ ラの位 置を制御する。 これにより、 ビデオカメ ラとターゲッ トマーク との所定関係位置からのずれ量が比較的小さい場合に、 高速な フ ィ ードバッ クができ、 応答性能のよい追跡制御が実現できる t あるいは、 上記求められた実ずれ量からビデオカメ ラに固定 された座標系におけるビデオカメ ラの姿勢のずれ量を求め、 定 数ゲイ ンをかけてビデオ力メ ラの位置制御の速度指令値とし、 これによつてビデオカメ ラの位置を制御する。 これにより、 ビ デォカ メ ラとターゲッ トマ一クとの所定関係位置からのずれ量 に拘らず追跡制御が正確に行われ、 処理計算量が若干増えるが- より応答性能のよい追跡制御が実現できる。
以上の実施例では、 ターゲッ トマークのロール方向ずれ量 L ro l l 〔数式 ( 1 2 ) 、 図 2 2参照〕 が僅かであることを前提に 考えてきたが.、 このロ ール方向ずれ量 L ro l lが、 ターゲッ ト マ —クの 3角形の形状にもよるが、 士 9 0度を越えるとどんな形 状の 3角形でも、 この口ール方向ずれ量 L ro l lを検出できなく なるという問題が発生する。 3角形の形状が鋭角 2等辺 3角形 である場合には、 もつと僅かな回転でも検出不可能になる。
また、 上記実施例では、 ロール方向のずれ補正を、 ロール方 向ずれ量 L ro l lの検出を繰り返し行うことにより処理するため. 補正時間を多く要すという問題や、 口ール方向のずれ補正ゲイ ンが対象物体の姿勢により非線型であるため、 キヤ リブレーシ ョ ンにより補正データを作成しないと安定収束する補償がない という問題がある。
さらに、 図 4 3に示すように、 ターゲッ トマーク画像におい て、 3角形の中心と背後の円の中心との X, Y方向の位置ずれ が大きい場合、 3角形の頂点位置で投影ヒス トグラムが最大値 になるとは限らないことが生じる。 したがって、 上記実施例の ように、 例えば X方向の投影ヒ ス トグラムにおける 2つのピー ク点 X p l , X p 2の中点を 3角形の中心とするような処理を すると、 位置ずれを過少検出してしまうため、 ずれ補正に時間 がかかることになるという問題がある。 また、 上記 2つのピー ク点 X P 1, X p 2の検出を行う際に、 ノ ィズ等の影響により ローカルピークを本来のピークと見做してしまうという危険性 ある。
こう した問題点を解決した、 タ一ゲッ トマークの検出方法の 他の実施例を次に説明する。
まず、 3角形と背後の円とから成るターゲッ トマークの画像 の X, Y方向の実測投影ヒ ス ト グラ ムにおいて、 図 4 4に示す ように、 ヒス ト グラ ム値がそれぞれ所定値 5 x, <5 yである 2 点をそれぞれ求め、 これらの 2点の中点 X c g , Y e gをそれ ぞれ求める。 これら X c g, Y e gをターゲッ トマークの円の 画像の中心位置 (X c g, Y c g ) とする。 上記の所定値 x, 5 yをノ イ ズレベルよ り も少し大きい値に設定することにより、 ノ ィズの影響を受けることなく、 ターゲッ トマ一クの円の画像 の中心位置を検出することが可能となる。 つぎに、 この検出された円の画像の中心位置 (X c g, Y c g ) と、 この円の既知の幾何的データ (半径等) とから、 この 円の画像の X, Y方向の投影ヒス トグラムを算出する。 図 4 5
(B) は、 こう して算出された円の画像の X, Y方向の投影ヒ ス トグラ ムを示し、 図 4 5 (A) は、 3角形と背後の円とから 成るターゲッ トマークの画像の X, Y方向の実測投影ヒス トグ ラ ムを示す。 そして、 図 4 5 (B ) の円の画像の算出投影ヒス トグラムから、 図 4 5 (A) の 3角形と背後の円とから成るタ ーゲッ トマークの画像の実測投影ヒス トグラムを減算すること により、 図 4 5 (C ) に示す 3角形の画像の X, Y方向の投影 ヒス トグラムを得る。
こう して得られた 3角形の画像の X, Y方向の投影ヒス トグ ラムを基に、 下記のようにして 3角形のロール方向の回転姿勢 を検出する。
まず、 このターゲッ トマークの 3角形の形状を、 鋭角 2等辺 3角形とし、 その鋭角の頂角が 4 5度よりも小さいものと特定 する。 このターゲッ トマークの 3角形の画像において、 図 4 6 に 2点鎖線で示すような 3角形 1 2 aの姿勢を基準姿勢とし、 3角形 1 2 aの重心 Gに対しロール方向へ回転した 3角形 1 2 bの反時計方向の回転角を とする。 なお、 3角形 1 2 aの底 角 Eと重心 Gとを結ぶ線が X軸方向となす角度を 0 とし、 ま た、 底角 Eと重心 Gとを結ぶ線が 3角形 1 2 aの辺に交差する 点を Fとするとき、 この線分 E Fの長さを L p (ピクセル数) とする。
こ こで、 図 4 7 に示すように、 3角形の画像の X, Y方向の 投影ヒス トグラ ムを用いて、 重心 Gの座標 (X g , Y g ) と、 ヒス ト グラ ム値が最大になる X, Y座標値 Xm, Ym、 および そのときの最大値 H y, H xとを求める。 -
—方、 これらの値 X g, Y g , X m, Ym, Η y , Η χの大 きさに応じて、 3角形 1 2 bの回転姿勢は次のような姿勢パタ ーンに分類される。
図 4 8, 4 9は回転角 を漸増させたときの座標値 Xm, Y mに対する重心 Gの位置関係の推移を示す図であり、 2 4種類 のパタ ー ンに分けられる。 図中、 A, B, a , b, 0は座標値 Xm, Ymに対する重量 (面積) バラ ンスを示すための符号で あり、 A > a 〉 0および B〉 b > 0 という重量 (面積) の大小 関係にある。 また、 矢印は座標値 Xm, Ymに対する重心 G
(黒点で表示) の存在する方向を示している。 図中の枠の上に それぞれ示した 〔 〕 はパター ン番号を表す。
各姿勢パター ンにおける回転角 は次のような式によって表 される。
〔 1〕 0 · ♦ · ( 1 7 )
〔 2〕 この姿勢パター ンは図 4 6 に示すものであり、
θ = Θ。 一 arcs in 〔 3 (Ym— Y g ) Z 2 L p〕
- ( 1 8 )
〔 3〕 θ = π/ 2 - θ ο • ( 1 9 )
〔 4〕 θ = π/ 2 - θ ο + arcsin [ 3 ( X g Xm) / 2 L p ] • ♦ ( 2 0 )
〔 5〕 θ = Θ o • ( 2 1 )
〔 6〕 θ = π/ 2 - 0 ο +arcsin [ 3 (X g Xm) / 2 L P〕 - - ( 2 2 )
〔 7〕 θ = π / 2 - ( 2 3 ) 〔 8〕 0 = π / 2 + Θ Q -arcsin C 3 {X g - Xm) 2 L
P〕 • ( 2 4 )
〔 9〕 Θ — π— Θ o · · ( 2 5 ) 〔 1 0〕 θ = π - Θ o + arcsin C 3 ( Y g - Ym) / 2 L p ]
( 2 6 )
〔 1 1 θ = π/ 2 + θ ο · · ( 7 ) C 1 2 θ - Θ o +arcsin C 3 (Y g— Ym) Z 2 L p〕
( 2 8 )
C 1 3 θ = π · ♦ ( 2 9 ) 〔 1 4 θ = π + Θ o -arcsin 〔 3 (Y g— Ym) Z 2 L P〕
( 3 0 )
〔 1 5 θ = > π/ 2 - θ ο · · ( 3 1 ) 〔 1 6 θ = 3 π 2 - θ ο + arcsin C 3 ( X m X g) / 2
L p ( 3 2 ) 〔 1 7 θ = π + Θ · · ( 3 3 ) [ 1 8 θ = π/ 2 - θ ο +arcsin [ 3 ( X m - X g ) / 2
L p〕 ( 3 4 ) 〔 1 9 Θ = ?> π / 2 · ♦ ( 3 5 )
〔 2 0 θ = π/ + θ ο -arcsin C 3 (Xm X g) X 2
L p〕 ( 3 6 ) 〔 2 1 Θ = 2 π - 0 o * · ( 3 7 )
〔 2 2 Θ = 2 π - Θ o +arcsin C 3 (Ym-Y g) / 2 L
P〕 - ( 3 8 )
〔 2 3 θ = 3 π^ 2 + θ ο ' · · ( 3 9 )
[ 2 4 θ = 2 π - θ o + arcsin [ 3 (Ym— Y g) / 2 L p ] • · · ( 4 0 ) 図 5 0は、 以上の 2 4のパター ンを、 値 X g, Y g , Xm, Ym, H y , H xの大きさや大小関係から分類し こものである, なお、 この中で太枠で囲んで示す姿勢パター ンは、 特異的に値 X g , Y g , Xm, Ym, H y, H xによって分類することが 不可能となるものである。
前述のように、 3角形の画像の X, Y方向の実測投影ヒス ト グラムを用いて、 重心 Gの座標 (X g, Y g ) と、 ヒス トグラ ム値が最大になる X, Y座標値 Xm, Ym、 およびそのときの 最大値 H y, H Xとが求められたときに、 これらの値を図 5 0 に示す分類と照合することによって、 実測されたターゲッ トマ ークの 3角形がどの姿勢パタ一ンであるかを知ることができる c ,さらに、 上記式 ( 1 7 ) 〜 ( 4 0 ) によって、 その回転角 が 幾らであるかも知ることができる。
ただし、 図 5 0において太枠で囲んで示す姿勢パターンに闋 しては、 2者のいずれであるか特定できない。 そのため、 この 場合には、 カ メ ラをロール方向に僅か回転させて、 太枠外の姿 勢パター ンにし、 その後再び、 回転角 の検出を行うようにす る o
こう して検出された回転角 を用いて、 前述の口ール方向ず れ量 L rollの検出を行うようにする。
なお、 3角形と背後の円とから構成されるターゲッ トマーク における 3角形の重心 Gの座標 (X g, Y g ) を算出する簡単 な方法を、 次に示す。
まず、 ターゲッ トマークの画像の実測投影ヒス トグラムを基 にターゲッ トマーク画像の重心座標 (X a g , Y a g ) を求め、 また、 既知のターゲッ トマ一クの円の面積 S cと 3角形の面積 S t とを基に、 それらの比 (= S t ZS c ) を求める。 なお, 前述のようにターゲッ トマークの円の画像の'中心位置を (X c g, Y c g ) とする。
このとき、 次式 ( 4 1 ) , ( 4 2 ) が成り立つ。
a g = ( r - X g + X c g ) / ( 1 + r ) ( 4 1 ) Y a g = ( r - Y g + Ύ c g) / ( 1 + r ) ( 4 ) これらを変形して、
X g = ί ( 1 + r ) X a g - X c g) ] / y ( 4 3 ) Y g = C ( 1 + r ) Y a ^ - Y c g) ] / Ύ ( 4 4 ) を得る。 したがって、 ターゲッ トマーク画像の重心座標 (X a g, Y a g ) と、 ターゲッ トマークの円の面積 S cと 3角形の 面積 S t との比 r (= S t S c ) とから、 ターゲッ トマーク の 3角形の重心 Gの座標 (X g, Y g ) を簡単に算出すること ができる。
以上の実施例では、 ターゲッ トマークの鋭角 2等辺 3角形の 頂角が、 4 5度より小さい場合の 3角形の π—ル回転を説明し たが、 この頂角が 4 5度以上で 6 0度より小さい場合の 3角形 のロール回転に関しても、 図 4 8〜 5 0に示した分類が少し変 更になるものの、 基本的には同じ発想により回転角 が検出可 、 &る。
以上のように、 特定な形状の 3角形のターゲッ トマークを使 用し、 3角形の画像の X, Y方向の実測投影ヒス トグラムを用 いて、 3角形の画像の重心 Gの座標 (X g, Y g ) と、 ヒス ト グラム値が最大になる X, Y座標値 Xm, Ym、 およびそのと きの最大値 H y, H Xとを求め、 予め分類された姿勢パターン から 3角形の姿勢を回転角として求めるようにする。 これによ り、 広範囲の口一ル回転角の検出が安定して行われ得るように なり、 また、 ロ ール回転角のずれ量が正確に検出できるので、 位置ずれ補正の補正時間が少なくてすむようになる。 また、 上 記の検出値 X g, Y g, X m, Y m, H y , H xは、 画像処理 の上では非常に簡単に検出できる値である。 したがって、 境界 線抽出を行い、 ターゲッ トマークの 3角形の各辺の長さを求め. それらの比等から画像上の 3角形の姿勢を特定するような複雑 な処理を必要とする公知の方法に比べ、 3角形の姿勢の特定が 非常に容易となる。
なお、 以上の実施例では、 図 5 1 ( A ) に示すように、 汎用 の画像処理装置を使用している。 すなわち、 カメ ラからの 1 フ レーム分の画像スキャ ンデータを、 バスを経由して与えられる 各コ マ ン ドに従い、 ス トァ処理をしてフ レームメ モ リ 3 0 1 に 格納し、 次にウイ ン ドウ設定処理してフレームメ モ リ 3 0 2に 格納し、 次に 2値化処理をしてフレームメ モ リ 3 0 3に格納し, 最後に投影ヒス トグラ ム処理をしてヒス トグラ ムメ モ リ 3 0 4 に格納する。 そして、 このヒス ト グラ ムメ モ リ 3 '0 4に格納さ れたデータが C P Uに読み出され、 位置ずれ検出が行われる。
ところで、 こう した汎用の画像処理装置を使用した場合、 ス トァ、 ウ ィ ン ドウ設定、 2値化、 投影ヒス トグラムの各処理毎 に 1 フ レーム分のメ モ リ書き込みおよび読み出しをする必要が あり、 それらに要する各時間が、 バスのアク セス時間を考える と 5 0 m s程度必要となる。 そのため、 汎用の画像処理装置で は、 1 フ レーム分の投影ヒス トグラ厶データ-を得るには少なく とも 2 0 0 m s は必要であった。 しかし、 高速で移動するタ一 ゲッ トマークの追跡に対しては、 もっと高速な処理が求められ る。 そこで、 高速な処理を可能にした画像処理装置の実施例を 下記に示す。 '
図 5 1 ( B ) は投影ヒス トグラムデータを得るための処理を 高速化した画像処理装置の実施例の原理を説明する図である。 すなわち、 本実施例では、 ス トア、 ウィ ン ドウ設定、 2値化、 投影ヒス トグラムの各処理を、 フレームメモリを使用すること なく同時に行ない、 そう して得られた投影ヒス トグラムデータ をヒス トグラムメモ リ 3 0 5に格納するようにする。
図 5 3は図 5 1 ( B ) に示した実施例の具体的なブロック図 である。 また、 図 5 4は、 図 5 3の各プロ ックにおける信号波 形を示すタイ ミ ングチャー トであり、 これを以下の図 5 3の実 施例の説明時に随時参照する。
クラ ンプ部 3 0 8を経て映像信号 〔図 5 4 ( A ) 〕 がアナ口 グのコ ンパレ一タ 3 1 1へ入力し、 また、 コ ンパレータ 3 1 1 へは、 バスからの所定のスライスレベルのデータ力 D Aコ ンパ' ータ 3 1 0でアナ口グ値に変換されて入力される。 コ ンパレ一 タ 3 1 1 は、 スライ スレベルを越えた映像信号により 2値化パ ルス信号 〔図 5 4 ( D ) 〕 を出力する。 一方、 同期分離部 3 0 9では映像信号から垂直同期信号および水平同期信号 〔図 5 4
( B ) ] を取り出し、 ウィ ンドウ判断部 3 1 2へ出力する。 このウィ ンドウ判断部において、 X方向のゥィ ンドゥ判断は 水平同期信号の入力で、 1 2 M H zのドッ トクロ ッ ク 〔図 5 4
( C ) 〕 のカウ ン トを開始し、 そのカウン ト値をバス経由で C P Uから設定したゥィ ンドウ位置を示すデータと照合すること により行う。 また、 Y方向のウ ィ ンドウ判断は垂直同期信号の 入力で、 水平同期信号を力ゥン ト し、 Xの場合と同様にゥィ ン ドウ位置と照合することにより行う。 ウィ ン ドウ判断部の出力
〔図 5 4 (E) 〕 は、 X側のウィ ン ドウ内信号と Y側のゥィ ン ドウ信号の論理積をとつたものである。
AND回路 3 1 3は、 2値化パルス信号 〔図 5 4 (D) 〕 と ウィ ンドウ内信号 〔図 5 4 (E) 〕 との論理積である AND出 力 〔図 5 4 (F) ] を出力する。 この AND出力はウィ ン ドウ 内における 2値化信号を示し、 ヒ ス トグラム処理部 3 1 6は、 この AND出力が 「 1」 の間だけドッ ト クロ ッ ク 〔図 5 4 ( C ) 〕 をカウ ン トすることで、 ヒス トグラム値を得るようにす る。 得られた Xおよび Y方向のヒス ト グラ ムは、 それぞれ X方 向の記憶部 (M) 3 1 7および Y方向の記憶部 (M) 3 1 8に 記憶される。 C P Uはバスを介してこれら記憶部 3 1 7, 3 1 8のヒス ト グラ ムデータを読み出す。 また、 AND出力は表示 部 3 1 4を介して画像モニタ 3 1 5へ出力される。
上記のゥィ ン ドウ比較、 ス ト ア、 2値化、 投影ヒ ス トグラム の各処理は、 水平スキ ャ ンの間に行われ、 また、 垂直帰線期間 中にヒ ス トグラム値が記憶部 3 1 7, 3 1 8に格納される。 す なわち、 ウ ィ ン ドウ比較、 ス トア、 2値化、 投影ヒ ス トグラ ム の各処理、 およびヒ ス トグラム値の格納という一連の処理が、 次フ レームの画像スキ ヤ ンが開始されるまでの間に完了してし まう。
以上のように、 汎用の画像処理装置の場合には ト ラ ツキング アルゴ リ ズ厶に不必要なフ レー厶メ モ リ へのアク セスを繰り返 し、 そのため、 投影ヒス ト グラ ムを 1回求めるのに少なく とも 2 0 0 m sの処理時間を要するのに対し、 この実施例の画像処 理装置では、 フ レームメ モ リを必要とせず、 したがって、 フ レ —ムメ モ リへのアクセス等が不要となり、 1 フ レーム ( 3 3 m s ) の処理時間で済むようになる。 すなわち、 大幅な高速化を 実現でき、 高速で移動するタ一ゲッ トマ一クに対する追跡が可 能となる。
また、 このハードウェアではラベリ ング処理ができないので- 図 5 2のよ όにウ ィ ン ドウ 3 0 7を画面内 3 0 6において高速 に移動させ、 そのゥイ ンドウ内の投影ヒス トグラムを調べるこ とによりターゲッ トマークのサーチを行う。
以上の実施例では、 タ一ゲッ トマークは 3角形の形状を有し ていることが必要であつたが、 次に、 3角形の形状を持たない ターゲッ トマ一クを認識する実施例について説明する。
図 5 5 は、 この実施例の構成を示すブロ ック図である。 この 図 5 5において、 たとえば口ボッ ト作業に際して、 口ボッ トハ ン ドによって把持される作業対象物 (以下、 単に物体という) 1 は、 三次元空間内で任意の位置と姿勢にある。 この物体 1の 位置、 姿勢を計測する計測装置には、 1合のカメ ラ 2 0によつ て撮像されたターゲッ トマーク Αの像が力メ ライ ンタ フ ェース 3から入力される。 本実施例の位置、 姿勢の計測装置は、 この ターゲッ トマーク Aの画像データに基づいて物体の位置と姿勢 を計測するものである。
ターゲッ トマーク Aは、 物体 1の特定平面上にあって円とそ の中心点とを含んでいる。 このタ一ゲッ トマーク Aはカメ ラ 2 0で撮像され、 円とその中心点との画像が作成される。 カメ ラ イ ンタ フ ェース 3は画像メ モ リ 4、 画像処理プロセ ッ サ 5に画 像バス 6によって接続されている。 ターゲッ トマーク Aの画像 は、 例えば画像メ モ リ 4などに一旦記憶され、 画像処理プロセ ッサ 5 によって物体 1の位置と姿勢の計測に必要な特徴点が抽 出される。
C P U 7及び主メモリ 8は、 物体 1 の位置及び姿勢を演算す る演算手段であって、 像空間から抽出された特徴点に関する射 影幾何学演算を行うことによって、 タ一ゲッ トマーク Aの物体 空間内での位置及び姿勢を算出できる。 この演算手段は、 コ ン ト 口一ルバス 9を介して画像処理プロセッサ 5等に接続されて いる。
図 5 6 は、 ターゲッ トマ一ク Aによる位置、 姿勢の計測の原 理を示す図である。 ターゲッ トマ一ク Aは半径 rの円とその中 心点 Cから構成される。 図 5 6 には、 このターゲッ トマーク A から、 カメ ラ 2 0の画像面である像平面 i に投影画像 A i , C i が透視された状態を示す。 ここでは視点 0がカメ ラ 2 0のレ ンズ中心であつて、 本来なら像平面 i は Z軸方向で負の側に位 置するが、 物体空間と像空間とを明瞭に対応させるために、 正 の側に描いている。 f は、 カメ ラ 2 0のレンズの焦点距離であ る。 また、 X , Υ , Zはカメ ラ 2 0の基準座標であり、 X t , Y t, Z t はターゲッ トマーク Aの中心点 Cを原点とする物体 空間の基準座標である。
いま、 ターゲッ トマーク Aのカ メ ラ 2 0 に対する姿勢は、 Y t軸上の直線 mの周りに少し回転した姿勢であり、 直線 mとタ ーゲッ トマ一ク Aの円周との交点 S, Tを結ぶ直径方向べク ト ルが像平面 i に平行になつている。 タ一ゲッ トマ一ク Aの円の 像 A i と中心点 Cの像 C i とから、 画像処理プ口セッサ 5 は所 定の特徴点を抽出して、 C P U 7 によってターゲッ トマ一ク A の位置と姿勢を計測する。 本実施例では、 半径が既知である円 とその中心点との投影像から、 三次元空間上での円の位置と姿 勢が一意的に決まることを利用している。
また、 本実施例では三次元空間上の円を投影した場合に、 物 体空間の円の直径をなす直線のうち少なく とも 1つの直線は、 像平面と平行になることを利用して、 ターゲッ トマ一ク Aの像 平面 i に平行な直径を特定する 2つの点 S, Tを求めて、 像平 面 i での像点間の距離と円の直径 2 rとの比から、 中心点 Cの 座標を決定するようにしている。
さらに、 本実施例では三次元空間上の円の任意の直径の像か ら 2個以上の消失点を求めている。 この消失点を中心点の像 C i と結ぶ線のいずれもが、 それぞれ物体空間での実際の円の直 径の方向に一致していることを利用して、 タ一ゲッ トマ一ク A の円を含む平面に対する法線べク トル Z tが求められる。 この 場合に、 ターゲッ トマ一ク Aの円の半径の値は分からなくても, ターゲッ トマーク Aを含む平面の方向が決定できる。
以下、 以上に説明した原理を更に詳しく説明する。
図 5 ?は、 カメ ラ 2 0の基準座標におけるターゲッ トマ一ク Aとその像との関係を示す図である。 半径 rの円とその中心点 とからなるターゲッ トマーク Aから、 円の像 A i と中心点 Cの 像点 C i とが得られたとき、 像点 C i を通る 2本の直線を考え る。 この直線と円の像 A i との交点を求めれば、 ターゲッ トマ —ク Aの位置と姿勢が求められる。 この理由を、 図 5 7に基づ いて説明する。
図 5 7には、 視点 0と円の像 A i とから決定される斜円錐を, 視点◦とターゲッ トマーク Aの直径の内の任意の 2点 U, Vと を含む平面で切った断面が示されている。 ここで点 U、 点 V、 及び点 Cのべク トルは、 それぞれ次の式 ( 4 5 ) 〜 (4 7 ) で 表すことができる。
(〇U) = s (〇U i ) · · · (4 5 )
(0 V) = t (0 V i ) ♦ · · (4 6 )
(0 C) = u (0 C i ) · · ♦ ( 4 7 ) こ こで (〇U) などは点〇を始点、 点 U等を終点とするべク トルを示し、 s, t, uはスカラー量である。 また、 図 5 7に おいて点 U, Vが円周上の点であって、 Cが円の中心点である 力、ら、
( U C ) = ( C V ) ♦ · · ( 4 8 )
I U C I = r · · · (4 9 ) が成り立つ。 これらの式から分かるように、 像平面 i 内での点 U i、 点 V i、 及び点 C i の座標値が決まれば、 それらに対応 するスカ ラ ー量 s, t, uは決定されるから、 点 U、 点 V、 及 び点 Cの座標値が決まる。 同様にして、 像点 C i を通る別の直 線に対応するターゲッ トマ一ク Aの円周上の点の座標値を決定 すれば、 ターゲッ トマ一ク Aの位置と姿勢とが一意的に決定で さ る。
図 5 8は、 像平面 i に投影されたタ一ゲッ トマ一ク Aの円と 中心点との画像を示す図である。
カメ ラ 2 0が物体 1のターゲッ トマーク Aの面に正対してい る場合を除けば、 常にターゲッ トマ一ク Aの円は像平面 i に楕 円の画像 A iを投影する。 タ一ゲッ トマーク Aの円とその中心 点 Cを通る直線 mとの交点 S, Tの像点を S i, T i とすれば- 中心点 Cの像点 C i によって 2等分される線分は 1つだけ存在 し、 か όそれは容易に画像処理プロセッサ 5によつて像点 S i , T i として抽出される。 また、 像点 C i の座標を (X。 , y 0 ) とすれば、 中心点 Cの座標値は、 円の直径 2 rと像平面 i で の像点 S i , T i 間の距離との比 pによって、 次のように決定 される。
C (p x o , p y 0 , p f ) · * · ( 5 0 ) こう して演算パラメ ータを著しく少なくすることができるか ら、 簡単な計算だけで、 精度良く ターゲッ トマーク Aの位置を 計測できる。
ターゲッ トマーク Aの姿勢を計測する別の方法について、 次 に説明する。
図 5 9 は、 1直線上の 4点が像平面 i に投影されたときの消 失点を決定する方法を示す図である。 1直線上の 4点 a, b, c , dについて、 複比 Rを R ( a, b, c , d ) と表せば、 複 比は
R ( a, b, c , d ) = ( a c b c ) / ( a dXb d)
- - * ( 5 1 ) と定義され、 像平面 i に投影された 4点 a i, b i , c i , d i についての複比 R ( a i , b i , c i , d i ) と等しくなる c 複比は、 一般に投影によっても保存されるからである。 いま、 距離の分かっている一直線上の 3点とその像点が与えられてい るとすれば、 それらの複比 Rが互いに等しいという関係を利用 して、 像平面 i上での消失点を次のようにして決定することが できる。
( a c / b c ) / ( a d b d ) = ( a i c i /b i c i ) ( a i d i b i d i ) · * . ( 5 2 ) ここで、 点 dを一直線上で無限大にもっていくと、 d i = ( a i 氺 b i c i 氺 a c — b i * a i c i 氺 b e ) / ( b i c i 氺 a c — a i c i * b c ) ■ · ♦ · ( 5 3 ) この d i が像平面 i 上での消失点の座標値である。 ただし、 a , bなどはその点の座標値を表し、 a b, a i c i などは 2 点間の距離を表している。
こ こで、 点 a , b, cの代わりにターゲッ トマーク Aの点 U , C, Vを与えると、 それらの間の距離はいずれも半径値 r と し て既知の値であるから、 任意の直径を構成する円周上の 2点と 円の中心点 Cとの像空間内での座標値から消失点を一義的に決 定できる。 そして、 視点〇からこの消失点に至る線分の方向は、 ターゲッ トマ一ク Aの円周上の点 U, Vを結ぶ線分の方向に一 致する。 もっとも、 上の式で距離 a c, b e に対応する値はい ずれも r となるから、 分子分母で打ち消される結果、 ターゲッ トマーク Aの円の半径値は既知でなくても良い。
こう して、 像空間内でターゲッ トマーク Aの円の直径を構成 する円周上の任意の 2点を結ぶ直線の投影画像についての消失 点が 2個以上求められると、 ターゲッ トマ一ク Aの円を含む平 面内での 2本の直径方向べク トルから、 ターゲッ トマーク Aの 法線べク トル Z t (図 5 6参照) を求めることにより、 物体 1 の姿勢が決定できる。
つぎに、 ターゲッ トマーク Aの法線べク トル Z tが分かつて いる場合に、 精度良く タ一ゲッ トマ一ク Aの位置を計測するや り方について説明する。
図 6 0 はタ一ゲッ トマ一ク Aの画像 A i からターゲッ トマ一 ク Aの姿勢を求める方法を示す図である。 像平面 i で中心点 C の像点 C i を通り、 線分 S i T i とは異なる 2本以上の直線を 想定し、 円の投影画像 A i との交点からそれぞれ 2個以上の消 失点を求める。 これら消失点からは、 上述した複比の性質に基 づいて特定の消失線が決定される。 この消失線は、 図 6 0のべ ク トル Dのような、 物体空間のターゲッ トマーク Aの像平面 ί に平行な直径となる直線 mと平行なべク トルを決定する。 これ によって、 ターゲッ トマ一ク Aの法線べク トルが決定される。 また、 図 6 0 において消失線に平行なべク トル Dから線分 S i T i が求まると、 像点 C i の座標から、 中心点 Cの座標値は, 円の直径 2 r と像平面 i での像点 S i, T i の距離との比 p によって、 C ( p X。 , p y。 , p ΐ ) と決定される。
さらに、 ターゲッ トマ一ク Αの像平面 i で線分 S i T ϊ を抽 出する場合、 物体空間の軸 Z tの方向、 すなわちターゲッ トマ ーク Aの法線べク トルが分かっていれば、 像平面 ί の法線べク トルとの外積によっても、 べク トル Dと同様にターゲッ トマ一 ク Αの像平面 i に平行な直径方向べク トルが求められる。
図 6 1 は、 ターゲッ トマーク Aの一例を示す図である。 この ターゲッ トマーク Aは、 直交する 2本の直径により 4つの領域 に区分された円からなり、 その中心点を特定するために、 交互 に白と黒に塗り分けられている。 中心点を特定するために、 一 定の面積をもつた点で表示すれば、 その重心を中心点として柚 出する必要が生じる。 しかし、 重心が必ずしも中心点と一致し ないために、 従来では特徴点の抽出の段階で一定の誤差が発生 していた。
本実施例のターゲッ トマーク Aのように、 2本の境界線の交 点によって中心点を特定することにより、 中心点を感度良く抽 出できるから、 ノ ィズの影響を受けずに、 画像処理プロセッサ 5において特徴点の抽出が安定して行われる。 なお、 中心点を 単に 2本の直径の交点などで特定するだけであっても、 中心点 の抽出精度の向上が期待できる。
以上説明したように、 本実施例ではタ一ゲッ トマークに物体 の姿勢に依存しない円とその中心点とを含むものを使用してい るので、 安定した精度で位置と姿勢の計測ができる。 また、 位 置と姿勢の計測にあたって、 使用するパラ メ ータが少なくてす むために、 簡単な計算で正確な計測が可能になる。
つぎに、 やはり 3角形のタ一ゲッ トマ一クを使用しない他の 実施例を説明する。
図 6 2 は、 対象物に設けられるターゲッ トマークの第 1の例 を示す平面図である。 すなわち、 ターゲッ トマークは、 平面状 の白地 2 3 0 に黒色 (ハツチ ング部) の 4つの円板状のマ一ク 2 3 1 ~ 2 3 4が、 互いに各所定の距離だけ離れて配置された ものである。 マーク 2 3 1 〜 2 3 4の半径は少なく とも 1つが 他と異なっている。 こう したターゲッ トマークを対象物に設置 する。 なお、 必ずしも、 タ一ゲッ トマークの白地 2 3 0が平面 である必要はないが、 平面でないときは、 4つの円板状のマー ク 2 3 1 〜 2 3 4の各重心位置が平面上に位置するようにする 必要がある。
こう したターゲッ トマークを、 図示はしないが、 マ二ュ ピレ —タの先端に取り付けられた小型 C C Dカメ ラで撮影し、 その 画像データを距離姿勢演算装置により処理する。
図 6 3は、 この距離姿勢演算装置により行われる第 1の距離 姿勢演算の手順を示すフ 口 一チ ャ ー トである。 このフ ロ ーチ ヤ 一 卜に沿って第 1 の距離姿勢演算の手順を説明する。 図中、 S に続く数字はステップ番号を表す。
[ S 7 1 ] カメ ラからマーク 2 3 1〜 2 3 4に関する画像デ ータを入力する。
CS 7 2 ] 入力した画像データを白黒反転させた上で 2値化 する。
〔 S 7 3〕 2値化されたデータを基に、 ラベリ ングを行う。 すなわち、 図 6 4 ( A) に示すように、 例えば、 マーク 2 3 1 にラベル 4を、 マーク 2 3 2にラベル 6を、 マーク 2 3 3にラ ベル 7を、 マーク 2 3 4にラベル 3を付す。 そして、 図 6 4
(B ) に示すように、 同一ラベル蕃号を付された領域における 画素 (ピクセル) 数をカ ウ ン トする。
C S 7 4 ] マーク選択範囲の中から、 これらのカウントされ た画素数が一審大きいラベル審号を有するマークを選択する。 マーク選択範囲に、 最初は、 4つのマーク 2 3 1〜 2 3 4全て が含まれ、 したがって、 図 6 4 (B) の画素数 8 5 0 0のラベ ル番号 3を付されたマーク 2 3 4が選択される。 なお、 このス テップで選択されたマ一クは、 次回以降の本ステップ実行のと きにはマーク選択範囲の中から除かれる。 そのため、 次回の本 ステツプ実行のときには、 画素数 5 1 2 0のマーク 2 3 2が選 択され、 同様に、 その次の 3回目の本ステップ実行のときには- 画素数 5 1 1 4のマーク 2 3 3が選択され、 4回目の本ステツ プ実行のときには、 残ったマーク 2 3 1が選択される。
〔 S 7 5〕 図 6 5 に示すように、 ステップ S 7 4で選択され たマーク、 例えばマーク 2 3 4に対して、 X方向および Y方向 の投影ヒス トグラム処理を行い、 X方向の投影ヒス トグラム 2 3 5および Y方向の投影ヒス トグラム 2 3 6を得る。 〔 S 7 6〕 これらの X方向の投影ヒス ト グラ ム 2 3 5および Y方向の投影ヒス トグラ ム 2 3 6の荷重平均 X 0, Y oを求め. これらを、 マーク 2 3 4の X方向の重心位置ァ ド レス、 および Y方向の重心位置ァ ド レス とする。
C S 7 7 ] 4つのマーク 2 3 1〜 2 3 4全てに対し、 上記ス テツプ S 7 5, S 7 6を実行し終えたならば、 ステップ S 7 8 へ進み、 未完了であればステップ S 7 4へ戻る。
〔 S 7 8〕 算出された 4つのマーク 2 3 1〜 2 3 4の各重心 位置を基に、 各重心の配置を特定し、 4点透視問題を解き、 対 象物までの距離および対象物の姿勢を演算する。 この 4点透視 問題の解き方については、 最後に詳しく説明する。 なお、 4つ の円の半径のうち、 少なく とも 1つが他と異なれば、 4つの円 の重心の配置は一意に決定できる。
以上のように、 対象物に設けた 4つの円板状マーク 2 3 1 ~ 2 3 4を基に、 それらの重心位置を求めるようにしたので、 4 つのマーク位置が正確に特定でき、 対象物までの距離や対象物 の姿勢を、 精度よく、 かつ簡単に計測することが可能となる。 図 6 6 は、 対象物に設けられるターゲッ トマークの第 2の例 を示し、 (A) はその平面図、 (B) は (A) に示される矢印 C, D方向からみたターゲッ トマ一クの断面図である。 すなわ ち、 ターゲッ トマークは、 箱状体 2 4 0から成り、 白地の上面 板 2 4 6 にマークとなる 2つの円形孔 2 4 1, 2 4 2 (以下、 マーク 2 4 1 , 2 4 2 という) が設けられ、 底板 2 4 5にはマ —クとなる白く着色された 2つの円板 2 4 3, 2 4 4 (以下、 マーク 2 4 3 , 2 4 4 という) が設けられる。 マーク 2 4 1, 2 4 2 は互いに半径が異なり、 また、 マーク 2 4 3, 2 4 4は- マーク 2 4 1 , 2 4 2より もそれぞれ小さい半径を有するとと もに、 マーク 2 4 1, 2 4 2の各真下に配置される。 箱状体 2 4 0内部は黒色に着色されている。 こう したターゲッ トマーク を対象物に設置する。
こう したタ一ゲッ トマ一クを、 図示しないが、 マニュピレ一 タの先端に取り付けられた小型 C C Dカメ ラで撮影し、 その画 像データを距離姿勢渲算装置により処理する。
図 6 7 は、 この距離姿勢演算装置により行われる第 2の距離 姿勢演算の手順を示すフローチャー トである。 このフローチヤ ー トに沿って第 2の距離姿勢演算の手順を説明する。 図中、 S に続く数字はステップ蕃号を表す。
〔S 8 1〕 カメ ラからマーク 2 4 1 ~ 2 4 4に関する画像デ 一夕を入力する。
〔 S 8 2〕 入力した画像データを白黒反転させた上で 2値化 する。 ―
[ S 8 3 ] 2値化されたデータを基にラベリ ングを行う。 そ して、 同一ラベル番号を付された領域における画素数を力ゥン トする。
C S 8 4 ] 大円であるマーク 2 4 1, 2 4 2のうちから、 こ れらの力ゥ ン トされた画素数が大きいラベル審号を有するマー クを選択する。 なお、 このステップの次回の実行のときには、 大円であるマーク 2 4 1, 2 4 2のうちから、 カウン トされた 画素数が小さいラベル蕃号を有するマークを選択する。
〔 S 8 5〕 図 6 8 ( A) に示すように、 ステップ S 8 4で選 択されたマーク、 例えばマーク 2 4 2、 およびこのマーク 2 4 内に位置するマーク 2 4 4に対して、 X方向および Y方向の 投影ヒス ト グラ ム処理を行い、 X方向の投影ヒス ト グラ ム 2 4 7および Y方向の投影ヒス ト グラ ム 2 4 8を得る。
[ S 8 6 ] これらの X方向の投影ヒス ト グラ ム 2 4 7および Y方向の投影ヒス ト グラ ム 2 4 8の分布荷重を求め、 これらを それぞれ A , A yとする。
〔 S 8 7〕 X方向の投影ヒス ト グラ ム 2 4 7および Y方向の 投影ヒス トグラム 2 4 8における各 2つのピークを抽出し、 そ れらの X, Υ座標値を求める。
〔 S 8 8〕 ステップ S 8 7で求められたピークの X, Y座標 値で囲まれる範囲より も少し外側の範囲に、 図 6 8 ( A) のマ ーク 2 4 4付近を拡大した図 6 8 (B) に示すように、 マス ク 2 4 9を設定する。
〔 S 8 9〕 図 6 8 ( B ) に示すように、 ステップ S 8 8で設 定されたマス ク 2 4 9内のデータを白黒反転させた上で、 X方 向および Y方向の投影ヒ ス トグラム処理を行い、 X方向の投影 ヒ ス トグラ ム 2 5 0および Y方向の投影ヒス ト グラ ム 2 5 1 を 得る。 そして、 これらの X方向の投影ヒス トグラム 2 5 0およ び Y方向の投影ヒ ス ト グラ ム 2 5 1 の分布荷重を求め、 これら を、 それぞれ B X , B y とする。
〔 S 9 0〕 ステ ッ プ S 8 6で算出した分布荷重 A X, A y、 およびステ ッ プ S 8 9で算出した分布荷重 B x , B yをそれぞ れ合算して、 A x + A y, B x + B yを求め (これらは、 大円 であるマーク 2 4 2だけの分布荷重となっている) 、 これらを 基にマーク 2 4 2の X方向および Y方向の荷重平均をそれぞれ 求めて、 マーク 2 4 2だけの X方向の重心位置ァ ド レス、 およ び Y方向の重心位置ァ ド レスとする。 〔 S 9 1〕 ステップ S 8 9で算出した分布荷重 B , B y (これらは、 小円であるマーク 2 4 4だけの分布荷重となって いる) を基にマーク 2 4 4の X方向および Y方向の荷重平均を それぞれ求めて、 マーク 2 4 4の X方向の重心位置ァドレス、 および Y方向の重心位置アドレスとする。 なお、 これらのマー ク 2 4 4の X方向の重心位置ァドレスおよび Y方向の重心位置 アドレスは、 マーク 2 4 4をカメ ラ方向へ投影してマーク 2 4 2の平面で得られる投影図形における重心位置のァドレスとな つている。
[ S 9 2 ] 2つのマーク 2 4 1, 2 4 2に対し、 上記ステツ プ S 8 5〜 S 9 1を実行し終えたならば、 ステップ S 9 3へ進 み、 未完了であればステップ S 8 4へ戻る。
C S 9 3〕 算出された 4つのマーク 2 4 1〜 2 4 4の各重心 位置を基に、 4点透視問題を解き、 対象物までの距離および対 象物の姿勢を演算する。 この 4点透視問題の解き方については- 最後に詳しく説明する。
以上のように、 4つのマーク 2 4 1〜 2 4 4を、 対象物に設 けるようにしたので、 カメ ラが円扳状マークの設けられた对象 物に正対した場合でも分解能を低下させることなく、 対象物ま での距離やその姿勢を、 精度よく計測できる。
図 6 9 は、 対象物に設けられるターゲッ トマークの第 3の例 を示す平面図である。 図中、 タ一ゲッ トマークのマーク 2 6 1 〜 2 6 4は、 図 6 6に示す第 2実施例のターゲッ トマークのマ ーク 2 4 1〜 2 4 4と同一な構成であり、 マーク 2 6 1, 2 6 2 , 2 6 5 , 2 6 6は図 6 2に示す第 1実施例のターゲッ トマ ークのマーク 2 3 1 ~ 2 3 4 と同一な構成である。 こう したタ —ゲッ トマークを対象物に設置する。
こう したタ一ゲッ トマークを、 図示しないが、 マニュ ピレ一 タの先端に取り付けられた小型 C C Dカメ ラで撮影し、 その画 像データを距離姿勢演算装置により処理する。
図 7 0は、 この距離姿勢演算装置により行われる第 3の距離 姿勢演算の手順を示すフローチヤ一 トである。 このフローチヤ 一 卜に沿って第 3の距離姿勢演算の手順を説明する。 図中、 S に続く数字はステップ番号を表す。
[ S 1 0 1 ] カメ ラからマーク 2 6 1 〜 2 6 6 に関する画像 データを入力する。
〔 S 1 0 2〕 入力した画像データを白黒反転させた上で 2値 化する。
〔 S 1 0 3〕 2値化されたデータを基にラベリ ングを行う。 そして、 同一ラベル番号を付された領域における画素数を力ゥ ン トする。
〔 S 1 0 4〕 これらのカ ウ ン ト された画素数が 1審目および 2番目に大きいラベル番号を有するマーク 2つ、 即ちマーク 2 6 1 , 2 6 2を選択する。
〔 S 1 0 5〕 ステップ S 1 0 4で選択されたマ一ク 2 6 1, 2 6 2、 およびこれらのマーク 2 6 1 , 2 6 2内に位置するマ —ク 2 6 3, 2 6 4に対して、 立体マーク検出法、 すなわち、 図 6 7のステップ S 8 4〜ステップ S 9 2の処理と同一の処理 を実行する。
〔 S 1 0 6〕 ステップ S 1 0 5の実行により、 4つの重心が 検出できたならば、 ステ ップ S 1 0 9へ進み、 一方、 カメ ラの 視線が円'板状マークに対して大きく傾き、 マーク 2 6 3 , 2 6 4がマーク 2 6 1, 2 6 2に隠れて見えなくなり、 検出できな いならば、 ステ ッ プ S 1 0 7へ進む。
〔 S 1 0 7〕 平面 2 6 0上に配置されたマーク 2 6 1、 2 6 2 , 2 6 5 , 2 6 6を選択する。
〔S 1 0 8〕 ステップ S 1 0 7で選択されたマーク 2 6 1、 2 6 2 , 2 6 5 , 2 6 6に対して、 図 6 3のステップ S 7 4〜 ステップ S 7 7の処理と同一の処理を実行する。
〔 S 1 0 9〕 ステップ S 1 0 5で算出された 4つのマーク 2 6 1〜 2 6 4の各重心位置を基に、 またはステップ S 1 0 8で 算出された 4つのマーク 2 6 1、 2 6 2, 2 6 5 , 2 6 6の各 重心位置を基に、 4点透視問題を解き、 対象物までの距離およ び对象物の姿勢を演算する。 この 4点透視問題の解き方につい ては、 以下に詳しく説明する。
以上のように、 通常は、 分解能のよいステップ S 1 0 5の立 体マーク検出法を適用するが、 カ メ ラの視線が円扳状マークに ¾して大きく傾く と、 マーク 2 6 3, 2 6 4がマーク 2 6 1 , 2 6 2に隠れて見えなくなり、 2つの重心位置が検出できなく なるので、 その場合には、 ステップ S 1 0 8の検出法を適用す る o
つぎに、 4点透視問題 (アルゴリ ズム) の解き方について説 明する。
図 7 1 は、 対象物に固定された座標系と力メ ラに固定された 座標系とを示す図である。 まず、 基準となる座標系をカ メ ラの 画像面 2 7 1上に設定する。 このとき、 原点 0は、 光軸 2 7 2 と画像面 2 7 1 とが交わる位置にとり、 視線方向 (光軸 2 7 2 方向) を Z軸、 視線に向かって左を X軸、 上方を Y軸とする右 手系座標を設定する。 また、 焦点 2 7 3は、 Z軸の負の方向に 距離 f だけ離れた点に存在するとして、 モデル化を行う。 実際 の透視変換マ ト リ クスは、 実際のレンズ系を考慮する必要があ るが、 ここでは、 シンプルなモデル化を行なった。
対象物の座標系としては、 計測に利用する 4つの特徴点 (前 述の重心位置) のうちの一点を、 対象物座標原点 0 R とする。 4点が存在する平面 2 7 4の法線方向を Z R 軸とし、 X R , Y B 軸に関しては、 座標系が右手系を構成するようにとる。 この ように構成した座標系において、 原点〇 R から他の 3つの特徴 点への 3本のべク トルをそれぞれ、 A ( a l, a 2 , 0 ) , Β ( b 1 , b 2 , 0 ) , C ( c 1 , c 2 , 0 ) とする (各点は X R Y R 平面内に存在する) 。
また、 各特徴点 0 R , A, B, Cの画像面 2 7 1上への投影 点は、 〇 1 , ", β , rであり、 原点〇から各投影点までのベ タ トルを、 0 1 ( o l, o 2, 0 ) , {a I , a 2 , 0 ) , ( 1, 2 , 0 ) , ( 7 1, 2 , 0 ) とする。 以上に より、 各特徴点〇 R , A, B, Cと、 画面 2 7 1上の投影され た投影点 0 1 , ひ, β, r との、 各座標系に対する表現が可能 になる。
つぎに、 各特徴点〇 R , A, B, と、 画面 2 7 1上の投影 された特徴点 (投影点) 0 1, 《, β, r との間の座標変換に ついて、 説明する。
まず、 対象物座標原点〇 R からのべク トル A, B, Cと、 画 像面上での特徴点べク トル , β , r とを結びつける変換行列 を求める。 以後、 べク トルは、 第 4成分を 1 に規格化した同次 座標表示によって表現する。 図 Ί 1 に示すように、 座標系 0 R - X R YR Z R は、 座標系 〇— X Y Zを: X軸方向に s、 Y軸方向に t、 Z軸方向に uだけ 平行移動し、 さらにそれを回転させたものと理解できる。 よつ て、 ベク トル A, B, Cとベク トル", β , とは、 平行移動 および回転を表す変換行列丁と、 透視変換 Pz Pを表す変換行 列との積による行列で結びつく。
すなわち、 次式 ( 5 4 ) が成り立つ。
I = P z P T U · I R · · · ( 5 4 ) ここに、 Uは、 単位の変換行列であり、 また、 I R は座標系 0 R — XR YR Z R で表示されたべク トルであり、 I はそれを X Y面に透視変換したベク トルを座標系〇一 X Y Zで表示した ものである。 P z , P, T, Uは、 それぞれ次のような行列で め.な。 n I , n I 2 Π I 3 s
T = n 2 1 n 22 Π 23 t ( 5 5 ) n 3 1 n 32 Tl 33 u
0 0 0 1
一 1 0 0 0
P = 0 一 1 0 0 ( 5 6 )
0 0 一 1 0
0 0 1 1 0 0 0
z = 0 1 0 0 ( 5 7 )
0 0 0 0
0 0 0 1
P 0 0 0
u = 0 P 0 0 ( 5 8 )
0 0 P 0
0 0 0 1 ただし、 ρは、 P = f ZF ( f : 画素数で表される焦点距離. F =メ 一 トル等の単位で表される焦点距離) で表され、 単位長 さ当たりの画素数である。
こで、 Tは、 座標系〇 R - X R YR Z R および座標系 0—
X Y Zの間の平行移動 , 回転を表し、 Pは焦点距離 f の透視変 換、 P z は X Y面への投影変換を表す。 なお、 座標系〇R - X R Y R Z R の Χ β 軸、 Y.R 軸、 Z R 軸の各単位べク トルを座標 系 0 - X Y Zで成分表示すると次のようになる。
η X R = ( n i l, n 2 1 , n a I ) T · · · ( 5 9 ) η Y ( n , 2, n 22, n 32) r · · · ( 6 0 ) η Z R ( n , 3, n 23, n 33) T * * · ( 6 1 ) こで、 式 ( 5 5 ) 〜 ( 5 8 ) を基に Pz P TUを計算する と、 結局、 次の変換式 ( 6 2 ) が得られる。 一 pn i i pn I 2 pn i 3 一 s
-pn2 l -pn22 - -pnn2233 -- 11 ( 6 2 0 0 0 0
Figure imgf000070_0001
ただし、 r = 1 Z f とする。
ところで、 変換式 ( 6 2 ) において、 ベタ ト ル I R にべク ト ル A, B, Cを、 ベク ト ル I にベク トル", β , τを代入する すなわち、
( 6 3, 6 4 6 5 )
( 6 6 , 6 7, 6 8 )
Figure imgf000070_0002
これらのうち、 式 ( 6 2 ) ( 6 3 ) , ( 6 6 ) より、 次式 ( 6 9 ) が得られる。 a 1 al
o l P z P T U al
0 0
1 1 l
2
Figure imgf000071_0001
( 6 9 ) まとめると、 次式 ( 7 0 ) となる。
Figure imgf000071_0002
… · ( 7 0 ) 式 ( 7 0 ) は同時座標表示であるため、 次式 ( 7 1 ) のよう 変形できる。 * · - (7 1 )
Figure imgf000072_0001
で、 対象物座標原点 0R の投影点 01は、 つぎのように 表すことができる。
0 1 0
o 2 = P, P TU 0
0 0
1 1
1 )
1 ) (7 2)
Figure imgf000072_0003
Figure imgf000072_0002
o 1 = s X ( r u - 1 ) ♦ · · ( 7 3 ) o 2 = t ( r u - 1 ) · · ♦ ( 7 ) 式 ( 7 1 ) の両辺を比較し、 式 ( 7 3 ) ( 7 4 ) を代入し、 整理すると、 次式 ( 7 5 ) ( 7 6 ) となる。
( 1 - 01 ) ( u - f ) Z p = ( f a 1 n ! , + f a 2 n ,2
- a l a l n 3.+ a l a 2 n 32) · · · ( 7 5 )
( 2 - o 2 ) ( u - f ) / p = ( f a 1 n 2 I + f a 2 n 22
- al a l n 3 i+ «2 a 2 n 32) · · ♦ ( 7 6 )
ここで、 式 ( 6 2 ) , ( 6 4 ) , ( 6 7 ) 、 および式 ( 6 2 ) ( 6 5 ) , ( 6 8 ) についても同様に変形整理すると、 以下の ようになる。
( 一 o l ) ( u - f ) p = ( f b l n , ,+ f b 2 n I 2 - β \ b l n 3 I+ 91 b 2 n 32) · · · ( 7 7 )
( β 2 - o 2 ) ( u - f ) / p = ( f b l n 21+ f b 2 n 22 - β 2 b l n 3 l + β 2 b 2 n 32) · ♦ · ( 7 8 )
( r 1 - o 1 ) ( u - f ) / p = ( f c 1 n , ,+ f c 2 n 12 - r l c l n 31+ r l c 2 n 32) · · · ( 7 9 )
( T 2 - o 2 ) ( u - f ) Z p = ( f c 1 n 21+ f c 2 n 22 - r 2 c l n 3 I+ r 2 c 2 n 32) · · · ( 8 0 ) 以上の式を整理すると、 つぎのような線型方程式 ( 8 1 ) が 得られる。 f al f a2 0 0 - al al 一ひ 1 a2 n I I al - ol
0 0 f al f a2 一 a2 al -a2 a2 n 12 2 - o2 f bl f b2 0 0 一 SI bl 一/ SI b2 n 2i 91 - ol (u-O/p
0 0 f bl f b2 -02 bl - 2 b2 n 22 β2 - o2 f cl f c2 0 0 -rl cl - rl c2 n 3i rl - ol
0 0 f cl f c2 - 72 cl - 72 c2 n 32 r2 - o2
♦ · ♦ ( 8 1 ) ここで、 式 ( 8 1 ) 中の 6 x 6のマ ト リ クスを計測マ ト リ ク ス Mとすると、 式 ( 8 1 ) から、 つぎのようになる。
Figure imgf000073_0001
ここで、 n = (n i l, n i, n 1 ) T , n = ( n 2, n 22, n 32) T は、 式 ( 8 2 ) から求めることができる。 また、 s , t , uは、 以下のようにして求める。
まず、 n XRのノ ルムは、 単位べク トルであるので、
(η χ,) 2 + (n 2I) 2 + (η 3ι) 2 = 1 · ♦ ♦ ( 8 3 ) となり、 式 ( 8 2 ) から Qが導かれ、 以下となる。
(n I I + n 2 I + n 3 1 ) ( P X (u - f ) ) 2 =a
( 8 4 ) よって、
P X (u - f ) = Q'/2 ( 8 5 ) となり、 式 ( 7 3 ) , ( 7 4 ) , ( 8 5 ) から、
u = p /Q 1/2 + f · · ( 8 6 ) s = p o 1 / f Q 1/2 · · ( 8 7 ) t - p o 2 f Q 1/2 · · ( 8 8 ) となる。
以上により、 式 ( 8 2 ) , ( 8 6 ) , ( 8 7 ) ( 8 8 ) 力、 ら、 座標系〇 R - X R YE Z R と座標系〇一 X Y Zとの間の変 換式が、 すべて決定され、 次式 ( 8 9 ) で表すことができる。
I -T I R ♦ · · ( 8 9 ) ここで、 Tを変換マ ト リ クスと呼び、 Tは次式 ( 9 0 ) で与
X»りれる。
Figure imgf000074_0001
ただ'し、 ( Π ΐ 3 η 2 3, η 3s) τ = n xR X ri YRとする。
なお、 XR は、 画素数に変換されているものとする。
以上の定式化を行い、 特徴点 0R A, B, Cの空間配置が 決定され、 導出した変換マ ト リ クス Tにより、 対象物までの距 離および対象物の姿勢を表現できる。
なお、 このようなマ ト リ クスの表現形式では、 特に、 操作者 に対象物の姿勢を直観的に示すことができないので、 ロボッ ト の姿勢表現で一般的と考えられている r o 1 1 一 p i t c h - y a w表現形式に、 または、 宇宙関係でしばしば使用される 4 元数表現形式に変換するようにする。
上説明したように本実施例では、 対象物に設けた 4つの円 板状マークを基に、 それらの重心位置を求めるようにしたので. 4つのマーク位置が正確に特定でき、 したがって、 対象物まで の距離やその姿勢を、 精度よく、 かつ簡単に計測することが可
B匕と , つ
また、 円板状の 4つのマークからなる立体マークを対象物に 設けるようにしたので、 撮影手段が円板状マークの設けられた 対象物に真っ正面から対向 (正対) した場合でも分解能を低下 させることなく、 対象物までの距離やその姿勢を、 精度よく計 測できる。
さらに、 通常は、 立体マークを用いて、 分解能を低下させる ことなく、 対象物までの距離やその姿勢を、 精度よく計測し、 一方、 撮影手段の視線が円板状マークに対して大き く傾いて、 小円マークが大円マークに隠れて見えなく なったときには、 平 面状の 4つの円板状 クを用いて、 立体マークの欠点を補う
Figure imgf000075_0001

Claims

請 求 の 範 囲
1 . ビデオ力メ ラを用いてターゲッ トマークを追跡するタ一 ゲッ トマーク追跡システムにおいて、
対象物体に設けられ、 黒円の中央部に白三角形を立体的にシ フ トさせて構成したターゲッ トマーク と、
前記ターゲッ トマークを撮像するビデオ力メ ラと、
前記ビデオカメ ラを搭載し 6 自由度方向に移動可能な移動機 構と、
前記ビデオ力メ ラによる前記タ一ゲッ トマークの画像データ を処理する画像処理手段と、
前記画像処理手段によつて得られた前記ターゲッ トマークの 投影ヒス トグラム情報から前記ターゲッ トマークのずれ量を検 出するずれ量検出手段と、
前記ずれ量に応じて前記移動機構の移動動作を制御し、 前記 ビデオカメ ラに前記ターゲッ トマークの追跡を行わせる移動機 構制御手段と、
を有することを特徵とするターゲッ トマーク追跡システム。
2 . 前記ずれ量検出手段は、 前記ターゲッ トマークのずれ量 をカメ ラ座標系において認識することを特徴とする請求項 1記 載のターゲッ トマ一ク追跡システム。
3 . 前記画像処理手段は、 画像座標系での前記ターゲッ トマ —クの画像データに対してマーク認識、 ウィ ンドウ、 ス トア、 2値化、 X軸投影ヒス トグラム及び Y軸投影ヒス トグラムの各 処理を行う ことを特徴とする請求項 1記載のターゲッ トマーク 追跡システム。
4 . 前記ずれ量検出手段は、 前記 X軸投影ヒス トグラム処理 及び前記 Y軸投影ヒス トグラム処理によって求められた前記タ ーゲッ トマークの重心位置と予め設定されている前記ターゲッ トマークの目標位置との差分から、 前記ターゲッ トマークの X 軸方向及び Υ軸方向のずれ量を検出することを特徵とする請求 項 3記載のターゲッ トマ一ク追跡システム。
5 . 前記ずれ量検出手段は、 前記 X軸投影ヒス トグラム処理 または前記 Υ軸投影ヒス トグラ ム処理によって求められた前記 ターゲッ トマークの面積と予め設定されている前記ターゲッ ト マークの目標面積との差分から、 前記ターゲッ トマークの Ζ軸 方向のずれ量を検出するこ とを特徴とする請求項 3記載のター ゲッ トマ一ク追跡システム。
6 . 前記ずれ量検出手段は、 前記 X軸投影ヒス トグラム処理 によって求められたピーク点等から前記ターゲッ トマークの黒 円に対する白三角形のずれ量を求め、 前記ずれ量を前記ターゲ ッ トマークのョ一方向のずれ量とすることを特徴とする請求項 3記載のターゲッ トマーク追跡システム。
7 . 前記ずれ量検出手段は、 前記 Υ軸投影ヒス ト グラ ム処理 によつて求められたピーク点等から前記ターゲッ トマ一クの黒 円に対する白三角形のずれ量を求め、 前記ずれ量を前記ターゲ ッ トマークのピッチ方向のずれとすることを特徵とする請求項 3記載のタ一ゲッ トマ一ク追跡システム。
8 . 前記ずれ量検出手段は、 前記 X軸投影ヒス トグラム処理 によって求められたピーク点及び口一ピーク点から前記ターゲ ッ トマークの口一ル方向のずれ量を求めることを特徴とする請 求項 3記載のターゲッ トマーク追跡システム。
9 . 前記画像処理手段は、 前記 X軸投影ヒス トグラム処理及 び前記 Y軸投影ヒス トグラム処理によつて求められた前記タ一 ゲッ トマークの重心位置及びサイズから、 前記ゥイ ンドウの位 置及びサイズを決定することを特徵とする請求項 3記載のター ゲッ トマーク追跡システム。
1 0 . ビデオ力メ ラを用いてタ一ゲッ トマークを撮像し前記 ターゲッ トマークのずれ量を検出するずれ量検出方式において、 対象物体に設けられ、 黒円の中央部に白三角形を立体的にシ フ トさせて構成したターゲッ トマークと、
前記ターゲッ トマークを撮像するビデオ力メ ラと、
前記ビデオ力メ ラによる前記タ一ゲッ トマークの画像データ を処理する画像処理手段と、
前記画像処理手段によつて得られた前記ターゲッ トマークの 投影ヒス トグラ人情報から前記ターゲッ トマークのずれ量を検 出するずれ量検出手段と、
を有することを特徵とするずれ量検出方式。
1 1 . ターゲッ トマークをビデオカメ ラにより撮影し、 その 撮影データを処理することで、 前記ビデオカメ ラを前記タ一ゲ ッ トマークに対し常時、 所定闋係位置に保持するようにするタ ーゲッ トマーク視覚追跡制御方式において、
前記ビデオカメ ラから出力された前記ターゲッ トマークの画 像において前記ターゲッ トマークの目標位置 ·姿勢からの変化 量を検出する画像変化量検出手段と、
前記ビデオ力メ ラと前記ターゲッ トマークとの所定関係位置 からの相対的な実変化量を検出する実変化量検出手段と、
前記ビデオカメ ラと前記ターゲッ トマークとの所定関係位置 を実験的にずらし、 そのときに得られる、 前記画像変化量検出 手段の検出値と、 前記実変化量検出手段の検出値とから、 相互 の関連づけをする同定手段と、
を有することを特徴とするターゲッ トマーク視覚追跡制御方 式。
1 2 . 前記同定手段は、 前記画像変化量検出手段の検出値の うちの、 画像上での前記ターゲッ トマ一クの面積を表す検出値 と、 前記実変化量検出手段の検出値のうちの、 前記ビデオカ メ ラと前記ターゲッ トマークとの間の距離とを関連づけて、 前記 面積を表す検出値から、 前記ビデオ力メ ラと前記ターゲッ トマ ークとの間の距離を導き出す第 1の導出手段を有することを特 徴とする請求項 1 1記載のタ—ゲッ トマーク視覚追跡制御方式 t
1 3 . 前記同定手段は、 前記画像変化量検出手段の各種検出 値と、 前記実変化量検出手段の検出値のうちの前記ビデオ力メ ラと前記ターゲッ トマ一クとの間の距離および前記実変化量検 出手段の各種検出値とを関連づけ、 前記第 1の導出手段が導き 出した前記距離および前記画像変化量検出手段の各種検出値か ら、 前記ビデオカ メ ラと前記ターゲッ トマ一クとの所定関係位 置からの相対的な実変化量を導き出す第 2の導出手段を有する ことを特徴とする請求項 1 2記載のターゲッ トマーク視覚追跡 制御方式。
1 4 . タ一ゲッ トマークをビデオカメ ラにより撮影し、 その 撮影データを処理することで、 前記ビデオカメ ラを前記ターゲ ッ トマークに対し常時、 所定関係位置に保持するようにするタ ーゲッ トマ一ク視覚追跡制御方式において、
前記ビデオカ メ ラから出力された前記ターゲッ トマークの画 像において前記ターゲッ トマークの目標位置 · 姿勢からの変化 量を検出する画像変化量検出手段と、
前記ビデオ力メ ラと前記ターゲッ トマークとの所定関係位置 からの相対的な実変化量を検出する実変化量検出手段と、 前記ビデオ力メ ラと前記ターゲッ トマークとの所定関係位置 を実験的にずらし、 そのときに得られる、 前記画像変化量検出 手段の検出値と、 前記実変化量検出手段の検出値とから、 相互 の関連づけをし、 前記画像変化量検出手段の検出値から、 前記 ビデオカメ ラと前記タ一ゲッ トマ一クとの所定関係位置からの 相対的な実変化量を導き出す導出手段と、
前記導出手段が導き出した実変化量に比例ゲイ ンをかけ、 さ らに回転成分に対し、 前記ビデオカメ ラと前記ターゲッ トマ一 クとの距離だけずらせた座標系での速度指令値を算出し、 前記 ビデオカメ ラの位置制御の速度指令値とする制御手段と、 を有することを特徴とするターゲッ トマーク視覚追跡制御方 式 o ―
1 5 . ターゲッ トマークをビデオ力メ ラにより撮影し、 その 撮影データを処理することで、 前記ビデオカメ ラを前記ターゲ ッ トマークに対し常時、 所定関係位置に保持するようにするタ ーゲッ トマーク視覚追跡制御方式において、
前記ビデオ力メ ラから出力された前記ターゲッ トマークの画 像において前記ターゲッ トマークの目標位置 ·姿勢からの変化 量を検出する画像変化量検出手段と、
前記ビデオ力メ ラと前記ターゲッ トマークとの所定関係位置 からの相対的な実変化量を検出する実変化量検出手段と、 前記ビデオ力メ ラと前記ターゲッ トマークとの所定関係位置 を実験的にずらし、 そのときに得られる、 前記画像変化量検出 手段の検出値と、 前記実変化量検出手段の検出値とから、 相互 の関連づけをし、 前記画像変化量検出手段の検出値から、 前記 ビデオカ メ ラ と前記ターゲッ トマークとの所定関係位置からの 相対的な実変化量を導き出す導出手段と、
前記導出手段が導き出した実変化量から前記ビデオカ メ ラに 固定された座標系における前記ビデオ力メ ラの姿勢のずれ量を 求め、 定数ゲイ ンをかけて前記ビデオカ メ ラの位置制御の速度 指令値とする制御手段と、
を有することを特徴とするターゲッ トマーク視覚追跡制御方 式。
1 6 . 少なく とも特定な形状の 3角形から成るターゲッ トマ ークのカメ ラ撮影画像に基づいて対象物体の力メ ラ視線軸回り の姿勢を検出するターゲッ トマークの姿勢検出方法において、 前記ターゲッ トマークの 3角形の画像の X, Y方向の各投影 ヒス ト グラ ムを求め、
前記求められた各投影ヒス トグラ ムにおいて、 前記タ一ゲッ トマークの 3角形の画像の X , Y方向の各重心位置を求め、 前記求められた各投影ヒス ト グラ ムにおいて、 ヒス ト グラ ム 値が最大になるときの各最大ヒ ス ト グラ ム値、 およびそのとき の X, Y軸値を求め、
前記求められた各重心位置、 並びに各最大ヒ ス ト グラ ム値お よび X, Y軸値、 さ らに、 前記ターゲッ トマ一クの幾何的既知 データに基づき、 前記ターゲッ トマークの 3角形の姿勢が、 予 め分類され設定されている姿勢パター ンの中のいずれのパター ンに相当するかを判別し、
前記判別されたパター ンにおけるターゲッ トマークの 3角形 のカ メ ラ視線軸回りの姿勢を算出することを特徵とするターゲ ッ トマークの姿勢検出方法。
1 7 . 前記算出されたタ一ゲッ トマークの 3角形の力メ ラ視 線軸回りの姿勢を、 前記タ一ゲッ トマークの 3角形のカ メ ラ視 線軸回りの基準姿勢と比較して、 前記ターゲッ トマ一クの 3角 形のカ メ ラ視線軸回りの姿勢のロール回転角ずれ量を求めるこ とを特徵とする請求項 1 6記載のターゲッ トマークの姿勢検出 方法。
1 8 . 前記予め分類され設定されている姿勢パターンの中に 複数の異なる姿勢がある場合には、 前記ターゲッ トマークを撮 影するカ メ ラの姿勢を僅かロ ール回転させてから再び、 姿勢検 出を行うことを特徵とする請求項 1 6記載のターゲッ トマーク の姿勢検出方法。
1 9 . 前記ターゲッ トマークは前記 3角形の他に、 前記 3角 形の背後に配置された円盤とからなり、 前記 3角形の画像の X , Y方向の投影ヒス ト グラ ムを、 前記円盤のみの画像の X, Y方 向の算出投影ヒス トグラムから、 前記タ一ゲッ トマ一クの画像 の X, Y方向の実測投影ヒス トグラムをそれぞれ減算して求め ることを特徵とする請求項 1 6記載のターゲッ トマークの姿勢 検出方法。
2 0 . 前記円盤のみの画像の X , Y方向の算出投影ヒス トグ ラ ムは、 前記ターゲッ ト マークの画像の X , Y方向の各実測投 影ヒス ト グラ ムにおいて、 前記ヒス ト グラ ム値が所定の値とな る各 2つの座標値を求め、 前記求められた各 2つの座標値の各 中心が前記円盤の中心であるとして、 既知の前記円盤の幾何的 データに基づき算出されることを特徵とする請求項 1 9記載の タ一ゲッ トマークの姿勢検出方法。
2 1 . 前記 3角形と背後に配置された円盤とからなるターゲ ッ トマ一クの画像の X, Y方向の実測投影ヒス ト グラムの各重 、位 irf 求め、
前記円盤の画像上での中心座標を求め、
前記円盤の面積と前記 3角形の面積との比を求め、
前記求められたターゲッ トマ一クの各重心位置、 円盤の中心 座標、 および面積比に基づき、 前記 3角形の重心位置を算出す ることを特徴とする請求項 1 9記載のターゲッ トマークの姿勢 検出方法。
2 2 . ビデオカメ ラを用いてターゲッ トマ一クを追跡するタ —ゲッ トマ—ク追跡システムにおいて、 ターゲッ トマ一クを撮像するビデオカメ ラ と、
前記ビデオカメ ラを搭載し、 6 自由度方向に移動可能な移動 機構と、
前記ビデオカメ ラによる前記ターゲッ トマークの画像データ を処理するに際し、 ウ ィ ン ドウ比較、 ス ト ア、 2値化、 投影ヒ ス トグラムの各処理を 1 フ レーム分の画像走査の間に行う画像 処理手段と、
前記画像処理手段によって得られた前記ターゲッ トマークの 投影ヒ ス トグラム情報から前記ターゲッ トマークのずれ量を検 出するずれ量検出手段と、
前記ずれ量に応じて前記移動機構の移動動作を制御し、 前記 ビデオ力メ ラに前記ターゲッ トマークの追跡を行わせる移動機 構制御手段と、
を有することを特徴とするタ一ゲッ トマーク追跡システム。
2 3 . 原画像を 2値化する過程と、
該 2値化した画像のうちの画素が連結している画像をグルー プ化する過程と、
該グループ化された画像について X Y投影ヒス トグラ厶を求 める過程と、
該グループ化された画像の X Y投影ヒス トグラムの極値の数 を計数する過程と、
該計数した極値の数を、 目的とするターゲッ トマークについ て予め求めた X Y投影ヒス トグラムの極値数と比較して、 該グ ループ化された画像が該目的とするターゲッ トマ一クであるか 否か判定する過程と
からなるタ一ゲッ トマークの検出方法。
2 4 . 極値数の特徵が異なる 2種類以上のマークを所定の位 置関係で組み合わせてターゲッ トマークを構成し、 このターゲ ッ トマーク中の各マークに対して、 前記各過程を実行して各マ ークを検出してそれらの座標点を計測し、 さらに、 それらの座 標点に対して n点透視問題を解く ことで、 ターゲッ トマークの 位置 · 姿勢を計測する請求項 2 3記載のターゲッ トマ一クの検 出方法。
2 5 . ターゲッ トマークの像に基づいて物体の位置と姿勢を 計測する位置、 姿勢の計測装置において、
前記物体の特定平面上にあって円とその中心点を舍むターゲ ッ トマークと、
前記タ一ゲッ トマークを撮像して前記円とその中心点の画像 を作成する力メ ラ と、
前記ターゲッ トマークの画像から前記物体の位置と姿勢の計 測に必要な特徴点を抽出する特徴抽出手段と、
前記特徴点に関する射影幾何学演算によって前記ターゲッ ト マークの物体空間内での位置及び姿勢を演算する演算手段と、 を有することを特徵とする位置、 姿勢の計測装置。
2 6 . 前記特徴抽出手段は、 前記ターゲッ トマークの円の画 像の中から、 物体空間の円の直径のうちターゲッ トマークの像 平面に平行な直径を特定する 2つの像点を抽出するものであり . 前記演算手段では、 抽出された 2つの像点間の距離、 前記タ ーゲッ トマークの円の直径の値、 及び前記カメ ラにより撮像さ れた前記ターゲッ トマ一クの中心点の像空間内での座標値に基 づいて、 前記物体空間内での前記ターゲッ トマークの位置を濱 算することを特徴とする請求項 2 5記載の位置、 姿勢の計測装
2 7 . 前記演算手段は、 前記ターゲッ トマークの円の直径を 構成する円周上の任意の 2点とその中心点の像空間内での座標 値から、 前記ターゲッ トマークの物体空間内での直径方向べク トルを濱算するものであって、
前記ターゲッ トマークについての少なく とも 2以上の直径方 向べク トルから前記物体空間内での前記ターゲッ トマ一クの法 線べク トルを求めることにより、
前記ターゲッ トマ一クが貼着された物体の姿勢を決定するこ とを特徴とする請求項 2 5記載の位置、 姿勢の計測装置。
2 8 . 前記ターゲッ トマ一クは、 交差する 2本の線分によつ て前記円の中心点が表示されていることを特徴とする請求項 2 5記載の位置、 姿勢の計測装置。
2 9 . 前記ターゲッ トマークの円は、 2本の直径によって区 分された領域に塗り分けられていることを特徴とする請求項 2 5記載の位置、 姿勢の計測装置。
3 0 . 前記特徵抽出手段は、 前記ターゲッ トマークの円の直 径のうち、 前記ターゲッ トマークの像平面内で前記ターゲッ 卜 マークの中心点の像によつて 2等分される直径を特定すること によって、 前記 2つの像点を抽出することを特徵とする請求項 2 6記載の位置、 姿勢の計測装置。
3 1 . 前記演算手段では、 さらに前記ターゲッ トマークの法 線べク トルと像平面の法線べク トルとの外積によって、 前記タ —ゲッ トマークの像平面に平行な直径方向べク トルを求めるこ とによって、
前記直径方向べク トルにより特定される前記ターゲッ トマ一 クの円の直径を構成する円周上の 2点の像空間内での 2つの像 点間の距離、 前記ターゲッ トマークの円の直径の値、 及び前記 カメ ラにより撮像された前記ターゲッ トマークの中心点の像空 間内での座標値に基づいて、 前記物体空間内での前記ターゲッ トマークの位置を演算することを特徴とする請求項 2 7記載の 位置、 姿勢の計測装置。
3 2 . 対象物までの距離および対象物の姿勢を計測する距離 姿勢計測装置において、
各重心が同一平面上に位置するように対象物に配置され、 少 なく とも 1つの円の半径が他と異なる 4つの円板状マークと、 前記 4つの円板状マークを撮影する撮影手段と、
前記撮影手段から出力される 4つの円板状マークの画像デー タに基づき、 各円板状マークの重心位置を算出する重心算出手 段と、 前記重心算出手段が算出した 4つの重心位置を基に、 4点透 視問題を解き、 前記対象物までの距離および前記対象物の姿勢 を演算する潢算手段と、
を有することを特徴とする距離姿勢計測装置。
3 3 . 前記重心算出手段は、 前記撮影手段から出力される 4 つの円板状マークの画像データに基づき、 各円板状マークに対 し、 2値化、 垂直水平投影ヒ ス トグラム作成を行い、 そして荷 重平均計算による円板状マ ークの重心位置を算出するように構 成したことを特徴とする請求項 3 2記載の距離姿勢計測装置。
3 4 . 対象物までの距離および対象物の姿勢を計測する距離 姿勢計測装置において、
互いに半径が異なる第 1および第 2の円板状マークと、 前記第 1および第 2の円板状マークが設けられた第 1の平面 と異なる第 2の平面上に配置された第 3および第 4の円板状マ —クと、
前記第 1乃至第 4の円板状マークを撮影する撮影手段と、 前記撮影手段から出力される第 1乃至第 4の円板状マークの 画像データに基づき、 前記第 1 および第 2の円板状マークの重 心位置を算出するとともに、 前記第 3および第 4の円板状マ ー クを前記撮影手段方向へ投影して前記第 1の平面で得られる各 投影図形における重心位置を算出する重心算出手段と、
前記重心算出手段が算出した 4つの重心位置を基に、 4点透 視問題を解き、 前記対象物までの距離および前記対象物の姿勢 を演算する演算手段と、
を有することを特徴とする距離姿勢計測装置。
3 5 . 前記第 3および第 4の円板状マ 一クは、 前記第 1およ び第 2の円板状マークの各重心を通る平面に垂直で、 かつ、 前 記第 1および第 2の円板状マークの各重心を通る線上にそれぞ れ位置するように構成されたことを特徵とする請求項 3 4記載 の距離姿勢計測装置。
3 6 . 前記第 3および第 4の円板状マークの各半径は、 前記 第 1および第 2の円板状マークの各半径より、 それぞれ小さ く 構成されたことを特徵とする請求項 3 5記載の距離姿勢計測装
3 7 . 対象物までの距離および対象物の姿勢を計測する距離 姿勢計測装置において、
各重心が同一平面上に位置するように対象物に配置され、 少 なく とも 1つの円の半径が他と異なる第 1乃至第 4の円扳状マ —クと、
前記第 1乃至第 4の円板状マークの各重心を通る第 1の平面 と異なる第 2の平面上に配置された第 5および第 6の円板状マ —クと、
前記第 1乃至第 6の円板状マークを撮影する撮影手段と、 前記撮影手段から出力される第 3乃至第 6の円板状マークの 画像データに基づき、 前記第 3および第 4の円板状マークの重 心位置を算出するとともに、 前記第 5および第 6の円板状マ ー クを前記撮影手段方向へ投影して前記第 1の平面で得られる各 投影図形における重心位置を算出する第 1の重心算出手段と、 前記撮影手段から出力される第 1乃至第 4の円扳状マークの 画像データに基づき、 各円板状マークの重心位置を算出する第 2の重心算出手段と、
前記第 1の重心算出手段または前記第 2の重心算出手段が算 出した 4つの重心位置を基に、 4点透視問題を解き、 前記対象 物までの距離および前記対象物の姿勢を演算する演算手段と、 を有することを特徴とする距離姿勢計測装置。
3 8 . 前記演算手段は、 前記第 1の重心算出手段が 4つの重 心位置を算出しているときは前記第 1の重心算出手段が算出し た 4つの重心位置を基に、 4点透視問題を解き、 前記対象物ま での距離および前記対象物の姿勢を演算し、 一方、 前記第 1の 重心算出手段が 4つの重心位置を算出できないときは前記第 2 の重心算出手段が算出した 4つの重心位置を基に、 4点透視問 題を解き、 前記対象物までの距離および前記対象物の姿勢を演 算することを特徴とする請求項 3 7記載の距離姿勢計測装置。
PCT/JP1993/000107 1992-01-30 1993-01-29 System for recognizing and tracking target mark, and method therefor WO1993015376A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP51309693A JP3242108B2 (ja) 1992-01-30 1993-01-29 ターゲットマークの認識・追跡システム及び方法
US08/119,228 US5521843A (en) 1992-01-30 1993-01-29 System for and method of recognizing and tracking target mark

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP4/15557 1992-01-30
JP1555792 1992-01-30
JP4/193457 1992-06-26
JP19345792 1992-06-26
JP4/219029 1992-08-18
JP21902992 1992-08-18
JP4/291628 1992-10-29
JP29162892 1992-10-29
JP30701592 1992-11-17
JP4/307015 1992-11-17

Publications (1)

Publication Number Publication Date
WO1993015376A1 true WO1993015376A1 (en) 1993-08-05

Family

ID=27519724

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1993/000107 WO1993015376A1 (en) 1992-01-30 1993-01-29 System for recognizing and tracking target mark, and method therefor

Country Status (3)

Country Link
US (2) US5521843A (ja)
JP (1) JP3242108B2 (ja)
WO (1) WO1993015376A1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0706105A1 (en) * 1994-10-04 1996-04-10 Consorzio Telerobot Navigation system for an autonomous mobile robot
GB2306834A (en) * 1995-11-03 1997-05-07 Abbotsbury Software Ltd Tracking apparatus for use in tracking an object
JPH10312238A (ja) * 1997-05-13 1998-11-24 Nec Corp ジョイスティック装置
JPH11513483A (ja) * 1995-09-21 1999-11-16 オムニプラナー,インコーポレーテッド 位置及び方位を決定する方法及び装置
JP2000258132A (ja) * 1999-03-05 2000-09-22 Printing Bureau Ministry Of Finance Japan 用紙の伸縮挙動測定方法及びその測定装置
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2005062064A (ja) * 2003-08-18 2005-03-10 National Aerospace Laboratory Of Japan 非接触計測装置
JP2010112859A (ja) * 2008-11-07 2010-05-20 Seiko Epson Corp ロボットシステム、ロボット制御装置およびロボット制御方法
JP2010139329A (ja) * 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
JP2010223909A (ja) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
JP4831919B2 (ja) * 2000-06-30 2011-12-07 スリーエム イノベイティブ プロパティズ カンパニー 表面処理物を製造する方法およびかかる表面処理物
CN103895023A (zh) * 2014-04-04 2014-07-02 中国民航大学 一种基于编码方位装置的机械臂末端跟踪测量系统及方法
JP2016035430A (ja) * 2014-08-04 2016-03-17 ローランドディー.ジー.株式会社 ステージ機構
JP2018044898A (ja) * 2016-09-15 2018-03-22 株式会社五合 基準体
CN110926462A (zh) * 2019-11-04 2020-03-27 中国航空工业集团公司洛阳电光设备研究所 一种基于机载光电探测系统地面目标标记方法
CN111102940A (zh) * 2018-10-29 2020-05-05 北京金风科创风电设备有限公司 叶片桨距角偏差的检测方法、装置、存储介质及系统
JP2020118614A (ja) * 2019-01-25 2020-08-06 学校法人福岡工業大学 計測システム、計測方法および計測プログラム
CN111667037A (zh) * 2020-06-24 2020-09-15 山西凯永养殖有限公司 一种用于室内养猪场的大面积疫情检测系统
US11707842B2 (en) 2018-11-27 2023-07-25 Fanuc Corporation Robot system and coordinate conversion method

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947571B1 (en) * 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
JP3079186B2 (ja) * 1995-09-28 2000-08-21 株式会社小松製作所 構造物計測システム
US7650015B2 (en) * 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
US5832139A (en) * 1996-07-31 1998-11-03 Omniplanar, Inc. Method and apparatus for determining degrees of freedom of a camera
EP1029306B1 (en) * 1997-10-22 2002-03-06 Trimble AB Contactless measuring of position and orientation
US6061644A (en) * 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
US6546151B1 (en) * 1998-01-22 2003-04-08 Matsushita Electric Industrial Co., Ltd Information processing apparatus and information equipment using the information processing apparatus
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons
DE19846283A1 (de) * 1998-10-08 2000-04-20 Messer Griesheim Gmbh Automatisiertes Erfassen von Daten von Druckgasflaschen
US7474760B2 (en) * 1998-10-22 2009-01-06 Trimble Ab Contactless measuring of position and orientation
US6567116B1 (en) 1998-11-20 2003-05-20 James A. Aman Multiple object tracking system
US6707487B1 (en) 1998-11-20 2004-03-16 In The Play, Inc. Method for representing real-time motion
US7483049B2 (en) * 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US20020030742A1 (en) * 1998-11-20 2002-03-14 Aman James A. Employing electomagnetic by-product radiation for object tracking
US6366701B1 (en) * 1999-01-28 2002-04-02 Sarnoff Corporation Apparatus and method for describing the motion parameters of an object in an image sequence
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US6603870B1 (en) * 1999-09-30 2003-08-05 Siemens Corporate Research, Inc. Method and apparatus for visual servoing of a linear apparatus
US8391851B2 (en) 1999-11-03 2013-03-05 Digimarc Corporation Gestural techniques with wireless mobile phone devices
DE10133624A1 (de) * 2000-07-13 2002-01-24 Rolf Kleck Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
DE10051415C2 (de) * 2000-10-17 2003-10-09 Advanced Realtime Tracking Gmb Optisches Trackingsystem und -verfahren
GB2373942A (en) * 2001-03-28 2002-10-02 Hewlett Packard Co Camera records images only when a tag is present
DE10130423B4 (de) * 2001-06-23 2004-02-05 Forschungszentrum Karlsruhe Gmbh Optisches 3D-Positionsmesssystem für die simultane Erfassung von sechs Freiheitsgraden
SG112810A1 (en) * 2001-09-10 2005-07-28 Panasonic Singapore Lab Pte Lt Method for automatic camera tracking of moving objects based on a system of cameras
US6792811B2 (en) * 2002-03-04 2004-09-21 The Regents Of The University Of Michigan Method and system for measuring vibration of an object
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
US7845560B2 (en) * 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US7168174B2 (en) * 2005-03-14 2007-01-30 Trimble Navigation Limited Method and apparatus for machine element control
GB2428110A (en) * 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US20070188606A1 (en) * 2006-02-16 2007-08-16 Kevin Atkinson Vision-based position tracking system
EP1870210A1 (en) * 2006-06-22 2007-12-26 Honda Research Institute Europe GmbH Evaluating visual proto-objects for robot interaction
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7584020B2 (en) * 2006-07-05 2009-09-01 Battelle Energy Alliance, Llc Occupancy change detection system and method
US7801644B2 (en) * 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US7668621B2 (en) * 2006-07-05 2010-02-23 The United States Of America As Represented By The United States Department Of Energy Robotic guarded motion system and method
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US8965578B2 (en) 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US7427220B2 (en) * 2006-08-02 2008-09-23 Mcgill University Amphibious robotic device
GB2441765A (en) * 2006-09-12 2008-03-19 U W G Ltd Underwater visual inspection of an underwater structure
JP5096728B2 (ja) * 2006-11-06 2012-12-12 株式会社タダノ クレーンの吊り荷用フックブロック自動追尾装置
WO2008152733A1 (ja) * 2007-06-15 2008-12-18 Fujitsu Limited ロボット
DE102007060653A1 (de) 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
US8210435B2 (en) * 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
SE532222C2 (sv) 2008-03-04 2009-11-17 Morphic Technologies Ab En robot för gripande av föremål
WO2009146359A1 (en) 2008-05-28 2009-12-03 Illinois Tool Works Inc. Welding training system
US8346468B2 (en) * 2008-07-08 2013-01-01 Sky-Trax Incorporated Method and apparatus for collision avoidance
JP5083138B2 (ja) * 2008-09-12 2012-11-28 株式会社ニコン 画像分類装置
FR2936607B1 (fr) * 2008-09-26 2012-10-12 Thales Sa Dispositif de detection optique de position et/ou d'orientation d'objets comprenant au moins un capteur lineaire
FR2936609B1 (fr) * 2008-09-26 2012-10-12 Thales Sa Systeme de detection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires
US8199194B2 (en) * 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
US8422777B2 (en) * 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
DE102009050368A1 (de) 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
US8964032B2 (en) * 2009-01-30 2015-02-24 Magna Electronics Inc. Rear illumination system
US8125529B2 (en) * 2009-02-09 2012-02-28 Trimble Navigation Limited Camera aiming using an electronic positioning system for the target
US8854453B2 (en) * 2009-06-23 2014-10-07 Here Global B.V. Determining geographic position information from a single image
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US9150155B2 (en) 2010-01-13 2015-10-06 Magna Electronics Inc. Vehicular camera and method for periodic calibration of vehicular camera
US8737685B2 (en) 2011-04-25 2014-05-27 Honeywell International Inc. Systems and methods for detecting the movement of an object
US9101994B2 (en) 2011-08-10 2015-08-11 Illinois Tool Works Inc. System and device for welding training
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
WO2013044626A1 (zh) * 2011-09-28 2013-04-04 湖南三一智能控制设备有限公司 一种执行臂末端运动的控制系统及控制方法
US9573215B2 (en) 2012-02-10 2017-02-21 Illinois Tool Works Inc. Sound-based weld travel speed sensing system and method
US9754357B2 (en) * 2012-03-23 2017-09-05 Panasonic Intellectual Property Corporation Of America Image processing device, stereoscoopic device, integrated circuit, and program for determining depth of object in real space generating histogram from image obtained by filming real space and performing smoothing of histogram
FR2993371B1 (fr) * 2012-07-13 2014-08-15 Thales Sa Systeme optique de mesure d'orientation et de position sans formation d'image a source ponctuelle et masque
KR101398068B1 (ko) 2012-09-17 2014-05-27 주식회사 이미지넥스트 차량 설치 카메라 외부 파라미터 추정 방법 및 장치
US9368045B2 (en) 2012-11-09 2016-06-14 Illinois Tool Works Inc. System and device for welding training
US9583014B2 (en) 2012-11-09 2017-02-28 Illinois Tool Works Inc. System and device for welding training
US9583023B2 (en) 2013-03-15 2017-02-28 Illinois Tool Works Inc. Welding torch for a welding training system
US9672757B2 (en) 2013-03-15 2017-06-06 Illinois Tool Works Inc. Multi-mode software and method for a welding training system
US9713852B2 (en) 2013-03-15 2017-07-25 Illinois Tool Works Inc. Welding training systems and devices
US9666100B2 (en) 2013-03-15 2017-05-30 Illinois Tool Works Inc. Calibration devices for a welding training system
US9728103B2 (en) 2013-03-15 2017-08-08 Illinois Tool Works Inc. Data storage and analysis for a welding training system
FR3006759B1 (fr) * 2013-06-07 2015-06-05 Thales Sa Systeme optique de mesure d'orientation et de position a source ponctuelle, masque central, capteur matriciel photosensible et coin de cube
US11090753B2 (en) 2013-06-21 2021-08-17 Illinois Tool Works Inc. System and method for determining weld travel speed
US9555549B2 (en) * 2013-10-31 2017-01-31 Seiko Epson Corporation Control device, robot, robot system, and control method
US10056010B2 (en) 2013-12-03 2018-08-21 Illinois Tool Works Inc. Systems and methods for a weld training system
US9751149B2 (en) 2014-01-07 2017-09-05 Illinois Tool Works Inc. Welding stand for a welding system
US9724788B2 (en) 2014-01-07 2017-08-08 Illinois Tool Works Inc. Electrical assemblies for a welding system
US10170019B2 (en) 2014-01-07 2019-01-01 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9757819B2 (en) 2014-01-07 2017-09-12 Illinois Tool Works Inc. Calibration tool and method for a welding system
US10105782B2 (en) 2014-01-07 2018-10-23 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9589481B2 (en) 2014-01-07 2017-03-07 Illinois Tool Works Inc. Welding software for detection and control of devices and for analysis of data
US9937578B2 (en) 2014-06-27 2018-04-10 Illinois Tool Works Inc. System and method for remote welding training
US10665128B2 (en) 2014-06-27 2020-05-26 Illinois Tool Works Inc. System and method of monitoring welding information
US9862049B2 (en) 2014-06-27 2018-01-09 Illinois Tool Works Inc. System and method of welding system operator identification
US10307853B2 (en) 2014-06-27 2019-06-04 Illinois Tool Works Inc. System and method for managing welding data
US9724787B2 (en) 2014-08-07 2017-08-08 Illinois Tool Works Inc. System and method of monitoring a welding environment
US11014183B2 (en) 2014-08-07 2021-05-25 Illinois Tool Works Inc. System and method of marking a welding workpiece
US9875665B2 (en) 2014-08-18 2018-01-23 Illinois Tool Works Inc. Weld training system and method
CN107108047A (zh) 2014-08-26 2017-08-29 有效空间解决方案有限公司 用于卫星的对接系统和方法
US11247289B2 (en) 2014-10-16 2022-02-15 Illinois Tool Works Inc. Remote power supply parameter adjustment
US10239147B2 (en) 2014-10-16 2019-03-26 Illinois Tool Works Inc. Sensor-based power controls for a welding system
US10402959B2 (en) 2014-11-05 2019-09-03 Illinois Tool Works Inc. System and method of active torch marker control
US10210773B2 (en) 2014-11-05 2019-02-19 Illinois Tool Works Inc. System and method for welding torch display
US10490098B2 (en) 2014-11-05 2019-11-26 Illinois Tool Works Inc. System and method of recording multi-run data
US10417934B2 (en) 2014-11-05 2019-09-17 Illinois Tool Works Inc. System and method of reviewing weld data
US10373304B2 (en) 2014-11-05 2019-08-06 Illinois Tool Works Inc. System and method of arranging welding device markers
US10204406B2 (en) 2014-11-05 2019-02-12 Illinois Tool Works Inc. System and method of controlling welding system camera exposure and marker illumination
CN104524731A (zh) * 2015-01-14 2015-04-22 南京国业科技有限公司 基于光电转塔的多信息融合智能水炮系统
US10427239B2 (en) 2015-04-02 2019-10-01 Illinois Tool Works Inc. Systems and methods for tracking weld training arc parameters
CN104869312B (zh) * 2015-05-22 2017-09-29 北京橙鑫数据科技有限公司 智能跟踪拍摄装置
US9758305B2 (en) 2015-07-31 2017-09-12 Locus Robotics Corp. Robotic navigation utilizing semantic mapping
US10438505B2 (en) 2015-08-12 2019-10-08 Illinois Tool Works Welding training system interface
US10657839B2 (en) 2015-08-12 2020-05-19 Illinois Tool Works Inc. Stick welding electrode holders with real-time feedback features
US10373517B2 (en) 2015-08-12 2019-08-06 Illinois Tool Works Inc. Simulation stick welding electrode holder systems and methods
US10593230B2 (en) 2015-08-12 2020-03-17 Illinois Tool Works Inc. Stick welding electrode holder systems and methods
US9910001B2 (en) 2015-10-01 2018-03-06 Radix Inc. Fragment detection method and apparatus
US10723022B2 (en) * 2016-09-16 2020-07-28 Carbon Robotics, Inc. System and calibration, registration, and training methods
US10625882B2 (en) 2017-03-06 2020-04-21 Effective Space Solutions Ltd. Service satellite for providing in-orbit services using variable thruster control
JP6850639B2 (ja) * 2017-03-09 2021-03-31 本田技研工業株式会社 ロボット
CN107116531A (zh) * 2017-06-30 2017-09-01 合肥博创机械制造有限公司 一种药店管理机器人
JP2019025572A (ja) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボットの異常を確認する方法
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
US10436590B2 (en) * 2017-11-10 2019-10-08 Ankobot (Shanghai) Smart Technologies Co., Ltd. Localization system and method, and robot using the same
CN107797560B (zh) * 2017-11-28 2023-06-20 深圳市中科德睿智能科技有限公司 一种用于机器人跟踪的视觉识别系统及方法
US11636382B1 (en) * 2018-08-10 2023-04-25 Textron Innovations, Inc. Robotic self programming visual inspection
US10751883B2 (en) 2018-08-16 2020-08-25 Mitutoyo Corporation Robot system with supplementary metrology position coordinates determination system
US11002529B2 (en) 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US10871366B2 (en) 2018-08-16 2020-12-22 Mitutoyo Corporation Supplementary metrology position coordinates determination system for use with a robot
CN113190013B (zh) * 2018-08-31 2023-06-27 创新先进技术有限公司 控制终端运动的方法和装置
JP7163115B2 (ja) * 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
US10913156B2 (en) 2018-09-24 2021-02-09 Mitutoyo Corporation Robot system with end tool metrology position coordinates determination system
CN109500817B (zh) * 2018-12-07 2024-05-10 深圳市众智创新科技有限责任公司 多足机器人的360度视觉追踪控制系统及控制方法
US11776423B2 (en) 2019-07-22 2023-10-03 Illinois Tool Works Inc. Connection boxes for gas tungsten arc welding training systems
US11288978B2 (en) 2019-07-22 2022-03-29 Illinois Tool Works Inc. Gas tungsten arc welding training systems
CN111354046A (zh) * 2020-03-30 2020-06-30 北京芯龙德大数据科技有限公司 室内摄像头定位方法及定位系统
CN111862154B (zh) * 2020-07-13 2024-03-01 中移(杭州)信息技术有限公司 机器人视觉跟踪方法、装置、机器人及存储介质
CN111918016A (zh) * 2020-07-24 2020-11-10 武汉烽火众智数字技术有限责任公司 一种视频通话中高效的实时画面标注方法
CN112135042B (zh) * 2020-09-18 2023-04-18 成都圭目机器人有限公司 一种地面移动机器人搭载相机的调整和标定方法
CN113112546B (zh) * 2021-04-16 2023-01-06 北京航空航天大学 基于三x组合标记的空间目标检测识别与位姿跟踪方法
KR102585785B1 (ko) * 2021-05-31 2023-10-13 한국기계연구원 절대거리 측정 기반 다변측정시스템 및 이를 이용한 다변측정방법
CN113687627B (zh) * 2021-08-18 2022-08-19 太仓中科信息技术研究院 一种基于摄像机器人的目标跟踪方法
CN113901535A (zh) * 2021-10-12 2022-01-07 广联达科技股份有限公司 标记标签的吸附方法、装置、计算机设备及存储介质
DE102022201316B3 (de) 2022-02-09 2023-06-22 Robert Bosch Gesellschaft mit beschränkter Haftung Markierung und Verfahren zur Positionsbestimmung sowie zugehöriges Kamerasystem
CN114721442B (zh) * 2022-04-11 2023-05-30 中国科学院光电技术研究所 一种基于旋转三棱镜光电跟踪装置的闭环跟踪方法
CN116503585B (zh) * 2023-06-25 2023-09-05 广州视景医疗软件有限公司 一种基于细胞自动机的融合功能训练控制方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61126406A (ja) * 1984-11-26 1986-06-13 Yokogawa Electric Corp 画像計測装置
JPS6254108A (ja) * 1985-09-02 1987-03-09 Nec Corp 座標測定装置
JPS6254107A (ja) * 1985-09-02 1987-03-09 Nec Corp 座標測定装置
JPS62185105A (ja) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol 方向性基準マ−ク等による対象物の姿勢及び寸法の自動計測方法
JPS62185106A (ja) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol 方向性基準マ−クによる対象物の姿勢の自動計測方法
JPS6375508A (ja) * 1986-09-18 1988-04-05 Fujitsu Ltd 線分の3次元方位計測方法
JPH03131710A (ja) * 1989-10-18 1991-06-05 Nec Corp 位置決めマーク
JPH04119481A (ja) * 1990-09-11 1992-04-20 Japan Steel Works Ltd:The 目標画像処理方法および装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2018422B (en) * 1978-03-29 1983-01-19 Hitachi Ltd Mark detecting system
JPS5927842B2 (ja) * 1978-08-24 1984-07-09 工業技術院長 タ−ゲット・マ−クの変位測定方法
US5008804A (en) * 1988-06-23 1991-04-16 Total Spectrum Manufacturing Inc. Robotic television-camera dolly system
JP2564963B2 (ja) * 1990-03-29 1996-12-18 三菱電機株式会社 ターゲット及びこれを用いた三次元位置姿勢計測システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61126406A (ja) * 1984-11-26 1986-06-13 Yokogawa Electric Corp 画像計測装置
JPS6254108A (ja) * 1985-09-02 1987-03-09 Nec Corp 座標測定装置
JPS6254107A (ja) * 1985-09-02 1987-03-09 Nec Corp 座標測定装置
JPS62185105A (ja) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol 方向性基準マ−ク等による対象物の姿勢及び寸法の自動計測方法
JPS62185106A (ja) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol 方向性基準マ−クによる対象物の姿勢の自動計測方法
JPS6375508A (ja) * 1986-09-18 1988-04-05 Fujitsu Ltd 線分の3次元方位計測方法
JPH03131710A (ja) * 1989-10-18 1991-06-05 Nec Corp 位置決めマーク
JPH04119481A (ja) * 1990-09-11 1992-04-20 Japan Steel Works Ltd:The 目標画像処理方法および装置

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0706105A1 (en) * 1994-10-04 1996-04-10 Consorzio Telerobot Navigation system for an autonomous mobile robot
US5911767A (en) * 1994-10-04 1999-06-15 Garibotto; Giovanni Navigation system for an autonomous mobile robot
JPH11513483A (ja) * 1995-09-21 1999-11-16 オムニプラナー,インコーポレーテッド 位置及び方位を決定する方法及び装置
GB2306834B (en) * 1995-11-03 2000-01-19 Abbotsbury Software Ltd Tracking apparatus for use in tracking an object
GB2306834A (en) * 1995-11-03 1997-05-07 Abbotsbury Software Ltd Tracking apparatus for use in tracking an object
US5838366A (en) * 1995-11-03 1998-11-17 Snape; Tim Tracking apparatus for use in tracking an object
JPH10312238A (ja) * 1997-05-13 1998-11-24 Nec Corp ジョイスティック装置
JP2000258132A (ja) * 1999-03-05 2000-09-22 Printing Bureau Ministry Of Finance Japan 用紙の伸縮挙動測定方法及びその測定装置
JP4831919B2 (ja) * 2000-06-30 2011-12-07 スリーエム イノベイティブ プロパティズ カンパニー 表面処理物を製造する方法およびかかる表面処理物
JP2002090118A (ja) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd 3次元位置姿勢センシング装置
JP2005062064A (ja) * 2003-08-18 2005-03-10 National Aerospace Laboratory Of Japan 非接触計測装置
JP2010112859A (ja) * 2008-11-07 2010-05-20 Seiko Epson Corp ロボットシステム、ロボット制御装置およびロボット制御方法
CN101733755A (zh) * 2008-11-07 2010-06-16 精工爱普生株式会社 机械手系统、机械手控制装置以及机械手控制方法
US8666141B2 (en) 2008-11-07 2014-03-04 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
JP2010139329A (ja) * 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
JP2010223909A (ja) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
CN103895023A (zh) * 2014-04-04 2014-07-02 中国民航大学 一种基于编码方位装置的机械臂末端跟踪测量系统及方法
JP2016035430A (ja) * 2014-08-04 2016-03-17 ローランドディー.ジー.株式会社 ステージ機構
JP2018044898A (ja) * 2016-09-15 2018-03-22 株式会社五合 基準体
CN111102940A (zh) * 2018-10-29 2020-05-05 北京金风科创风电设备有限公司 叶片桨距角偏差的检测方法、装置、存储介质及系统
US11707842B2 (en) 2018-11-27 2023-07-25 Fanuc Corporation Robot system and coordinate conversion method
JP2020118614A (ja) * 2019-01-25 2020-08-06 学校法人福岡工業大学 計測システム、計測方法および計測プログラム
CN110926462A (zh) * 2019-11-04 2020-03-27 中国航空工业集团公司洛阳电光设备研究所 一种基于机载光电探测系统地面目标标记方法
CN111667037A (zh) * 2020-06-24 2020-09-15 山西凯永养殖有限公司 一种用于室内养猪场的大面积疫情检测系统

Also Published As

Publication number Publication date
US5521843A (en) 1996-05-28
US5617335A (en) 1997-04-01
JP3242108B2 (ja) 2001-12-25

Similar Documents

Publication Publication Date Title
WO1993015376A1 (en) System for recognizing and tracking target mark, and method therefor
CN107292927B (zh) 一种基于双目视觉的对称运动平台位姿测量方法
JP5839971B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US7280687B2 (en) Device for detecting position/orientation of object
US4402053A (en) Estimating workpiece pose using the feature points method
US7613361B2 (en) Information processing method and device
US20080240511A1 (en) Apparatus for picking up objects
JP5471356B2 (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP2011174879A (ja) 位置姿勢推定装置及びその方法
JP3208953B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP2011198349A (ja) 情報処理方法及びその装置
JP3738456B2 (ja) 物品の位置検出方法およびその装置
JP4766269B2 (ja) 物体検出方法、物体検出装置、及びそれを備えたロボット
JP3654042B2 (ja) 物体特定方法及び装置
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
CN111598172A (zh) 基于异构深度网络融合的动态目标抓取姿态快速检测方法
CN112518748A (zh) 面向运动物品的视觉机械臂自动抓取方法与系统
JP2005351886A (ja) 位置姿勢計測方法および情報処理装置
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
JP4793109B2 (ja) 物体検出法およびロボット
CN115908562A (zh) 一种异面点合作标志器及测量方法
US20230297068A1 (en) Information processing device and information processing method
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 08119228

Country of ref document: US