WO2022014458A1 - 検出装置及び検出方法 - Google Patents

検出装置及び検出方法 Download PDF

Info

Publication number
WO2022014458A1
WO2022014458A1 PCT/JP2021/025791 JP2021025791W WO2022014458A1 WO 2022014458 A1 WO2022014458 A1 WO 2022014458A1 JP 2021025791 W JP2021025791 W JP 2021025791W WO 2022014458 A1 WO2022014458 A1 WO 2022014458A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional camera
work
position coordinates
dimensional
camera
Prior art date
Application number
PCT/JP2021/025791
Other languages
English (en)
French (fr)
Inventor
鈴木忠則
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to JP2022536306A priority Critical patent/JP7381758B2/ja
Priority to DE112021003715.3T priority patent/DE112021003715T5/de
Priority to US18/015,344 priority patent/US20230281857A1/en
Priority to CN202180061283.9A priority patent/CN116235024A/zh
Publication of WO2022014458A1 publication Critical patent/WO2022014458A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Definitions

  • the present invention relates to a detection device and a detection method for detecting the position of a long work.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a detection device and a detection method capable of shortening the time required to detect the positions of both ends of a long work.
  • the first aspect of the present invention is a detection device for detecting the position of a long work, a three-dimensional camera capable of acquiring three-dimensional information and capable of changing the shooting direction, and the three-dimensional camera.
  • the shooting control unit includes a shooting control unit that controls the shooting direction and a coordinate acquisition unit that acquires the position coordinates of the long work from the three-dimensional information acquired by the three-dimensional camera.
  • the shooting control unit is the tertiary. After changing the shooting direction of the three-dimensional camera so that one end of the long work is in the field of view of the original camera, the three-dimensional camera is placed so that the other end of the long work is in the field of view of the three-dimensional camera.
  • the shooting direction of the three-dimensional camera is changed, and the coordinate acquisition unit obtains the one end of the three-dimensional camera when the shooting direction of the three-dimensional camera is changed so that the one end is in the field of view of the three-dimensional camera.
  • the position coordinates of the one end are acquired from the three-dimensional information of the above, and the three-dimensional camera acquires the position coordinates when the shooting direction of the three-dimensional camera is changed so that the other end is in the field of view of the three-dimensional camera.
  • the position coordinates of the other end are acquired from the three-dimensional information of the other end.
  • the second aspect of the present invention is a detection method for detecting the position of a long work based on the three-dimensional information acquired by the three-dimensional camera, and one end of the long work is in the field of view of the three-dimensional camera.
  • the direction in which the 3D camera shoots is set so that the other end of the long workpiece is in the field of view of the 3D camera.
  • the position coordinates of the one end are acquired from the three-dimensional information of the above, and the three-dimensional camera acquires the position coordinates when the shooting direction of the three-dimensional camera is changed so that the other end is in the field of view of the three-dimensional camera. It has a coordinate acquisition step of acquiring the position coordinates of the other end from the three-dimensional information of the other end.
  • the time required to detect the positions at both ends of a long workpiece can be shortened.
  • FIG. 1 is a block diagram of a position detection device.
  • 2A-2C are diagrams showing an articulated robot.
  • FIG. 3 is a diagram illustrating a method of acquiring the position coordinates of the work.
  • 4A and 4B are diagrams illustrating a method of setting a work coordinate system.
  • FIG. 5 is a diagram illustrating a method of acquiring the position coordinates of the work.
  • FIG. 6 is a diagram showing an example of another shape of the work.
  • FIG. 7 is a diagram illustrating a method of acquiring the position coordinates of the work.
  • FIG. 8 is a flowchart showing the flow of the work position detection process performed in the position detection device.
  • FIG. 9 is a diagram showing a robot.
  • 10A to 10D are diagrams showing the positional relationship between the field of view of the two-dimensional camera and the work.
  • 11A and 11B are diagrams showing the operating range of the arm of the robot.
  • FIG. 1 is a block diagram of the position detection device 10.
  • 2A to 2C are views showing an articulated robot 12.
  • the position detection device 10 includes a three-dimensional camera 14, a coordinate acquisition unit 16, and an imaging control unit 18.
  • the position detection device 10 corresponds to the detection device of the present invention.
  • the three-dimensional camera 14 is, for example, a camera having a projection unit that projects a pattern on a subject and an image pickup unit that captures an image of the subject in a state where the pattern is projected.
  • the three-dimensional camera 14 acquires three-dimensional information of the work 24 placed on the table 20 as shown in FIGS. 2A to 2C.
  • the three-dimensional camera 14 may be a stereo camera having a plurality of image pickup units.
  • the three-dimensional camera 14 is fixed to the arm 22 of the articulated robot 12 (hereinafter referred to as the robot 12).
  • the robot 12 changes the position of the three-dimensional camera 14 and the shooting direction of the three-dimensional camera 14.
  • the device is not limited to the robot 12 as long as it can change the position of the three-dimensional camera 14 and the shooting direction of the three-dimensional camera 14.
  • the three-dimensional camera 14 may be rotatably attached to the arm 22 of the robot 12 by a mechanism provided in the three-dimensional camera 14. In this case, the position of the three-dimensional camera 14 is changed by the robot 12, and the shooting direction of the three-dimensional camera 14 is changed by the mechanism provided in the three-dimensional camera 14.
  • the coordinate acquisition unit 16 acquires the position coordinates of the work 24 in the three-dimensional space from the three-dimensional information of the work 24 acquired by the three-dimensional camera 14. The acquisition of position coordinates will be described in detail later.
  • the shooting control unit 18 controls the position of the three-dimensional camera 14 and the shooting direction of the three-dimensional camera 14.
  • the shooting control unit 18 outputs a command value for the position of the three-dimensional camera 14 and a command value for the shooting direction of the three-dimensional camera 14 to the robot control device 26.
  • the robot control device 26 controls the robot 12 based on the command value input from the shooting control unit 18, and changes the position of the three-dimensional camera 14 and the shooting direction of the three-dimensional camera 14.
  • the position detection device 10 has a computer having an arithmetic processing unit (not shown) and storage.
  • the arithmetic processing unit has, for example, a memory including a processor such as a central processing unit (CPU) and a microprocessing unit (MPU), and a non-temporary tangible computer-readable recording medium such as ROM and RAM.
  • the storage is, for example, a non-temporary tangible computer-readable recording medium such as a hard disk, solid state drive (SSD), or the like.
  • the coordinate acquisition unit 16 and the photographing control unit 18 are realized, for example, by the arithmetic processing unit executing a program stored in the storage.
  • the coordinate acquisition unit 16 is the position of the work 24 in the three-dimensional space based on the three-dimensional information acquired by the three-dimensional camera 14, the information on the position of the three-dimensional camera 14, and the information on the shooting orientation of the three-dimensional camera 14. Get the coordinates.
  • the information on the position of the three-dimensional camera 14 and the information on the shooting direction of the three-dimensional camera 14 are the command value for the position of the three-dimensional camera 14 output by the shooting control unit 18 to the robot control device 26, and the three-dimensional image. It can be obtained from the command value for the shooting direction of the camera 14.
  • Information on the position of the three-dimensional camera 14 and information on the shooting direction of the three-dimensional camera 14 may be obtained from the position information of the tip of the arm 22 of the robot 12 and the posture information of the robot 12.
  • the position information of the tip of the arm 22 of the robot 12 and the posture information of the robot 12 are obtained from the robot control device 26.
  • the position detection device 10 of the present embodiment can detect the positions of both ends of the long work 24. Further, the position detection device 10 can detect the midpoint of the long work 24 in the axial direction.
  • the work 24 corresponds to the long work of the present invention.
  • FIG. 3 is a diagram illustrating a method of acquiring the position coordinates of the work 24.
  • the photographing control unit 18 controls the position of the three-dimensional camera 14 so as to be above the vertical direction (gravity direction) of the work 24.
  • the imaging control unit 18 controls the three-dimensional camera 14 so that the imaging direction is downward in the vertical direction.
  • the coordinate acquisition unit 16 sets the work coordinate system based on the 3D information of the work 24 acquired by the 3D camera 14, the position information of the 3D camera 14, and the information of the shooting direction of the 3D camera 14. do.
  • FIG. 4A and 4B are diagrams illustrating a method of setting a work coordinate system.
  • FIG. 4A is a top perspective view of the work 24.
  • FIG. 4B is a side perspective view of the work 24.
  • the direction in which the work 24 extends is set to the Y-axis direction, and the left-hand side when viewed from the robot 12 side or the direction away from the robot 12 is set to the positive side.
  • the origin in the Y-axis direction is set at the center in the Y-axis direction of the work 24 in the field of view of the three-dimensional camera 14.
  • the origin in the Y-axis direction may be set to any point on the Y-axis in the field of view of the three-dimensional camera 14.
  • the direction orthogonal to the Y-axis direction is set in the X-axis direction on the horizontal plane (plane orthogonal to the vertical direction), and the direction away from the robot 12 or the robot 12 side.
  • the right hand side is set to the positive side when viewed from.
  • the origin in the X-axis direction is set at a position where the X-axis direction and the Y-axis direction intersect at the origin in the Y-axis direction described above.
  • the direction orthogonal to the X-axis direction and the Y-axis direction is set to the Z-axis direction, and the upper side is set to the positive side.
  • FIG. 5 is a diagram illustrating a method of acquiring the position coordinates of the work 24.
  • the shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 so that one end of the work 24 on the negative side in the Y-axis direction is in the field of view of the three-dimensional camera 14.
  • the shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 based on the three-dimensional information acquired by the three-dimensional camera 14.
  • the three-dimensional camera 14 can acquire the three-dimensional information of the negative end portion in the Y-axis direction of the work 24.
  • the coordinate acquisition unit 16 is based on the three-dimensional information of the negative end in the Y-axis direction of the work 24 acquired by the three-dimensional camera 14, the position information of the three-dimensional camera 14, and the information of the shooting direction of the three-dimensional camera 14. , Acquire the position coordinates of the negative end of the work 24 in the Y-axis direction in the work coordinate system. For example, as shown in FIG. 5, attention is paid to the Y-axis component value of the position coordinate of the negative end in the Y-axis direction of the acquired work 24, and the minimum Y-axis component value Y1 is stored as Ymin.
  • the work 24 shown in FIG. 5 has a columnar shape, it may have a different shape.
  • FIG. 6 is a diagram showing an example of another shape of the work 24. Similarly, in the case of the work 24 having the shape shown in FIG. 6, the minimum Y-axis component value Y3 is stored as Ymin.
  • FIG. 7 is a diagram illustrating a method of acquiring the position coordinates of the work 24.
  • the shooting control unit 18 moves the work 24 to the positive side in the Y-axis direction in the field of view of the 3D camera 14.
  • the shooting direction of the three-dimensional camera 14 is controlled so that the other end of the camera is inserted.
  • the shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 based on the three-dimensional information acquired by the three-dimensional camera 14. As a result, the three-dimensional camera 14 can acquire three-dimensional information of the positive end portion of the work 24 in the Y-axis direction.
  • the coordinate acquisition unit 16 is based on the 3D information of the positive end in the Y-axis direction of the work 24 acquired by the 3D camera 14, the position information of the 3D camera 14, and the information of the shooting direction of the 3D camera 14. , Acquire the position coordinates of the positive end of the work 24 in the Y-axis direction in the work coordinate system. For example, as shown in FIG. 7, attention is paid to the Y-axis component value of the position coordinate of the positive end in the Y-axis direction of the acquired work 24, and the maximum Y-axis component value Y1'is stored as Ymax.
  • the coordinate acquisition unit 16 calculates the position coordinates of the midpoint of the work 24 in the Y-axis direction in the work coordinate system based on the minimum Y-axis component value Ymin and the maximum Y-axis component value Ymax of the work 24.
  • the coordinate acquisition unit 16 calculates the coordinates of the internal division points other than the midpoint of the work 24 in the work coordinate system in the Y-axis direction instead of the position coordinates of the midpoint of the work 24 in the work coordinate system. You may do it.
  • the coordinate acquisition unit 16 converts the position coordinates (Xc, Yc, Zc) of the midpoint of the work 24 in the work coordinate system into the position coordinates in the user coordinate system used for controlling the robot 12.
  • the work coordinate system corresponds to the first coordinate system of the present invention
  • the user coordinate system corresponds to the second coordinate system of the present invention.
  • FIG. 8 is a flowchart showing the flow of the work position detection process performed by the position detection device 10. The work position detection process is executed every time a new work 24 is placed on the table 20.
  • step S1 the photographing control unit 18 controls the three-dimensional camera 14 so as to be positioned on the upper side in the vertical direction of the work 24, and proceeds to step S2.
  • step S2 the shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 so as to face downward in the vertical direction, and proceeds to step S3.
  • step S3 the coordinate acquisition unit 16 obtains the work coordinate system from the 3D information of the work 24 acquired by the 3D camera 14, the position information of the 3D camera 14, and the information of the shooting direction of the 3D camera 14. The setting is made, and the process proceeds to step S4.
  • step S4 the coordinate acquisition unit 16 determines whether or not both ends of the work 24 are within the field of view of the three-dimensional camera 14 based on the three-dimensional information acquired by the three-dimensional camera 14.
  • step S4: YES the process proceeds to step S7, and when at least one end of the work 24 is not in the field of view of the three-dimensional camera 14 (step S4). : NO), the process proceeds to step S5.
  • step S5 the photographing control unit 18 controls the photographing direction of the three-dimensional camera 14 so that the negative end portion in the Y-axis direction (one end of the work 24) of the work 24 is in the field of view of the three-dimensional camera 14.
  • step S6 The shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 based on the three-dimensional information acquired by the three-dimensional camera 14.
  • step S6 the photographing control unit 18 controls the photographing direction of the three-dimensional camera 14 so that the positive end portion in the Y-axis direction (the other end of the work 24) of the work 24 is in the field of view of the three-dimensional camera 14.
  • the process proceeds to step S7.
  • the shooting control unit 18 controls the shooting direction of the three-dimensional camera 14 based on the three-dimensional information acquired by the three-dimensional camera 14.
  • step S7 the coordinate acquisition unit 16 acquires the Y-axis component value Ymin as the position information of the negative end portion in the Y-axis direction (one end of the work 24) of the work 24, and proceeds to step S8.
  • step S8 the coordinate acquisition unit 16 acquires the Y-axis component value Ymax as the position information of the positive end portion (the other end of the work 24) in the Y-axis direction of the work 24, and proceeds to step S9.
  • step S9 the coordinate acquisition unit 16 calculates the position coordinates of the midpoint of the work 24 in the work coordinate system based on the Y-axis component value Ymin and the Y-axis component value Ymax, and proceeds to step S10.
  • step S10 the coordinate acquisition unit 16 converts the position coordinates of the midpoint of the work 24 in the work coordinate system into the position coordinates in the user coordinate system, and ends the work position detection process.
  • the position detection device 10 of the present embodiment detects the positions of both ends of the work 24 by using the three-dimensional information of the work 24 acquired by the three-dimensional camera 14.
  • the position detecting device 10 can also detect the positions of both ends of the work 24 by using the two-dimensional information of the work 24 acquired by the two-dimensional camera 28 (FIG. 9).
  • the two-dimensional camera 28 needs to be installed so that the shooting direction of the two-dimensional camera 28 is orthogonal to the longitudinal direction of the work 24.
  • FIG. 9 is a diagram showing the robot 12.
  • the two-dimensional camera 28 is attached to the arm 22 of the robot 12 in the same manner as the three-dimensional camera 14 of the present embodiment, and the position of the two-dimensional camera 28 and the shooting direction of the two-dimensional camera 28 are changed by the robot 12. To.
  • the position of the two-dimensional camera 28 is moved so as to be on the upper side in the vertical direction of the work 24, and the posture of the two-dimensional camera 28 is controlled so that the shooting direction is on the lower side in the vertical direction.
  • the work 24 is placed on the table 20 so that the longitudinal direction is parallel to the horizontal direction (direction orthogonal to the vertical direction).
  • FIGS. 10A to 10D are diagrams showing the positional relationship between the field of view of the two-dimensional camera 28 and the work 24.
  • FIG. 10A when one end of the work 24 is located in the field of view of the two-dimensional camera 28 but the other end is located outside the field of view, the two-dimensional camera 28 is two-dimensional at the other end of the work 24. I can't get information.
  • FIG. 10B even when both ends of the work 24 are located outside the field of view of the two-dimensional camera 28, the two-dimensional camera 28 cannot obtain the two-dimensional information of both ends of the work 24.
  • both ends of the work 24 are located in the field of view of the two-dimensional camera 28.
  • FIG. 10D one end and the other end of the work 24 are located in the field of view of the two-dimensional camera 28.
  • FIG. 11A and 11B are diagrams showing the operating range of the arm 22 of the robot 12.
  • the two-dimensional camera 28 When the two-dimensional camera 28 is moved to a position away from the work 24 in order to position both ends of the work 24 in the field of view of the two-dimensional camera 28 as shown in FIG. 10C, the two-dimensional camera 28 is shown in FIG. 11A. Position may be outside the operating range of the arm 22 of the robot 12. Further, as shown in FIG. 10D, in order to position each of the one end and the other end of the work 24 in the field of view of the two-dimensional camera 28, the two-dimensional camera 28 is placed on the upper side of each of the one end and the other end of the work 24 in the vertical direction. When moving to a position, the position of the two-dimensional camera 28 may be outside the operating range of the arm 22 of the robot 12, as shown in FIG. 11B.
  • the position of the work 24 is detected by using the three-dimensional information of the work 24 acquired by the three-dimensional camera 14.
  • the photographing control unit 18 controls the shooting direction of the three-dimensional camera 14 so that one end of the work 24 is in the field of view of the three-dimensional camera 14, and then the other end of the work 24 is in the field of view of the three-dimensional camera 14.
  • the shooting direction of the three-dimensional camera 14 is controlled.
  • the coordinate acquisition unit 16 acquires the position coordinates of one end of the work 24 from the three-dimensional information of one end of the work 24 acquired by the three-dimensional camera 14, and from the three-dimensional information of the other end of the work 24 acquired by the three-dimensional camera 14. Acquire the position coordinates of the other end of the work 24.
  • the position detection device 10 can detect the positions of both ends of the long work 24. Further, the position detection device 10 can detect the positions of both ends of the work 24 in a short time.
  • the position detection device 10 of the present embodiment determines the position coordinates of the midpoint of the work 24 in the longitudinal direction based on the position coordinates of one end of the work 24 and the position coordinates of the other end of the work 24. calculate. As a result, the position detection device 10 can detect the position of the midpoint in the longitudinal direction of the long work 24.
  • the position detection device 10 of the present embodiment calculates and calculates the position coordinates of the midpoint of the longitudinal direction of the work 24 in the work coordinate system in which the longitudinal direction of the work 24 is the Y-axis direction in the coordinate acquisition unit 16.
  • the position coordinates of the midpoint are converted into the position coordinates in the user coordinate system used for controlling the robot 12.
  • the position detection device 10 can detect the position of the midpoint of the work 24 in the longitudinal direction in the user coordinate system.
  • a three-dimensional camera (14) that is a detection device (10) that detects the position of a long work (24), can acquire three-dimensional information, and can change the shooting direction, and the three-dimensional camera.
  • the shooting control unit (18) for controlling the shooting direction and the coordinate acquisition unit (16) for acquiring the position coordinates of the long work from the three-dimensional information acquired by the three-dimensional camera are provided.
  • the control unit changes the shooting direction of the three-dimensional camera so that one end of the long work is in the field of view of the three-dimensional camera, and then the other end of the long work is in the field of view of the three-dimensional camera.
  • the shooting direction of the three-dimensional camera is changed, and the coordinate acquisition unit changes the shooting direction of the three-dimensional camera so that one end thereof is in the field of view of the three-dimensional camera.
  • the position coordinates of the one end are acquired from the three-dimensional information of the one end acquired by the camera, and the shooting direction of the three-dimensional camera is changed so that the other end is in the field of view of the three-dimensional camera.
  • the position coordinates of the other end are acquired from the three-dimensional information of the other end acquired by the three-dimensional camera.
  • the coordinate acquisition unit may calculate the position coordinates of the internal division point in the longitudinal direction of the long work based on the position coordinates of the one end and the position coordinates of the other end. ..
  • the coordinate acquisition unit may calculate the position coordinates of the midpoint in the longitudinal direction of the long work.
  • the long work is a work gripped by the robot (12), and the coordinate acquisition unit is in a first coordinate system having at least the longitudinal direction of the long work as the coordinate axis direction.
  • the position coordinates of the internal division point may be calculated, and the position coordinates of the internal division point in the first coordinate system may be converted into the position coordinates in the second coordinate system used for controlling the robot.
  • the three-dimensional camera may be fixed to the arm (22) of the robot or rotatably held so as to change the shooting direction.
  • the orientation of the three-dimensional camera is changed so that the other end of the long work is in the field of view of the three-dimensional camera, and the three-dimensional information is acquired.
  • the position of the one end from the three-dimensional information of the one end acquired by the three-dimensional camera when the shooting direction of the three-dimensional camera is changed so that the one end is in the field of view of the three-dimensional camera.
  • the coordinates are acquired, and the three-dimensional information of the other end acquired by the three-dimensional camera when the shooting direction of the three-dimensional camera is changed so that the other end is in the field of view of the three-dimensional camera. It has a coordinate acquisition step for acquiring the position coordinates of the other end.
  • the position coordinates of the internal division point in the longitudinal direction of the long work are calculated based on the position coordinates of the one end and the position coordinates of the other end acquired in the coordinate acquisition step. It may have a division point acquisition step.
  • the internal division point acquisition step may calculate the position coordinates of the midpoint in the longitudinal direction of the long work.
  • the long work is a work gripped by a robot
  • the internal division point acquisition step is in a first coordinate system in which at least the longitudinal direction of the long work is the coordinate axis direction.
  • the position coordinates of the internal division point may be calculated, and the position coordinates of the internal division point in the first coordinate system may be converted into the position coordinates in the second coordinate system used for controlling the robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

検出装置(10)の撮影制御部(18)は、三次元カメラ(14)の視野にワーク(24)の一端が入るように三次元カメラ(14)の撮影する向きを制御した後に、三次元カメラ(14)の視野にワーク(24)の他端が入るように三次元カメラ(14)の撮影する向きを制御し、座標取得部(16)は、三次元カメラ(14)が取得した一端の三次元情報から一端の位置座標を取得するとともに、三次元カメラ(14)が取得した他端の三次元情報から他端の位置座標を取得する。

Description

検出装置及び検出方法
 本発明は、長尺ワークの位置を検出する検出装置及び検出方法に関する。
 従来から、長尺ワークの両端の位置を検出することができる検出装置及び検出方法が開示されている(例えば、実開昭63-72506号公報)。
 長尺ワークの両端の位置を検出するためには、長尺ワークの一端部と他端部のそれぞれの付近に前述の検出センサを移動させる必要がある。そのため、長尺ワークの両端の位置の検出に時間を要していた。
 本発明は、上記の問題を解決するためになされたものであり、長尺ワークの両端の位置の検出に要する時間を短縮化できる検出装置及び検出方法を提供することを目的とする。
 本発明の第1の態様は、長尺ワークの位置を検出する検出装置であって、三次元情報を取得可能であって、撮影する向きを変更可能な三次元カメラと、前記三次元カメラの撮影する向きを制御する撮影制御部と、前記三次元カメラが取得した前記三次元情報から、前記長尺ワークの位置座標を取得する座標取得部と、を備え、前記撮影制御部は、前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラの撮影する向きを変更した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラの撮影する向きを変更し、前記座標取得部は、前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する。
 本発明の第2の態様は、三次元カメラが取得した三次元情報に基づき、長尺ワークの位置を検出する検出方法であって、前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得する撮影ステップと、前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する座標取得ステップと、を有する。
 本発明により、長尺ワークの両端の位置の検出に要する時間を短縮化できる。
図1は位置検出装置のブロック図である。 図2A~図2Cは多関節ロボットを示す図である。 図3はワークの位置座標の取得方法を説明する図である。 図4A及び図4Bはワーク座標系の設定方法を説明する図である。 図5はワークの位置座標の取得方法を説明する図である。 図6はワークの別の形状の例を示す図である。 図7はワークの位置座標の取得方法を説明する図である。 図8は位置検出装置において行われるワーク位置検出処理の流れを示すフローチャートである。 図9はロボットを示す図である。 図10A~図10Dは二次元カメラの視野とワークの位置関係を示す図である。 図11A及び図11Bはロボットのアームの動作範囲を示す図である。
 〔第1実施形態〕
 [座標検出装置の構成]
 図1は位置検出装置10のブロック図である。図2A~図2Cは多関節ロボット12を示す図である。位置検出装置10は、三次元カメラ14、座標取得部16及び撮影制御部18を有している。位置検出装置10は、本発明の検出装置に相当する。
 三次元カメラ14は、例えば、被写体に模様を投影する投影部と、模様が投影された状態の被写体を撮像する撮像部とを有するカメラである。三次元カメラ14は、図2A~図2Cに示すようにテーブル20に載置されたワーク24の三次元情報を取得する。なお、三次元カメラ14は、複数の撮像部を有するステレオカメラであってもよい。三次元カメラ14は多関節ロボット12(以下、ロボット12と称する)のアーム22に固定される。ロボット12は、三次元カメラ14の位置、及び、三次元カメラ14の撮影する向きを変更する。なお、三次元カメラ14の位置、及び、三次元カメラ14の撮影する向きを変更できる装置であれば、ロボット12に限定されない。また、三次元カメラ14は、三次元カメラ14に設けられた機構によって回転可能にロボット12のアーム22に取り付けられてもよい。この場合、ロボット12により三次元カメラ14の位置が変更され、三次元カメラ14に設けられた機構により三次元カメラ14の撮影する向きが変更される。
 座標取得部16は、三次元カメラ14が取得したワーク24の三次元情報から三次元空間におけるワーク24の位置座標を取得する。位置座標の取得については、後に詳述する。
 撮影制御部18は、三次元カメラ14の位置、及び、三次元カメラ14の撮影する向きを制御する。撮影制御部18は、三次元カメラ14の位置についての指令値、及び、三次元カメラ14の撮影する向きについての指令値をロボット制御装置26に出力する。ロボット制御装置26は、撮影制御部18から入力した指令値に基づいてロボット12を制御し、三次元カメラ14の位置、及び、三次元カメラ14の撮影する向きを変更する。
 位置検出装置10は、図示しない演算処理装置及びストレージを有するコンピュータを有する。演算処理装置は、例えば、中央処理装置(CPU)、マイクロプロセッシングユニット(MPU)等のプロセッサ、及び、ROM及びRAM等の非一時的な有形のコンピュータ可読記録媒体からなるメモリを有している。ストレージは、例えば、ハードディスク、ソリッドステートドライブ(SSD)等の非一時的な有形のコンピュータ可読記録媒体である。座標取得部16及び撮影制御部18は、例えばストレージに記憶されたプログラムを演算処理装置が実行することにより実現される。
 [ワークの位置座標の取得について]
 座標取得部16は、三次元カメラ14が取得した三次元情報、三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報に基づいて、ワーク24の三次元空間における位置座標を取得する。三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報は、撮影制御部18がロボット制御装置26に出力する三次元カメラ14の位置についての指令値、及び、三次元カメラ14の撮影する向きについての指令値から求めることができる。三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報は、ロボット12のアーム22の先端の位置情報、及び、ロボット12の姿勢情報から求めてもよい。ロボット12のアーム22の先端の位置情報、及び、ロボット12の姿勢情報は、ロボット制御装置26から得られる。
 本実施形態の位置検出装置10は、長尺のワーク24の両端の位置を検出することができる。さらに、位置検出装置10は、長尺のワーク24の軸方向における中点を検出することができる。ワーク24は、本発明の長尺ワークに相当する。
 図3はワーク24の位置座標の取得方法を説明する図である。撮影制御部18は、三次元カメラ14の位置がワーク24の鉛直方向(重力方向)上側となるように制御する。撮影制御部18は、三次元カメラ14の撮影する向きが鉛直方向下側となるように制御する。座標取得部16は、三次元カメラ14が取得したワーク24の三次元情報、三次元カメラ14の位置の情報、及び、三次元カメラの14の撮影する向きの情報に基づいてワーク座標系を設定する。
 図4A及び図4Bはワーク座標系の設定方法を説明する図である。図4Aはワーク24の上面斜視図である。図4Bはワーク24の側面斜視図である。
 図4A及び図4Bに示すように、ワーク座標系は、ワーク24が延びる方向がY軸方向に設定され、ロボット12側から見て左手側、又は、ロボット12から離れる向きが正側に設定される。Y軸方向の原点は、三次元カメラ14の視野内におけるワーク24のY軸方向の中心に設定される。Y軸方向の原点は、三次元カメラ14の視野内におけるY軸上の任意の点に設定されてもよい。
 図4Aに示すように、ワーク座標系は、水平面(鉛直方向に直交する平面)上で、Y軸方向に直交する方向がX軸方向に設定され、ロボット12から離れる向き、又は、ロボット12側から見て右手側が正側に設定される。X軸方向の原点は、前述のY軸方向の原点においてX軸方向とY軸方向とが交わる位置に設定される。
 図4A及び図4Bに示すように、ワーク座標系は、X軸方向及びY軸方向と直交する方向がZ軸方向に設定され、上側が正側に設定される。
 図5はワーク24の位置座標の取得方法を説明する図である。ワーク座標系が設定されると、撮影制御部18は、三次元カメラ14の視野にワーク24のY軸方向負側の一端が入るように三次元カメラ14の撮影する向きを制御する。撮影制御部18は、三次元カメラ14により取得された三次元情報に基づいて、三次元カメラ14の撮影する向きを制御する。これにより、三次元カメラ14は、ワーク24のY軸方向負側端部の三次元情報を取得できる。
 座標取得部16は、三次元カメラ14が取得したワーク24のY軸方向負側端部の三次元情報、三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報から、ワーク座標系におけるワーク24のY軸方向負側端部の位置座標を取得する。例えば、図5に示すように、取得されたワーク24のY軸方向負側端部の位置座標のY軸成分値に着目し、最小のY軸成分値Y1をYminとして記憶する。なお、図5で示すワーク24は円柱状であったが、別の形状であってもよい。図6はワーク24の別の形状の例を示す図である。図6に示すような形状のワーク24である場合も同様に、最小のY軸成分値Y3をYminとして記憶する。
 図7はワーク24の位置座標の取得方法を説明する図である。三次元カメラ14の視野にワーク24の一端が入るように三次元カメラ14の撮影する向きが制御された後に、撮影制御部18は、三次元カメラ14の視野にワーク24のY軸方向正側の他端が入るように三次元カメラ14の撮影する向きを制御する。撮影制御部18は、三次元カメラ14により取得された三次元情報に基づいて、三次元カメラ14の撮影する向きを制御する。これにより、三次元カメラ14は、ワーク24のY軸方向正側端部の三次元情報を取得できる。
 座標取得部16は、三次元カメラ14が取得したワーク24のY軸方向正側端部の三次元情報、三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報から、ワーク座標系におけるワーク24のY軸方向正側端部の位置座標を取得する。例えば、図7に示すように、取得されたワーク24のY軸方向正側端部の位置座標のY軸成分値に着目し、最大のY軸成分値Y1’をYmaxとして記憶する。
 座標取得部16は、ワーク24の最小のY軸成分値Ymin及び最大のY軸成分値Ymaxに基づいて、ワーク座標系におけるワーク24のY軸方向の中点の位置座標を算出する。ワーク24の中点の位置座標(Xc、Yc、Zc)は、次のように求められる。
 (Xc、Yc、Zc)=(0、(Ymax+Ymin)/2、0)
 座標取得部16は、ワーク座標系におけるワーク24のY軸方向の中点の位置座標に代えて、ワーク座標系におけるワーク24のY軸方向の中点以外の内分点の座標を算出するようにしてもよい。
 座標取得部16は、ワーク座標系におけるワーク24の中点の位置座標(Xc、Yc、Zc)を、ロボット12の制御に用いられるユーザ座標系における位置座標に変換する。ワーク座標系は本発明の第1の座標系に相当し、ユーザ座標系は本発明の第2の座標系に相当する。
 [ワーク位置検出処理]
 図8は位置検出装置10において行われるワーク位置検出処理の流れを示すフローチャートである。ワーク位置検出処理は、テーブル20に新しいワーク24が載置される度に実行される。
 ステップS1において、撮影制御部18は、三次元カメラ14をワーク24の鉛直方向上側に位置させるように制御して、ステップS2へ移行する。
 ステップS2において、撮影制御部18は、三次元カメラ14の撮影する向きが鉛直方向下側を向くように制御して、ステップS3へ移行する。
 ステップS3において、座標取得部16は、三次元カメラ14が取得したワーク24の三次元情報、三次元カメラ14の位置の情報、及び、三次元カメラ14の撮影する向きの情報からワーク座標系を設定して、ステップS4へ移行する。
 ステップS4において、座標取得部16は、三次元カメラ14が取得した三次元情報に基づいて、ワーク24の両端が三次元カメラ14の視野内にあるか否かを判定する。ワーク24の両端が三次元カメラ14の視野内にある場合(ステップS4:YES)にはステップS7に移行し、ワーク24の少なくとも一方の端が三次元カメラ14の視野内にない場合(ステップS4:NO)にはステップS5へ移行する。
 ステップS5において、撮影制御部18は、三次元カメラ14の視野にワーク24のY軸方向負側端部(ワーク24の一端)が入るように三次元カメラ14の撮影する向きを制御して、ステップS6へ移行する。撮影制御部18は、三次元カメラ14が取得した三次元情報に基づいて、三次元カメラ14の撮影する向きを制御する。
 ステップS6において、撮影制御部18は、三次元カメラ14の視野にワーク24のY軸方向正側端部(ワーク24の他端)が入るように三次元カメラ14の撮影する向きを制御して、ステップS7へ移行する。撮影制御部18は、三次元カメラ14が取得した三次元情報に基づいて、三次元カメラ14の撮影する向きを制御する。
 ステップS7において、座標取得部16は、ワーク24のY軸方向負側端部(ワーク24の一端)の位置情報としてY軸成分値Yminを取得して、ステップS8へ移行する。
 ステップS8において、座標取得部16は、ワーク24のY軸方向正側端部(ワーク24の他端)の位置情報としてY軸成分値Ymaxを取得して、ステップS9へ移行する。
 ステップS9において、座標取得部16は、Y軸成分値Ymin及びY軸成分値Ymaxに基づいて、ワーク座標系におけるワーク24の中点の位置座標を算出して、ステップS10へ移行する。
 ステップS10において、座標取得部16は、ワーク座標系におけるワーク24の中点の位置座標をユーザ座標系における位置座標に変換して、ワーク位置検出処理を終了する。
 [作用効果]
 本実施形態の位置検出装置10は、三次元カメラ14が取得したワーク24の三次元情報を用いて、ワーク24の両端の位置を検出する。位置検出装置10は、二次元カメラ28(図9)が取得したワーク24の二次元情報を用いて、ワーク24の両端の位置を検出することも可能である。その場合、二次元カメラ28の撮影する向きがワーク24の長手方向に対して直交するように、二次元カメラ28が設置される必要がある。
 図9はロボット12を示す図である。二次元カメラ28は、本実施形態の三次元カメラ14と同様にロボット12のアーム22に取り付けられて、ロボット12により二次元カメラ28の位置、及び、二次元カメラ28の撮影する向きが変更される。
 二次元カメラ28の位置が、図9に示すようにワーク24の鉛直方向上側となるように移動されて、二次元カメラ28の姿勢が、撮影する向きが鉛直方向下側となるように制御される。なお、ワーク24は、長手方向が水平方向(鉛直方向に直交する方向)に平行となるように、テーブル20に載置されている。
 図10A~図10Dは二次元カメラ28の視野とワーク24の位置関係を示す図である。例えば、図10Aに示すように、二次元カメラ28の視野内にワーク24の一端は位置するものの他端は視野外に位置する場合には、二次元カメラ28はワーク24の他端の二次元情報を得ることができない。また、図10Bに示すように、二次元カメラ28の視野外にワーク24の両端が位置する場合にも、二次元カメラ28はワーク24の両端の二次元情報を得ることができない。
 二次元カメラ28がワーク24の両端の二次元情報を得るためには、二次元カメラ28とワーク24との距離を離す必要がある。これにより、図10Cに示すように、二次元カメラ28の視野内にワーク24の両端が位置する。又は、二次元カメラ28を移動させて、二次元カメラ28がワーク24の一端と他端のそれぞれの鉛直方向上側に位置するようにする必要がある。これにより、図10Dに示すように、二次元カメラ28の視野内にワーク24の一端と他端のそれぞれが位置する。
 図11A及び図11Bはロボット12のアーム22の動作範囲を示す図である。図10Cに示すように二次元カメラ28の視野内にワーク24の両端を位置させるために、二次元カメラ28をワーク24から離れた位置に移動させる場合、図11Aに示すように二次元カメラ28の位置がロボット12のアーム22の動作範囲外となることがある。また、図10Dに示すように二次元カメラ28の視野内にワーク24の一端と他端のそれぞれを位置させるために、二次元カメラ28をワーク24の一端と他端のそれぞれの鉛直方向上側の位置に移動させる場合、図11Bに示すように二次元カメラ28の位置がロボット12のアーム22の動作範囲外となることがある。
 このように、二次元カメラ28が取得したワーク24の二次元情報を用いて、ワーク24の両端の位置が検出可能であるか否かは、ロボット12のアーム22の動作範囲の影響を受ける。また、ロボット12のアーム22の動作範囲内において二次元カメラ28を移動させることでワーク24の両端の位置が検出可能である場合でも、二次元カメラ28の移動に時間を要すため、ワーク24の両端の位置の検出に長時間かかる問題がある。
 そこで、本実施形態の位置検出装置10では、三次元カメラ14が取得したワーク24の三次元情報を用いて、ワーク24の位置を検出するようにした。撮影制御部18は、三次元カメラ14の視野にワーク24の一端が入るように三次元カメラ14の撮影する向きを制御した後に、三次元カメラ14の視野にワーク24の他端が入るように三次元カメラ14の撮影する向きを制御する。座標取得部16は、三次元カメラ14が取得したワーク24の一端の三次元情報からワーク24の一端の位置座標を取得し、三次元カメラ14が取得したワーク24の他端の三次元情報からワーク24の他端の位置座標を取得する。これにより、位置検出装置10は、長尺のワーク24の両端の位置を検出することができる。また、位置検出装置10は、ワーク24の両端の位置を短時間で検出することができる。
 本実施形態の位置検出装置10は、座標取得部16において、ワーク24の一端の位置座標、及び、ワーク24の他端の位置座標に基づいて、ワーク24の長手方向の中点の位置座標を算出する。これにより、位置検出装置10は、長尺のワーク24の長手方向の中点の位置を検出することができる。
 また、本実施形態の位置検出装置10は、座標取得部16において、ワーク24の長手方向をY軸方向とするワーク座標系におけるワーク24の長手方向の中点の位置座標を算出し、算出した中点の位置座標をロボット12の制御に用いられるユーザ座標系における位置座標に変換する。これにより、位置検出装置10は、ユーザ座標系におけるワーク24の長手方向の中点の位置を検出することができる。
 〔実施形態から得られる技術的思想〕
 長尺ワーク(24)の位置を検出する検出装置(10)であって、三次元情報を取得可能であって、撮影する向きを変更可能な三次元カメラ(14)と、前記三次元カメラの撮影する向きを制御する撮影制御部(18)と、前記三次元カメラが取得した前記三次元情報から、前記長尺ワークの位置座標を取得する座標取得部(16)と、を備え、前記撮影制御部は、前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラの撮影する向きを変更した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラの撮影する向きを変更し、前記座標取得部は、前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する。
 上記の検出装置であって、前記座標取得部は、前記一端の位置座標及び前記他端の位置座標に基づいて、前記長尺ワークの長手方向の内分点の位置座標を算出してもよい。
 上記の検出装置であって、前記座標取得部は、前記長尺ワークの長手方向の中点の位置座標を算出してもよい。
 上記の検出装置であって、前記長尺ワークはロボット(12)によって把持されるワークであり、前記座標取得部は、少なくとも前記長尺ワークの長手方向を座標軸方向とする第1の座標系における前記内分点の位置座標を算出し、前記第1の座標系における前記内分点の位置座標を、前記ロボットの制御に用いられる第2の座標系における位置座標に変換してもよい。
 上記の検出装置であって、前記三次元カメラは、ロボットのアーム(22)に固定、又は、前記撮影する向きを変更するように回転可能に保持されてもよい。
 三次元カメラが取得した三次元情報に基づき、長尺ワークの位置を検出する検出方法であって、前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得する撮影ステップと、前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する座標取得ステップと、を有する。
 上記の検出方法であって、前記座標取得ステップにおいて取得された前記一端の位置座標及び前記他端の位置座標に基づいて、前記長尺ワークの長手方向の内分点の位置座標を算出する内分点取得ステップを有してもよい。
 上記の検出方法であって、前記内分点取得ステップは、前記長尺ワークの長手方向の中点の位置座標を算出してもよい。
 上記の検出方法であって、前記長尺ワークは、ロボットによって把持されるワークであり、前記内分点取得ステップは、少なくとも前記長尺ワークの長手方向を座標軸方向とする第1の座標系における前記内分点の位置座標を算出し、前記第1の座標系における前記内分点の位置座標を、前記ロボットの制御に用いられる第2の座標系における位置座標に変換してもよい。

Claims (9)

  1.  長尺ワーク(24)の位置を検出する検出装置(10)であって、
     三次元情報を取得可能であって、撮影する向きを変更可能な三次元カメラ(14)と、
     前記三次元カメラの撮影する向きを制御する撮影制御部(18)と、
     前記三次元カメラが取得した前記三次元情報から、前記長尺ワークの位置座標を取得する座標取得部(16)と、
     を備え、
     前記撮影制御部は、前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラの撮影する向きを変更した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラの撮影する向きを変更し、
     前記座標取得部は、前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する、検出装置。
  2.  請求項1に記載の検出装置であって、
     前記座標取得部は、前記一端の位置座標及び前記他端の位置座標に基づいて、前記長尺ワークの長手方向の内分点の位置座標を算出する、検出装置。
  3.  請求項2に記載の検出装置であって、
     前記座標取得部は、前記長尺ワークの長手方向の中点の位置座標を算出する、検出装置。
  4.  請求項2又は3に記載の検出装置であって、
     前記長尺ワークはロボット(12)によって把持されるワークであり、
     前記座標取得部は、少なくとも前記長尺ワークの長手方向を座標軸方向とする第1の座標系における前記内分点の位置座標を算出し、前記第1の座標系における前記内分点の位置座標を、前記ロボットの制御に用いられる第2の座標系における位置座標に変換する、検出装置。
  5.  請求項1~4のいずれか1項に記載の検出装置であって、
     前記三次元カメラは、ロボットのアーム(22)に固定、又は、前記撮影する向きを変更するように回転可能に保持されている、検出装置。
  6.  三次元カメラが取得した三次元情報に基づき、長尺ワークの位置を検出する検出方法であって、
     前記三次元カメラの視野に前記長尺ワークの一端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得した後に、前記三次元カメラの視野に前記長尺ワークの他端が入るように前記三次元カメラが撮影する向きを変更して前記三次元情報を取得する撮影ステップと、
     前記三次元カメラの視野に前記一端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記一端の三次元情報から前記一端の位置座標を取得するとともに、前記三次元カメラの視野に前記他端が入るように前記三次元カメラの撮影する向きが変更されたときに前記三次元カメラが取得した前記他端の三次元情報から前記他端の位置座標を取得する座標取得ステップと、
     を有する、検出方法。
  7.  請求項6に記載の検出方法であって、
     前記座標取得ステップにおいて取得された前記一端の位置座標及び前記他端の位置座標に基づいて、前記長尺ワークの長手方向の内分点の位置座標を算出する内分点取得ステップを有する、検出方法。
  8.  請求項7に記載の検出方法であって、
     前記内分点取得ステップは、前記長尺ワークの長手方向の中点の位置座標を算出する、検出方法。
  9.  請求項7又は8に記載の検出方法であって、
     前記長尺ワークは、ロボットによって把持されるワークであり、
     前記内分点取得ステップは、少なくとも前記長尺ワークの長手方向を座標軸方向とする第1の座標系における前記内分点の位置座標を算出し、前記第1の座標系における前記内分点の位置座標を、前記ロボットの制御に用いられる第2の座標系における位置座標に変換する、検出方法。
PCT/JP2021/025791 2020-07-13 2021-07-08 検出装置及び検出方法 WO2022014458A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022536306A JP7381758B2 (ja) 2020-07-13 2021-07-08 検出装置及び検出方法
DE112021003715.3T DE112021003715T5 (de) 2020-07-13 2021-07-08 Detektionsvorrichtung und Detektionsverfahren
US18/015,344 US20230281857A1 (en) 2020-07-13 2021-07-08 Detection device and detection method
CN202180061283.9A CN116235024A (zh) 2020-07-13 2021-07-08 检测装置及检测方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-119653 2020-07-13
JP2020119653 2020-07-13

Publications (1)

Publication Number Publication Date
WO2022014458A1 true WO2022014458A1 (ja) 2022-01-20

Family

ID=79555417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025791 WO2022014458A1 (ja) 2020-07-13 2021-07-08 検出装置及び検出方法

Country Status (5)

Country Link
US (1) US20230281857A1 (ja)
JP (1) JP7381758B2 (ja)
CN (1) CN116235024A (ja)
DE (1) DE112021003715T5 (ja)
WO (1) WO2022014458A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023036302A (ja) * 2021-09-02 2023-03-14 株式会社ミツトヨ 測定システム、測定方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6372506U (ja) * 1986-10-30 1988-05-14
JP2008139194A (ja) * 2006-12-04 2008-06-19 Showa Denko Kk 端部位置測定方法および寸法測定方法
JP2008246631A (ja) * 2007-03-30 2008-10-16 Fanuc Ltd 対象物取出装置
JP2017207439A (ja) * 2016-05-20 2017-11-24 大日本印刷株式会社 円柱体の位置状態測定方法及びシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3397921A1 (en) * 2015-12-30 2018-11-07 Faro Technologies, Inc. Registration of three-dimensional coordinates measured on interior and exterior portions of an object
JP6372506B2 (ja) 2016-03-11 2018-08-15 コニカミノルタ株式会社 画像処理装置、画像処理システム、画像ファイル提供支援方法、およびコンピュータプログラム
JP6420296B2 (ja) * 2016-12-01 2018-11-07 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6372506U (ja) * 1986-10-30 1988-05-14
JP2008139194A (ja) * 2006-12-04 2008-06-19 Showa Denko Kk 端部位置測定方法および寸法測定方法
JP2008246631A (ja) * 2007-03-30 2008-10-16 Fanuc Ltd 対象物取出装置
JP2017207439A (ja) * 2016-05-20 2017-11-24 大日本印刷株式会社 円柱体の位置状態測定方法及びシステム

Also Published As

Publication number Publication date
JPWO2022014458A1 (ja) 2022-01-20
US20230281857A1 (en) 2023-09-07
CN116235024A (zh) 2023-06-06
JP7381758B2 (ja) 2023-11-15
DE112021003715T5 (de) 2023-05-11

Similar Documents

Publication Publication Date Title
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
US11625842B2 (en) Image processing apparatus and image processing method
JP2003211381A (ja) ロボット制御装置
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
CN111152243B (zh) 控制系统
US20150042784A1 (en) Image photographing method and image photographing device
WO2018209592A1 (zh) 一种机器人的运动控制方法、机器人及控制器
US20230179732A1 (en) Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
WO2022014458A1 (ja) 検出装置及び検出方法
JP2006224291A (ja) ロボットシステム
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP6565367B2 (ja) 位置補正システム
JP3925129B2 (ja) 3次元画像撮像装置および方法
JP7502343B2 (ja) 画像処理システム
US20190037204A1 (en) Calibration method and calibration tool of camera
JP7414850B2 (ja) ロボットシステム
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
JP6253847B1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
CN111522299B (zh) 机械控制装置
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
JP6892461B2 (ja) 機械制御装置
JP2024033308A (ja) ロボットシステム、および、ロボットシステムの制御方法
US20190061152A1 (en) Measuring method, program, measuring apparatus and method of manufacturing article

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842734

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022536306

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21842734

Country of ref document: EP

Kind code of ref document: A1