WO2023067645A1 - キャリブレーション装置 - Google Patents

キャリブレーション装置 Download PDF

Info

Publication number
WO2023067645A1
WO2023067645A1 PCT/JP2021/038377 JP2021038377W WO2023067645A1 WO 2023067645 A1 WO2023067645 A1 WO 2023067645A1 JP 2021038377 W JP2021038377 W JP 2021038377W WO 2023067645 A1 WO2023067645 A1 WO 2023067645A1
Authority
WO
WIPO (PCT)
Prior art keywords
mark
jig
positional relationship
robot
image
Prior art date
Application number
PCT/JP2021/038377
Other languages
English (en)
French (fr)
Inventor
健 李
裕紀 谷崎
雅信 本江
Original Assignee
株式会社Pfu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Pfu filed Critical 株式会社Pfu
Priority to JP2023553901A priority Critical patent/JPWO2023067645A1/ja
Priority to PCT/JP2021/038377 priority patent/WO2023067645A1/ja
Publication of WO2023067645A1 publication Critical patent/WO2023067645A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • the technology of the present disclosure relates to a calibration device.
  • An automatic recyclable sorting device that automatically separates recyclable waste from multiple pieces of waste transported along a transport path.
  • the automatic recyclable sorting device sorts the recyclable waste on the transport route based on a camera that captures an image of the recyclable waste arranged in the sorting area of the transport route and the position of the recyclable waste calculated based on the image of the waste.
  • a robot for removing recyclable waste from a removal area downstream of the area At this time, in the automatic recyclable sorting device, the positional relationship between the camera and the robot is measured in advance, and the robot is controlled to remove the recyclable waste based on the positional relationship (Japanese Patent Laid-Open No. 2019-2019). 141935).
  • the robot may not properly grasp the recyclable waste based on the image of the waste, and the recyclable waste may not be properly separated from the transport path. may not be removed from
  • the disclosed technology has been made in view of such a point, and aims to provide a calibration device that accurately measures the positional relationship between a camera that captures an image of an object and a robot that processes the object.
  • a calibration device includes: a first member arranged in an imaging region of a transport path that is imaged by a camera; a second member fixed to the first member; a marker for marking; an attachment member for attaching the marker to a support member that supports a gripping portion that grips an object conveyed along the conveying path in a grasping area different from the imaging area of the conveying path; A positional relationship calculator that calculates a positional relationship between the imaging region and the grip.
  • the disclosed calibration device can accurately measure the positional relationship between a camera that captures an image of an object and a robot that processes the object.
  • FIG. 1 is a plan view showing a calibration jig provided in a calibration device of an embodiment.
  • FIG. 2 is a plan view showing an automatic recyclable sorting apparatus in which the calibration device of the embodiment is used.
  • FIG. 3 is a perspective view showing an automatic recyclable sorting device.
  • FIG. 4 is a sectional view showing an automatic recyclable sorting device.
  • FIG. 5 is a block diagram showing an object processing apparatus.
  • FIG. 6 is a flow chart showing the operation of calculating the positional relationship between the imaging region and the grip.
  • FIG. 7 is a plan view showing a calibration jig properly arranged on the transport path.
  • FIG. 8 is a plan view showing a calibration jig in which the second member is appropriately arranged in the imaging area.
  • FIG. 9 is a plan view showing one mark among the plurality of marks.
  • FIG. 10 is a side view of the robot body showing the Y-axis rotation angle in which the robot coordinate system rotates about the jig coordinate system Y-axis with respect to the jig coordinate system.
  • FIG. 11 is another side view of the robot body showing the X-axis rotation angle in which the robot coordinate system rotates about the jig coordinate system X-axis with respect to the jig coordinate system.
  • FIG. 12 is a plan view showing a tick chart with a plurality of markings;
  • FIG. 13 is a plan view showing a calibration jig in which the second member is arranged in another orientation in the imaging area.
  • FIG. 1 is a plan view showing a calibration jig 1 provided in the calibration device of the embodiment.
  • a calibration jig 1 includes a first member 2 , a second member 3 and a frame 5 .
  • the first member 2 is formed in a plate shape.
  • a pattern chart 6 is drawn on the first member 2 .
  • the pattern chart 6 is a test chart used when measuring the aberration of the optical system, such as a chessboard test chart.
  • the pattern chart 6 further indicates the jig coordinate system, and indicates the jig coordinate system origin Oj, the jig coordinate system X-axis direction Xj, and the jig coordinate system Y-axis direction Yj.
  • the jig coordinate system X-axis direction Xj is parallel to the plane along which the pattern chart 6 of the first member 2 is drawn.
  • the jig coordinate system Y-axis direction Yj is parallel to the plane along which the surface of the first member 2 on which the pattern chart 6 is drawn and perpendicular to the jig coordinate system X-axis direction Xj.
  • the second member 3 is formed in a plate shape.
  • a score chart 7 and an arrow 8 are drawn on the second member 3 .
  • a plurality of straight lines in the X-axis direction and a plurality of straight lines in the Y-axis direction are drawn on the notch chart 7 .
  • the plurality of X-axis straight lines are parallel to each other and arranged at regular intervals.
  • the plurality of Y-axis direction straight lines are parallel to each other, parallel to the direction perpendicular to the straight line along which the plurality of X-axis direction straight lines are aligned, and are arranged at regular intervals. That is, the notch chart 7 is paved with a plurality of rectangles separated by a plurality of straight lines in the X-axis direction and a plurality of straight lines in the Y-axis direction.
  • the frame 5 is formed from a plurality of bars.
  • the first member 2 is fixed to the frame 5 .
  • the second member 3 is arranged so that the first member 2 and the second member 3 are aligned in the jig coordinate system Y-axis direction Yj.
  • the second member 3 is arranged such that the plurality of X-axis direction straight lines are parallel to the jig coordinate system X-axis direction Xj, the plurality of Y-axis direction straight lines are parallel to the jig coordinate system Y-axis direction Yj, and They are arranged so that the direction from the pattern chart 6 to the notch chart 7 is indicated by an arrow 8 .
  • the second member 3 is fixed to the frame 5 and fixed to the first member 2 via the frame 5 .
  • the Y-coordinates of the plurality of positions at which the plurality of X-axis direction straight lines are arranged and the X-coordinates of the plurality of positions at which the plurality of Y-axis direction straight lines are arranged are represented by the notch chart 7 and the arrow 8. It can be read from the projected image.
  • the calibration device of the embodiment is used in the automatic recyclable sorting device 10 shown in FIG.
  • FIG. 2 is a plan view showing an automatic recyclable sorting device 10 in which the calibration device of the embodiment is used.
  • the recyclable automatic sorting device 10 includes a conveying device 11 and an object processing device 12 .
  • the conveying device 11 is formed from a belt conveyor and comprises a belt conveyor frame 14 and a belt 15, with a belt drive not shown.
  • the belt conveyor frame 14 is placed on an installation surface 17 on which the automatic recyclable sorting device 10 is installed.
  • the belt 15 is made of a flexible material and formed into a loop-shaped band.
  • a transport path 16 is formed in the transport device 11 .
  • the transport path 16 lies along another plane parallel to the plane along which the installation surface 17 extends, and the straight line along which the transport path 16 extends is parallel to the transport direction 18 parallel to the plane along which the installation surface 17 extends.
  • the belt 15 has a conveying path facing portion 19 .
  • the conveying path facing portion 19 is arranged below the conveying path 16 and extends along the conveying path 16 .
  • Belt 15 is further movably supported on belt conveyor frame 14 .
  • the belt driving device moves the belt 15 so that the conveying path facing portion 19 moves in the conveying direction 18 .
  • the transport path 16 includes an imaging area 21 and a gripping area 22, and an object supply area (not shown).
  • the gripping area 22 is arranged downstream of the imaging area 21 in the transport direction 18 .
  • the object supply area is arranged upstream of the imaging area 21 in the transport direction 18 .
  • the object processing device 12 includes an object recognition device 23 and a robot 24.
  • the object recognition device 23 is arranged near the imaging region 21 .
  • the object recognition device 23 has a housing 25 .
  • the housing 25 is made of a material that blocks light and has a substantially box shape.
  • the housing 25 is arranged above the imaging area 21 of the transport path 16 and covers the imaging area 21 .
  • the housing 25 is fixed to the belt conveyor frame 14 and fixed to the installation surface 17 via the belt conveyor frame 14 .
  • a robot 24 is arranged in the vicinity of the gripping area 22 .
  • FIG. 3 is a perspective view showing the recyclable automatic sorting device 10.
  • the robot 24 has a robot body 26 and a robot cover 27 .
  • the robot body 26 grips an object placed in the gripping area 22, removes the gripped object from the transport path 16, and moves the gripped object to a recyclable waste dump (not shown).
  • the robot cover 27 is generally box-shaped.
  • the robot cover 27 is positioned over the gripping area 22 such that the gripping area 22 of the transport path 16 and the robot body 26 are positioned inside the robot cover 27 .
  • the robot cover 27 is fixed to the belt conveyor frame 14 and fixed to the installation surface 17 via the belt conveyor frame 14 .
  • the robot cover 27 prevents the object transported along the transport path 16 from scattering from the gripping area 22 when the robot body 26 handles the object in the gripping area 22 .
  • FIG. 4 is a sectional view showing the recyclable automatic sorting device 10.
  • the object recognition device 23 further includes an imaging camera 28 .
  • the imaging camera 28 faces the imaging area 21 , is arranged above the imaging area 21 , and is arranged inside the housing 25 .
  • the imaging camera 28 is fixed to the housing 25 and fixed to the belt conveyor frame 14 via the housing 25 .
  • the image capturing camera 28 is arranged in this way, so that an image of an object placed in the image capturing area 21 is captured as if viewed from directly above.
  • the robot body 26 includes a first support member 32 , an X-axis Y-axis actuator 33 , a second support member 34 , a Z-axis actuator 35 and a grip portion mounting member 36 .
  • the first support member 32 is supported by a base fixed to the installation surface 17 so as to be able to translate parallel to the robot coordinate system X-axis direction Xr or the robot coordinate system Y-axis direction Yr via the X-axis Y-axis actuator 33 .
  • the Y-axis direction Yr of the robot coordinate system is substantially parallel to the transport direction 18, that is, substantially parallel to the plane along which the transport path 16 extends.
  • the robot coordinate system X-axis direction Xr is perpendicular to the Y-axis direction and substantially parallel to the plane along which the transport path 16 extends.
  • the X-axis Y-axis actuator 33 translates the first support member 32 parallel to the robot coordinate system X-axis direction Xr, and translates the first support member 32 parallel to the robot coordinate system Y-axis direction Yr.
  • the second support member 34 is supported by the first support member 32 so as to be able to translate parallel to the Z-axis direction Zr of the robot coordinate system via a Z-axis actuator 35 .
  • the robot coordinate system Z-axis direction Zr is perpendicular to the robot coordinate system X-axis direction Xr and perpendicular to the robot coordinate system Y-axis direction Yr.
  • the Z-axis actuator 35 translates the second support member 34 with respect to the first support member 32 in parallel with the robot coordinate system Z-axis direction Zr.
  • the calibration device includes a marker 41 and a marker mounting member 42.
  • Marker 41 is formed from a pen.
  • the marker 41 marks the second member 3 by contacting the second member 3 .
  • the marker 41 is detachably attached to the second support member 34 via the marker attachment member 42 and is fixed to the second support member 34 when attached to the second support member 34 .
  • the object processing device 12 further comprises a gripper 51, a notification device 52 and a control device 53, as shown in FIG.
  • FIG. 5 is a block diagram showing the object processing device 12.
  • the grip portion 51 is detachably attached to the second support member 34 via the grip portion attachment member 36 , and is fixed to the second support member 34 when attached to the second support member 34 .
  • the grasping unit 51 grasps an object and releases the grasped object under the control of the control device 53 .
  • the notification device 52 includes a display device and an audio device.
  • the notification device 52 displays a screen created by the control device 53 and utters a voice message created by the control device 53 under the control of the control device 53 .
  • the control device 53 is a computer and includes a storage device 54 and a CPU (Central Processing Unit) 55 .
  • the storage device 54 records computer programs installed in the control device 53 and records information used by the CPU 55 .
  • the CPU 55 processes information, controls the storage device 54, and notifies the imaging camera 28, the X-axis Y-axis actuator 33, the Z-axis actuator 35, the grip portion 51, and the like.
  • device 52 ;
  • the computer programs installed in the control device 53 include multiple computer programs that cause the control device 53 to implement multiple functions.
  • the multiple functions include a positional relationship calculator 56 , a sorter 57 and a robot controller 58 .
  • the positional relationship calculation unit 56 controls the imaging camera 28 of the object recognition device 23 so that the pattern chart image including the image of the pattern chart 6 of the first member 2 arranged in the imaging area 21 of the transport path 16 is captured. to control.
  • the positional relationship calculator 56 calculates the relative position of the calibration jig 1 with respect to the imaging area 21 based on the pattern chart image, and calculates the camera image-jig coordinate conversion information.
  • the positional relationship calculation unit 56 attaches a plurality of marks corresponding to a plurality of target positions to the second member 3 arranged in the grip region 22 when the marker 41 is attached to the second support member 34. , controls the X-axis Y-axis actuator 33 and the Z-axis actuator 35 . That is, the positional relationship calculator 56 transmits movement signals to the X-axis and Y-axis actuators 33 so that the first support member 32 is arranged at a plurality of target positions. The positional relationship calculation unit 56 determines whether the second member 3 placed in the gripping area 22 of the transport path 16 is marked when the first support member 32 is placed at one target position out of the plurality of target positions. It controls the Z-axis actuator 35 so that it is attached.
  • the positional relationship calculation unit 56 moves the object so that a notched chart image including images of a plurality of marks attached to the notched chart 7 of the second member 3 arranged in the imaging area 21 of the transport path 16 is captured. It controls the imaging camera 28 of the recognition device 23 .
  • the positional relationship calculation unit 56 performs image processing on the notch chart image, calculates a plurality of mark coordinates corresponding to a plurality of marks, and calculates the relative position of the gripping unit 51 with respect to the calibration jig 1 .
  • the mark coordinates corresponding to a certain mark among the plurality of mark coordinates indicate the coordinates in the jig coordinate system of the position where the center of the mark in the notch chart 7 is arranged.
  • the positional relationship calculator 56 calculates jig-robot coordinate conversion information based on the plurality of target positions and the plurality of mark coordinates.
  • the positional relationship calculation unit 56 calculates the relative position where the gripping unit 51 is arranged with respect to the imaging area 21 based on the camera image-jig coordinate conversion information and the jig-robot coordinate conversion information, and performs the camera image-robot coordinate conversion. Calculate information.
  • the sorting unit 57 controls the imaging camera 28 of the object recognition device 23 so as to pick up a dust sorting image in which a plurality of images respectively representing a plurality of objects arranged in the imaging area 21 of the transport path 16 is captured. do.
  • the sorting unit 57 performs image processing on the dust sorting image and calculates a plurality of sorting data.
  • the robot control unit 58 calculates a plurality of control data based on the camera image-robot coordinate conversion information calculated by the positional relationship calculation unit 56 and the plurality of selection data calculated by the selection unit 57.
  • the robot control unit 58 generates a plurality of control data so that a plurality of recyclable wastes to be processed among a plurality of objects arranged in the gripping area 22 of the transport path 16 are removed from the transport path 16 and moved to a recyclable waste storage area. to control the robot 24 based on.
  • the operation of the recyclable automatic sorting apparatus 10 includes an operation of calculating the positional relationship between the imaging region 21 and the gripping part 51, an operation of conveying a plurality of pieces of garbage along the conveying path 16, and a plurality of pieces of recyclable garbage to be processed. and removing from the path 16.
  • FIG. 6 is a flowchart showing the operation of calculating the positional relationship between the imaging area 21 and the grip portion 51.
  • the operation of calculating the positional relationship between the imaging region 21 and the gripping portion 51 includes an operation of transporting a plurality of pieces of waste along the transport path 16 and an operation of removing a plurality of recyclable wastes to be processed from the transport path 16. is executed before In the operation of calculating the positional relationship between the imaging region 21 and the grip portion 51 , first, the user removes the grip portion 51 from the second support member 34 of the robot body 26 by operating the grip portion mounting member 36 . After the grip portion 51 is removed from the second support member 34, the user attaches the marker 41 to the second support member 34 by operating the marker attachment member 42 (step S1).
  • the user may also set the first member 2 to be positioned in the imaging area 21 and the second member 3 to be positioned in the gripping area 22 for calibration, as shown in FIG.
  • the jig 1 is placed on the transport path facing portion 19 (step S2).
  • FIG. 7 is a plan view showing the calibration jig 1 properly arranged on the transport path 16.
  • FIG. The calibration jig 1 is appropriately arranged on the transport path 16 by being placed on the transport path facing portion 19 in this way.
  • the control device 53 controls the imaging camera 28 to capture a pattern chart image showing the pattern chart 6 (step S3).
  • the control device 53 performs image processing on the pattern chart image, calculates the relative position of the calibration jig 1 with respect to the imaging area 21, and calculates jig position information (step S4).
  • the jig position information indicates the position and direction in which the image of the pattern chart 6 is projected on the pattern chart image.
  • the jig position information includes the coordinates in the camera image coordinate system of the position of the origin Oj of the jig coordinate system, the direction in the camera image coordinate system in the X-axis direction Xj of the jig coordinate system, and the camera image coordinates in the Y-axis direction Yj of the jig coordinate system. direction in the system.
  • the control device 53 further calculates the positional relationship between the camera image coordinate system and the jig coordinate system based on the jig position information, and calculates the camera image-jig coordinate conversion information (step S5).
  • the camera image-jig coordinate transformation information indicates a camera image-jig rotation matrix Rcj and a camera image-jig translation matrix Tcj expressed by the following equation (1).
  • the control device 53 is preset with a plurality of target positions and a target number of times. The target count is equal to the number of target positions.
  • the control device 53 arranges the first support member 32 at the first target position among the plurality of target positions by transmitting a movement signal to the X-axis and Y-axis actuators 33 (step S6).
  • the controller 53 controls the Z-axis actuator 35 to move the second support member parallel to the robot coordinate system Z-axis direction Zr.
  • 34 is lowered.
  • the marker 41 comes into contact with the second member 3 of the calibration jig 1 and marks the notch chart 7 (step S8).
  • the control device 53 controls the Z-axis actuator 35 to raise the second support member 34 parallel to the robot coordinate system Z-axis direction Zr.
  • step S9 When the number of times the first support member 32 has been placed at the target position is smaller than the target number of times (step S9, No), the control device 53 transmits the next movement signal to the X-axis and Y-axis actuators 33, thereby causing the next movement.
  • the first support member 32 is arranged at the target position (step S10). After the first support member 32 is positioned at the next target position, the control device 53 executes the processes of steps S7 to S9 again.
  • the control device 53 controls the notification device 52 to display a predetermined screen, A voice message is spoken (step S11).
  • the screen and the voice message indicate an instruction to place the calibration jig 1 again on the transport path facing portion 19 so that the notched chart 7 and the arrow 8 are arranged in the imaging area 21 .
  • the user translates the calibration jig 1 in a direction opposite to the conveying direction 18 and moves the calibration jig 1 such that the second member 3 is positioned in the imaging area 21 as shown in FIG. It is placed again on the transport path facing portion 19 .
  • FIG. 8 is a plan view showing the calibration jig 1 in which the second member 3 is appropriately arranged in the imaging area 21.
  • FIG. The second member 3 is appropriately arranged in the imaging area 21 by arranging the notched chart 7 and the arrow 8 in the imaging area 21 .
  • the control device 53 controls the imaging camera 28 to capture an incremented chart image including the incremented chart 7 and the arrow 8 (step S12). ).
  • the control device 53 performs image processing on the notch chart image, and calculates a plurality of mark coordinates corresponding to the plurality of marks S 1,1 to S M,N (step S13).
  • FIG. 9 is a plan view showing one mark S m, n among the plurality of marks S 1,1 to S M,N .
  • the mark coordinates corresponding to the mark S m,n indicate the coordinates of the center position of the mark S m,n in the jig coordinate system.
  • control device 53 calculates the distance from the center of S m,n to the X-axis direction straight line with known Y-coordinates, and the distance from the center of S m,n to a plurality of Y-axis direction straight lines with known X-coordinates.
  • the coordinates of the center position of the mark Sm,n in the jig coordinate system are calculated based on the distance to the mark Sm ,n .
  • FIG. 10 is a side view of the robot body 26 showing the Y-axis rotation angle ⁇ Y m at which the robot coordinate system rotates about the jig coordinate system Y-axis with respect to the jig coordinate system.
  • the mark S m,1 is made on the notch chart 7 when the first support member 32 is positioned at the target position G m,1 .
  • the mark S m,2 is made on the notch chart 7 when the first support member 32 is positioned at the target position G m,2 .
  • the mark Sm ,N is made on the notch chart 7 when the first support member 32 is located at the target position Gm ,N .
  • the Y coordinates in the robot coordinate system of the plurality of target positions G m,1 to G m,N are equal to each other.
  • the control device 53 calculates the Y-axis rotation angle ⁇ Y m using the following equation (2), and similarly calculates a plurality of Y-axis rotation angles ⁇ Y 1 to ⁇ Y M.
  • the X coordinate X j m,n indicates the X coordinate of the mark S m,n in the jig coordinate system.
  • the X coordinate X r m,n indicates the X coordinate of the target position G m,n in the robot coordinate system.
  • FIG. 11 is another side view of the robot body 26 showing the X-axis rotation angle ⁇ Xn at which the robot coordinate system rotates about the jig coordinate system X-axis with respect to the jig coordinate system.
  • the mark S 1,n is made on the notch chart 7 when the first support member 32 is positioned at the target position G 1,n .
  • the mark S 2,n is made on the notch chart 7 when the first support member 32 is located at the target position G 2,n .
  • the mark S M,n is made on the score chart 7 when the first support member 32 is positioned at the target position G M,n .
  • the X coordinates in the robot coordinate system of the plurality of target positions G 1,n to G M,n are equal to each other.
  • the control device 53 calculates the X-axis rotation angle ⁇ X n using the following equation (3), and similarly calculates a plurality of X-axis rotation angles ⁇ X 1 to ⁇ X N.
  • the Y coordinate Y j m,n indicates the Y coordinate of the mark S m,n in the jig coordinate system.
  • the Y coordinate Y r m,n indicates the Y coordinate of the target position G m,n in the robot coordinate system.
  • the notch chart 7 displays a plurality of marks S 1, 1 as shown in FIG. ⁇ S M, N are attached.
  • FIG. 12 is a plan view showing a score chart 7 marked with a plurality of marks S 1,1 to S M,N .
  • a plurality of target positions at which the first support member 32 was arranged when the plurality of marks S 1,1 to S 1,N were attached to the notched chart 7 have mutually different X coordinates in the robot coordinate system.
  • the Y coordinates in the coordinate system are equal to each other.
  • a plurality of target positions at which the first support members 32 are arranged when the plurality of marks S M,1 to S M,N are attached to the notched chart 7 have mutually different X coordinates in the robot coordinate system, and the robot The Y coordinates in the coordinate system are equal to each other.
  • the control device 53 calculates the regression line L 1 based on the plurality of marks S 1,1 to S 1,N , and similarly calculates the plurality of regression lines L 1 to L M .
  • the control device 53 further calculates a Z-axis rotation angle ⁇ Z 1 between the regression line L 1 and the X-axis in the jig coordinate system, and similarly calculates a plurality of Z-axis rotation angles ⁇ Z 1 to ⁇ Z M. calculate.
  • the robot coordinate system may be rotated by an X-axis rotation angle ⁇ X about the jig coordinate system X-axis with respect to the jig coordinate system. Due to an error when the robot main body 26 is installed, the robot coordinate system may be rotated by the Y-axis rotation angle ⁇ Y about the jig coordinate system Y-axis with respect to the jig coordinate system. Due to an error when the robot main body 26 is installed, the robot coordinate system may be rotated by the Z-axis rotation angle ⁇ Z about the Z-axis of the jig coordinate system with respect to the jig coordinate system.
  • the control device 53 calculates the X-axis rotation angle ⁇ X, the Y-axis rotation angle ⁇ Y, and the Z-axis rotation angle ⁇ Z using the following equation (4).
  • the controller 53 arranges the gripping part 51 with respect to the calibration jig 1 based on the plurality of mark coordinates, the plurality of target positions, the X-axis rotation angle ⁇ X, the Y-axis rotation angle ⁇ Y, and the Z-axis rotation angle ⁇ Z. Then, the jig-robot coordinate conversion information is calculated (step S14).
  • the jig-robot coordinate conversion information indicates a jig-robot rotation matrix Rjr and a jig-robot translation matrix Tjr expressed by the following equation (5).
  • the jig-robot translation matrix Tjr is calculated by the following equation (6).
  • the control device 53 calculates camera image-robot coordinate transformation information based on the camera image-jig coordinate transformation information and the jig-robot coordinate transformation information (step S15).
  • the camera image-robot coordinate conversion information indicates a camera image-robot rotation matrix Rcr and a camera image-robot translation matrix Tcr expressed by the following equation (7).
  • the calibration device can measure the positional relationship between the imaging camera 28 and the robot body 26 regardless of the transport speed at which the transport device 11 transports the object. Therefore, the calibration device can measure the positional relationship between the imaging camera 28 and the robot body 26 with high accuracy even when the transport speed at which the transport device 11 transports the object fluctuates.
  • the user In the operation of transporting a plurality of pieces of waste along the transport path 16, the user first activates the transport device 11 by operating it.
  • the belt drive unit of the conveying device 11 moves the belt 15 so that the conveying path facing portion 19 translates in the conveying direction 18 at a predetermined constant conveying speed.
  • the user further places a plurality of pieces of dust on the portion of the conveying path facing portion 19 of the belt 15 that faces the object supply area.
  • the plurality of garbage includes a plurality of processing target recyclable garbage.
  • the plurality of processing target recyclable wastes are recyclable wastes that need to be removed from the transport path 16 and are recyclable wastes that need to be moved to a recyclable waste storage place.
  • Bottles made of glass colored in a predetermined color for example, brown
  • a plurality of pieces of dust placed on the conveying path facing portion 19 are conveyed in the conveying direction 18 along the conveying path 16 at the conveying speed by the movement of the belt 15 .
  • a plurality of pieces of dust conveyed along the conveying path 16 are arranged in the imaging area 21 .
  • a plurality of pieces of dust placed in the imaging area 21 are further transported along the transport path 16 and placed in the gripping area 22 of the housing 25 .
  • a plurality of pieces of dust placed in the gripping area 22 are further transported along the transport path 16 so as to be placed in a downstream area of the gripping area 22 .
  • the operation of removing a plurality of processing target recyclable wastes from the transport path 16 is performed in parallel while the operation of transporting a plurality of wastes along the transport path 16 is being performed.
  • the control device 53 captures a dust sorting image in which a plurality of dusts arranged in the imaging area 21 are captured.
  • the control device 53 records the dust sorting image in the storage device 54 in association with the imaging time at which the dust sorting image was taken.
  • the control device 53 performs image processing on the garbage sorting image, selects a plurality of processing target recyclable garbage from a plurality of garbage reflected in the garbage sorting image, calculates the positions of the plurality of processing target recyclable garbage, and selects a plurality of processing target recyclable garbage. Create screening data.
  • a plurality of pieces of sorted data correspond to a plurality of processing target recyclable wastes among a plurality of pieces of waste reflected in the image for sorting out waste.
  • the sorted data corresponding to a certain processing target recyclable waste indicates the imaging time and the barycentric coordinates.
  • the imaging time indicates the time when the dust sorting image was captured.
  • the barycentric coordinates indicate the coordinates in the camera image coordinate system of the barycentric position where the barycenter of the recyclable waste to be processed is arranged at the imaging time.
  • the control device 53 further calculates a plurality of control data corresponding to a plurality of processing target recyclable wastes based on the plurality of sorting data and the camera image-robot coordinate conversion information.
  • the control data corresponding to a certain processing target recyclable waste indicates gripping timing and gripping coordinates.
  • the gripping timing indicates the timing at which the recyclable waste to be processed passes through the gripping area 22 .
  • the grasping coordinates indicate the coordinates in the robot coordinate system of the position where the center of gravity of the recyclable waste to be processed is arranged at the grasping timing.
  • the control device 53 grips, at the gripping timing, the processing target recyclable waste arranged at the gripping coordinates at the gripping timing, removes it from the transport path 16, and removes the processing target resource waste. Move the trash to the recyclable dump.
  • the recyclable automatic sorting apparatus 10 can appropriately calculate the gripping position based on the camera image-robot coordinate conversion information because the positional relationship between the imaging camera 28 and the robot body 26 is measured with high accuracy by the calibration device. can do.
  • the recyclable automatic sorting apparatus 10 can appropriately grasp the recyclable waste to be processed and remove the recyclable waste to be processed from the transport path 16 appropriately by appropriately calculating the gripping position.
  • the calibration device of the embodiment includes a first member 2, a second member 3, a marker 41, and a marker mounting member .
  • the first member 2 is arranged in the imaging area 21 of the transport path 16 that is imaged by the imaging camera 28 .
  • the second member 3 is fixed to the first member 2 .
  • the marker 41 marks the second member 3 .
  • the marker mounting member 42 attaches the marker 41 to the second supporting member 34 supporting the gripping portion 51 that grips the object transported along the transport path 16 in the gripping area 22 different from the imaging area 21 of the transport path 16 . Install.
  • the calibration apparatus of the embodiment uses the calibration jig 1 that has not been conveyed, so that regardless of the conveying speed at which the conveying apparatus 11 conveys the object, the image pickup camera 28 and the robot main body 26 Positional relationships can be measured. Therefore, the calibration device can measure the positional relationship between the imaging camera 28 and the robot body 26 with high accuracy even when the transport speed at which the transport device 11 transports the object fluctuates. By measuring the positional relationship between the imaging camera 28 and the robot main body 26 with high accuracy, the automatic recyclable sorting apparatus 10 can appropriately calculate the gripping position for gripping the recyclable waste to be processed, and the recyclable waste to be processed can be obtained. Dust can be properly removed from the transport path 16 .
  • the calibration device of the embodiment further includes a positional relationship calculator 56 .
  • the positional relationship calculation unit 56 controls the imaging camera 28 so that the pattern chart image in which the first member 2 is captured is captured, and the first relative position where the first member 2 is arranged with respect to the imaging region 21 is determined by the pattern chart. Calculated based on images.
  • the positional relationship calculator 56 further controls the X-axis Y-axis actuator 33 and the Z-axis actuator 35 that move the second support member 34 so that the second member 3 is marked with the first mark.
  • the positional relationship calculator 56 further calculates a second relative position at which the gripping part 51 is arranged with respect to the first member 2 based on the position of the first mark on the second member 3 . .
  • the positional relationship calculator 56 further calculates a third relative position where the grip part 51 is arranged with respect to the imaging region 21 based on the first relative position and the second relative position.
  • the calibration apparatus of the embodiment eliminates the need for the user to operate the imaging camera 28, the X-axis Y-axis actuator 33, and the Z-axis actuator 35, or to calculate the relative positions, thereby reducing the user's work. can reduce human error.
  • the control device 53 controls the imaging camera 28, the X-axis Y-axis actuator 33, and the Z-axis actuator 35 to calculate the relative positions. You may Even in this case, the calibration apparatus of the embodiment can measure the positional relationship between the imaging camera 28 and the robot body 26 with high accuracy by using the calibration jig 1 that has not been transported.
  • the positional relationship calculation unit 56 of the calibration device of the embodiment controls the imaging camera 28 so that when the second member 3 is arranged in the imaging area 21, the notch chart image in which the second member 3 is captured is captured. to calculate the mark position based on the notch chart image.
  • the calibration device of the embodiment does not require the user to measure the position of the mark, and can reduce user work and human error.
  • the position of the mark is calculated using the notched chart image, but the position of the mark may be measured by the user.
  • the calibration apparatus of the embodiment can measure the positional relationship between the imaging camera 28 and the robot body 26 with high accuracy by using the calibration jig 1 that has not been transported.
  • the positional relationship calculation unit 56 of the calibration device of the embodiment performs the X-axis Y-axis actuator 33 and the Z-axis actuator so that the second mark is attached to a mark position different from the mark position of the second member 3 . 35.
  • the positional relationship calculator 56 calculates the direction in which the second support member 34 moves from when the first mark is attached to when the second mark is attached based on the notched chart image.
  • the calibration device of the embodiment can calculate the relative positions of the plurality of positions where the gripping portion 51 is arranged with respect to the imaging camera 28 by adding a plurality of marks to the notch chart image.
  • the recyclable automatic sorting apparatus 10 appropriately grasps the recyclable waste to be processed at a plurality of positions in the grasping area 22 by calculating the relative positions of the plurality of positions where the grasping unit 51 is arranged with respect to the imaging camera 28. can do.
  • the relative position is calculated based on a plurality of marks attached to the notched chart 7, but based on the position of one mark attached to the notched chart 7 A relative position may be calculated.
  • the calibration apparatus of the embodiment can measure the positional relationship between the imaging camera 28 and the robot body 26 with high accuracy by using the calibration jig 1 that has not been transported.
  • the second member 3 is arranged in the imaging area 21 by translating the calibration jig 1 in the direction opposite to the conveying direction 18.
  • the second member 3 may be arranged in the imaging area 21 .
  • FIG. 13 is a plan view showing the calibration jig 1 in which the second member 3 is arranged in the imaging area 21 in another orientation.
  • the calibration jig 1 is arranged such that the second member 3 is appropriately arranged in the imaging region 21 and the first member 2 is arranged downstream of the second member 3 in the conveying direction 18.
  • the control device 53 further calculates a plurality of mark coordinates based on the position or direction in which the image of the arrow 8 is projected on the notched chart image.
  • control device 53 identifies a plurality of X-axis direction straight lines and a plurality of Y-axis direction straight lines appearing in the notch chart image based on the positions or directions of the arrows 8, and determines a plurality of X-axis direction straight lines and a plurality of Y-axis direction straight lines.
  • a plurality of mark coordinates are calculated based on the direction straight line.
  • the calibration device can determine the orientation of the second member 3 based on the orientation of the arrow 8 appearing in the notch chart image even when the second member 3 is placed in the imaging region 21 without regard to orientation. and the position of the mark can be calculated appropriately.
  • the arrow 8 is attached to the second member 3 of the calibration device of the above-described embodiment, but the arrow 8 may be omitted. If the arrow 8 is omitted, the control device 53, for example, based on the position or orientation of the frame 5 appearing in the step chart image, determines the plurality of X-axis direction straight lines and the plurality of Y-axis direction straight lines appearing in the step chart image. can be specified.
  • the first member 2 and the second member 3 are fixed to each other via the frame 5 in the calibration jig 1 of the calibration apparatus of the above-described embodiment, but the frame 5 may be omitted.
  • the calibration jig 1 when the frame 5 is omitted, the first member 2 and the second member 3 are directly joined, or the first member 2 and the second member 3 are formed as an integral member. It is formed by
  • the calibration device can calculate the relative position of the grip part 51 with respect to the imaging camera 28 with high accuracy. can.
  • the computer that implements the positional relationship calculation unit 56 is the same as the computer that implements the selection unit 57 and the robot control unit 58, but may be different. Even if the computer that implements the positional relationship calculation unit 56 is different from the computer that implements the sorting unit 57 and the robot control unit 58, the calibration device similarly determines the relative position of the gripping unit 51 with respect to the imaging camera 28 with high accuracy. can be calculated to
  • the embodiments have been described above, the embodiments are not limited by the above-described contents.
  • the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range.
  • the components described above can be combined as appropriate.
  • at least one of various omissions, replacements, and modifications of components can be made without departing from the gist of the embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

キャリブレーション装置は、搬送路(16)のうちのカメラ(28)に撮像される撮像領域(21)に配置される第1部材(2)と、第1部材(2)に固定される第2部材(3)と、第2部材(3)に印(S1,1~SM,N)をつけるマーカ(41)と、搬送路(16)に沿って搬送される物体を搬送路(16)のうちの撮像領域(21)と異なる把持領域(22)で把持する把持部(51)が支持される支持部材(34)にマーカ(41)を取り付ける取付部材(42)と、撮像領域(21)と把持部(51)との位置関係を算出する位置関係計算部(56)とを備えている。

Description

キャリブレーション装置
 本開示の技術は、キャリブレーション装置に関する。
 搬送路に沿って搬送される複数のごみから資源ごみを自動的に分別する資源ごみ自動分別装置が知られている。資源ごみ自動分別装置は、搬送路のうちの選別領域に配置されるごみの画像を撮像するカメラと、ごみの画像に基づいて算出された資源ごみの位置に基づいて、搬送路のうちの選別領域の下流側の除去領域から資源ごみを除去するロボットとを備えている。このとき、資源ごみ自動分別装置は、カメラとロボットとの位置関係が事前に測定され、ロボットは、その位置関係に基づいて、資源ごみが除去されるように、制御される(特開2019-141935号公報)。
特開2019-141935号公報
 しかしながら、資源ごみ自動分別装置は、カメラとロボットとの位置関係が適切に測定されていないときに、ごみの画像に基づいてロボットが資源ごみを適切に把持しないことがあり、資源ごみが搬送路から除去されないことがある。
 開示の技術は、かかる点に鑑みてなされたものであって、物体の画像を撮像するカメラと、物体を処理するロボットとの位置関係を高精度に測定するキャリブレーション装置を提供することを目的とする。
 本開示の一態様によるキャリブレーション装置は、搬送路のうちのカメラに撮像される撮像領域に配置される第1部材と、前記第1部材に固定される第2部材と、前記第2部材に印をつけるマーカと、前記搬送路に沿って搬送される物体を前記搬送路のうちの前記撮像領域と異なる把持領域で把持する把持部が支持される支持部材に前記マーカを取り付ける取付部材と、前記撮像領域と前記把持部との位置関係を算出する位置関係計算部とを備えている。
 開示のキャリブレーション装置は、物体の画像を撮像するカメラと、物体を処理するロボットとの位置関係を高精度に測定することができる。
図1は、実施例のキャリブレーション装置に設けられているキャリブレーション用ジグを示す平面図である。 図2は、実施例のキャリブレーション装置が利用される資源ごみ自動分別装置を示す平面図である。 図3は、資源ごみ自動分別装置を示す斜視図である。 図4は、資源ごみ自動分別装置を示す断面図である。 図5は、物体処理装置を示すブロック図である。 図6は、撮像領域と把持部との位置関係を算出する動作を示すフローチャートである。 図7は、搬送路に適切に配置されるキャリブレーション用ジグを示す平面図である。 図8は、第2部材が撮像領域に適切に配置されるキャリブレーション用ジグを示す平面図である。 図9は、複数の印のうちの1つの印を示す平面図である。 図10は、ロボット座標系がジグ座標系に対してジグ座標系Y軸まわりに回転しているY軸回転角度を示すロボット本体の側面図である。 図11は、ロボット座標系がジグ座標系に対してジグ座標系X軸まわりに回転しているX軸回転角度を示すロボット本体の他の側面図である。 図12は、複数の印が付けられている刻みチャートを示す平面図である。 図13は、第2部材が撮像領域に他の向きで配置されるキャリブレーション用ジグを示す平面図である。
 以下に、本願が開示する実施形態にかかるキャリブレーション装置について、図面を参照して説明する。なお、以下の記載により本開示の技術が限定されるものではない。また、以下の記載においては、同一の構成要素に同一の符号を付与し、重複する説明を省略する。
 実施例のキャリブレーション装置には、図1に示されているように、キャリブレーション用ジグ1が設けられている。図1は、実施例のキャリブレーション装置に設けられているキャリブレーション用ジグ1を示す平面図である。キャリブレーション用ジグ1は、第1部材2と第2部材3とフレーム5とを備えている。第1部材2は、板状に形成されている。第1部材2には、パターンチャート6が描かれている。パターンチャート6は、光学系の収差が測定されるときに利用されるテストチャートであり、たとえば、チェス盤テストチャートである。パターンチャート6は、さらに、ジグ座標系を示し、ジグ座標系原点Ojとジグ座標系X軸方向Xjとジグ座標系Y軸方向Yjとを示している。ジグ座標系X軸方向Xjは、第1部材2のうちのパターンチャート6が描かれている面が沿う平面に平行である。ジグ座標系Y軸方向Yjは、第1部材2のうちのパターンチャート6が描かれている面が沿う平面に平行であり、かつ、ジグ座標系X軸方向Xjに垂直である。
 第2部材3は、板状に形成されている。第2部材3には、刻みチャート7と矢印8とが描かれている。刻みチャート7には、複数のX軸方向直線と複数のY軸方向直線とが描かれている。複数のX軸方向直線は、互いに平行であり、等間隔に並んでいる。複数のY軸方向直線は、互いに平行であり、複数のX軸方向直線が沿う直線に垂直である方向に平行であり、等間隔に並んでいる。すなわち、刻みチャート7は、複数のX軸方向直線と複数のY軸方向直線とにより区切られた複数の長方形で敷き詰められている。
 フレーム5は、複数の棒材から形成されている。第1部材2は、フレーム5に固定されている。第2部材3は、第1部材2と第2部材3とがジグ座標系Y軸方向Yjに並ぶように、配置されている。第2部材3は、複数のX軸方向直線がジグ座標系X軸方向Xjに平行になるように、複数のY軸方向直線がジグ座標系Y軸方向Yjに平行になるように、かつ、パターンチャート6から刻みチャート7に向かう方向を矢印8が示すように、配置されている。第2部材3は、フレーム5に固定され、フレーム5を介して第1部材2に固定されている。このため、複数のX軸方向直線がそれぞれ配置される複数の位置のY座標と、複数のY軸方向直線がそれぞれ配置される複数の位置のX座標とは、刻みチャート7と矢印8とが映し出される画像から読み取ることができる。
 実施例のキャリブレーション装置は、図2に示される資源ごみ自動分別装置10で利用される。図2は、実施例のキャリブレーション装置が利用される資源ごみ自動分別装置10を示す平面図である。資源ごみ自動分別装置10は、搬送装置11と物体処理装置12とを備えている。搬送装置11は、ベルトコンベアから形成され、ベルトコンベアフレーム14とベルト15とを備え、図示されていないベルト駆動装置を備えている。ベルトコンベアフレーム14は、資源ごみ自動分別装置10が設置される設置面17に載置されている。ベルト15は、可撓性を有する材料から形成され、ループ状の帯に形成されている。
 搬送装置11には、搬送路16が形成されている。搬送路16は、設置面17が沿う平面に平行である他の平面に沿い、搬送路16が沿う直線は、設置面17が沿う平面に平行である搬送方向18に平行である。ベルト15は、搬送路対向部分19を備えている。搬送路対向部分19は、搬送路16の下に配置され、搬送路16に沿っている。ベルト15は、さらに、移動可能にベルトコンベアフレーム14に支持されている。ベルト駆動装置は、搬送路対向部分19が搬送方向18に移動するように、ベルト15を移動させる。
 搬送路16は、撮像領域21と把持領域22とを含み、図示されていない物体供給領域を含んでいる。把持領域22は、撮像領域21の搬送方向18の下流側に配置されている。物体供給領域は、撮像領域21の搬送方向18の上流側に配置されている。
 物体処理装置12は、物体認識装置23とロボット24とを備えている。物体認識装置23は、撮像領域21の近傍に配置されている。物体認識装置23は、筐体25を備えている。筐体25は、光を遮光する材料から形成され、概ね箱形に形成されている。筐体25は、搬送路16の撮像領域21の上に配置され、撮像領域21を覆っている。筐体25は、ベルトコンベアフレーム14に固定され、ベルトコンベアフレーム14を介して設置面17に固定されている。ロボット24は、把持領域22の近傍に配置されている。
 図3は、資源ごみ自動分別装置10を示す斜視図である。ロボット24は、ロボット本体26とロボットカバー27とを備えている。ロボット本体26は、把持領域22に配置される物体を把持し、その把持された物体を搬送路16から除去し、その把持された物体を資源ごみ置き場(図示されていない)に移動させる。ロボットカバー27は、概ね箱形に形成されている。ロボットカバー27は、搬送路16の把持領域22とロボット本体26とがロボットカバー27の内部に配置されるように、把持領域22の上に配置されている。ロボットカバー27は、ベルトコンベアフレーム14に固定され、ベルトコンベアフレーム14を介して設置面17に固定されている。ロボットカバー27は、ロボット本体26が把持領域22で物体を取り扱うときに、搬送路16に沿って搬送される物体が把持領域22から飛散することを防止する。
 図4は、資源ごみ自動分別装置10を示す断面図である。物体認識装置23は、撮像カメラ28をさらに備えている。撮像カメラ28は、撮像領域21に向けられ、撮像領域21の上に配置され、筐体25の内部に配置されている。撮像カメラ28は、筐体25に固定され、筐体25を介してベルトコンベアフレーム14に固定されている。撮像カメラ28は、このように配置されることにより、撮像領域21に配置される物体が写る画像を、真上から見たように、撮像する。
 ロボット本体26は、第1支持部材32とX軸Y軸アクチュエータ33と第2支持部材34とZ軸アクチュエータ35と把持部取付部材36とを備えている。第1支持部材32は、X軸Y軸アクチュエータ33を介してロボット座標系X軸方向Xrまたはロボット座標系Y軸方向Yrに平行に並進可能に、設置面17に固定されている土台に支持されている。ロボット座標系Y軸方向Yrは、搬送方向18に概ね平行であり、すなわち、搬送路16が沿う平面に概ね平行である。ロボット座標系X軸方向Xrは、Y軸方向に垂直であり、かつ、搬送路16が沿う平面に概ね平行である。X軸Y軸アクチュエータ33は、第1支持部材32をロボット座標系X軸方向Xrに平行に並進させ、第1支持部材32をロボット座標系Y軸方向Yrに平行に並進させる。第2支持部材34は、Z軸アクチュエータ35を介してロボット座標系Z軸方向Zrに平行に並進可能に第1支持部材32に支持されている。ロボット座標系Z軸方向Zrは、ロボット座標系X軸方向Xrに垂直であり、かつ、ロボット座標系Y軸方向Yrに垂直であり、すなわち、搬送路16が沿う平面に概ね垂直である。Z軸アクチュエータ35は、第1支持部材32に対して第2支持部材34をロボット座標系Z軸方向Zrに平行に並進させる。
 キャリブレーション装置は、マーカ41とマーカ取付部材42とを備えている。マーカ41は、ペンから形成されている。マーカ41は、第2部材3に接触することにより、第2部材3に印をつける。マーカ41は、マーカ取付部材42を介して第2支持部材34に着脱可能に取り付けられ、第2支持部材34に取り付けられているときに第2支持部材34に固定されている。
 物体処理装置12は、図5に示されているように、把持部51と通知装置52と制御装置53とをさらに備えている。図5は、物体処理装置12を示すブロック図である。把持部51は、把持部取付部材36を介して第2支持部材34に着脱可能に取り付けられ、第2支持部材34に取り付けられているときに第2支持部材34に固定されている。把持部51は、制御装置53に制御されることにより、物体を把持したり、把持されている物体を解放したりする。通知装置52は、表示装置と音声装置とを備えている。通知装置52は、制御装置53に制御されることにより、制御装置53により作成された画面を表示し、制御装置53により作成された音声メッセージを発声する。
 制御装置53は、コンピュータであり、記憶装置54とCPU(Central Processing Unit)55とを備えている。記憶装置54は、制御装置53にインストールされるコンピュータプログラムを記録し、CPU55により利用される情報を記録する。CPU55は、制御装置53にインストールされるコンピュータプログラムを実行することにより、情報処理し、記憶装置54を制御し、撮像カメラ28とX軸Y軸アクチュエータ33とZ軸アクチュエータ35と把持部51と通知装置52とを制御する。
 制御装置53にインストールされるコンピュータプログラムは、制御装置53に複数の機能をそれぞれ実現させる複数のコンピュータプログラムを含んでいる。その複数の機能は、位置関係計算部56と選別部57とロボット制御部58とを含んでいる。
 位置関係計算部56は、搬送路16の撮像領域21に配置される第1部材2のパターンチャート6の像が映っているパターンチャート画像が撮像されるように、物体認識装置23の撮像カメラ28を制御する。位置関係計算部56は、パターンチャート画像に基づいて、撮像領域21に対してキャリブレーション用ジグ1が配置される相対位置を算出し、カメラ画像-ジグ座標変換情報を算出する。
 位置関係計算部56は、第2支持部材34にマーカ41が取り付けられているときに、把持領域22に配置される第2部材3に、複数の目標位置に対応する複数の印が付くように、X軸Y軸アクチュエータ33とZ軸アクチュエータ35とを制御する。すなわち、位置関係計算部56は、第1支持部材32が複数の目標位置に配置されるように、X軸Y軸アクチュエータ33に移動信号を送信する。位置関係計算部56は、第1支持部材32が複数の目標位置のうちの1つの目標位置に配置されているときに、搬送路16の把持領域22に配置される第2部材3に印が付くように、Z軸アクチュエータ35を制御する。
 位置関係計算部56は、搬送路16の撮像領域21に配置される第2部材3の刻みチャート7に付けられた複数の印の像が映っている刻みチャート画像が撮像されるように、物体認識装置23の撮像カメラ28を制御する。位置関係計算部56は、刻みチャート画像を画像処理し、複数の印に対応する複数の印座標を算出し、キャリブレーション用ジグ1に対して把持部51が配置される相対位置を算出する。複数の印座標のうちのある印に対応する印座標は、刻みチャート7のうちのその印の中心が配置される位置のジグ座標系における座標を示している。位置関係計算部56は、複数の目標位置と複数の印座標とに基づいてジグ-ロボット座標変換情報を算出する。位置関係計算部56は、カメラ画像-ジグ座標変換情報とジグ-ロボット座標変換情報とに基づいて撮像領域21に対して把持部51が配置される相対位置を算出し、カメラ画像-ロボット座標変換情報を算出する。
 選別部57は、搬送路16の撮像領域21に配置される複数の物体をそれぞれ写す複数の像が映っているごみ選別用画像が撮像されるように、物体認識装置23の撮像カメラ28を制御する。選別部57は、ごみ選別用画像を画像処理し、複数の選別データを算出する。
 ロボット制御部58は、位置関係計算部56により算出されたカメラ画像-ロボット座標変換情報と、選別部57により算出された複数の選別データとに基づいて複数の制御データを算出する。ロボット制御部58は、搬送路16の把持領域22に配置される複数の物体のうちの複数の処理対象資源ごみが搬送路16から除去されて資源ごみ置き場に移動するように、複数の制御データに基づいてロボット24を制御する。
[資源ごみ自動分別装置10の動作]
 資源ごみ自動分別装置10の動作は、撮像領域21と把持部51との位置関係を算出する動作と、搬送路16に沿って複数のごみを搬送する動作と、複数の処理対象資源ごみを搬送路16から除去する動作とを備えている。
 図6は、撮像領域21と把持部51との位置関係を算出する動作を示すフローチャートである。撮像領域21と把持部51との位置関係を算出する動作は、搬送路16に沿って複数のごみを搬送する動作と、複数の処理対象資源ごみを搬送路16から除去する動作とが実行される前に実行される。撮像領域21と把持部51との位置関係を算出する動作では、まず、ユーザは、把持部取付部材36を操作することにより、ロボット本体26の第2支持部材34から把持部51を取外す。ユーザは、把持部51が第2支持部材34から取外された後に、マーカ取付部材42を操作することにより、マーカ41を第2支持部材34に取り付ける(ステップS1)。
 ユーザは、さらに、図7に示されているように、第1部材2が撮像領域21に配置されるように、かつ、第2部材3が把持領域22に配置されるように、キャリブレーション用ジグ1を搬送路対向部分19に載置する(ステップS2)。図7は、搬送路16に適切に配置されるキャリブレーション用ジグ1を示す平面図である。キャリブレーション用ジグ1は、このように搬送路対向部分19に載置されることにより、搬送路16に適切に配置される。
 制御装置53は、キャリブレーション用ジグ1が搬送路16に適切に配置されているときに、撮像カメラ28を制御することにより、パターンチャート6が写るパターンチャート画像を撮像する(ステップS3)。制御装置53は、パターンチャート画像を画像処理し、撮像領域21に対してキャリブレーション用ジグ1が配置される相対位置を算出し、ジグ位置情報を算出する(ステップS4)。ジグ位置情報は、パターンチャート6を写す像がパターンチャート画像に映し出される位置と向きとを示している。すなわち、ジグ位置情報は、ジグ座標系原点Ojの位置のカメラ画像座標系における座標と、ジグ座標系X軸方向Xjのカメラ画像座標系における方向と、ジグ座標系Y軸方向Yjのカメラ画像座標系における方向とを示している。
 制御装置53は、さらに、ジグ位置情報に基づいて、カメラ画像座標系とジグ座標系との位置関係を算出し、カメラ画像-ジグ座標変換情報を算出する(ステップS5)。カメラ画像-ジグ座標変換情報は、次の(1)式で示されるカメラ画像-ジグ回転行列Rcjとカメラ画像-ジグ平行移動行列Tcjとを示している。
Figure JPOXMLDOC01-appb-M000001
 制御装置53は、複数の目標位置と目標回数とが予め設定されている。目標回数は、複数の目標位置の個数に等しい。制御装置53は、X軸Y軸アクチュエータ33に移動信号を送信することにより、複数の目標位置のうちの1番目の目標位置に第1支持部材32を配置する(ステップS6)。制御装置53は、第1支持部材32が目標位置に配置されたときに(ステップS7、Yes)、Z軸アクチュエータ35を制御することにより、ロボット座標系Z軸方向Zrに平行に第2支持部材34を下降させる。マーカ41は、第2支持部材34が下降することにより、キャリブレーション用ジグ1の第2部材3に接触し、刻みチャート7に印をつける(ステップS8)。制御装置53は、マーカ41が第2部材3に接触した後に、Z軸アクチュエータ35を制御することにより、ロボット座標系Z軸方向Zrに平行に第2支持部材34を上昇させる。
 制御装置53は、第1支持部材32を目標位置に配置した回数が目標回数より小さいときに(ステップS9、No)、X軸Y軸アクチュエータ33に次の移動信号を送信することにより、次の目標位置に第1支持部材32を配置する(ステップS10)。制御装置53は、第1支持部材32が次の目標位置に配置された後に、ステップS7~S9の処理を再度実行する。
 制御装置53は、第1支持部材32を目標位置に配置した回数が目標回数に到達したときに(ステップS9、Yes)、通知装置52を制御することより、予め定められた画面を表示し、音声メッセージを発声する(ステップS11)。画面と音声メッセージとは、刻みチャート7と矢印8とが撮像領域21に配置されるように、キャリブレーション用ジグ1を搬送路対向部分19に載置し直す指示を示している。ユーザは、キャリブレーション用ジグ1を搬送方向18の反対方向に並進させ、図8に示されているように、第2部材3が撮像領域21に配置されるように、キャリブレーション用ジグ1を搬送路対向部分19に載置し直す。図8は、第2部材3が撮像領域21に適切に配置されるキャリブレーション用ジグ1を示す平面図である。第2部材3は、刻みチャート7と矢印8とが撮像領域21に配置されることにより、撮像領域21に適切に配置される。
 制御装置53は、第2部材3が撮像領域21に適切に配置されているときに、撮像カメラ28を制御することにより、刻みチャート7と矢印8とが写る刻みチャート画像を撮像する(ステップS12)。制御装置53は、刻みチャート画像を画像処理し、複数の印S1,1~SM,Nに対応する複数の印座標を算出する(ステップS13)。図9は、複数の印S1,1~SM,Nのうちの1つの印Sm,nを示す平面図である。複数の印座標のうちの印Sm,nに対応する印座標は、印Sm,nの中心の位置のジグ座標系における座標を示している。たとえば、制御装置53は、Sm,nの中心から、Y座標が既知であるX軸方向直線までの距離と、Sm,nの中心から、X座標が既知である複数のY軸方向直線までの距離とに基づいて、印Sm,nの中心の位置のジグ座標系における座標を算出する。
 図10は、ロボット座標系がジグ座標系に対してジグ座標系Y軸まわりに回転しているY軸回転角度θ を示すロボット本体26の側面図である。印Sm,1は、第1支持部材32が目標位置Gm,1に配置されているときに、刻みチャート7に付けられたものである。印Sm,2は、第1支持部材32が目標位置Gm,2に配置されているときに、刻みチャート7に付けられたものである。印Sm,Nは、第1支持部材32が目標位置Gm,Nに配置されているときに、刻みチャート7に付けられたものである。複数の目標位置Gm,1~Gm,Nのロボット座標系におけるY座標は、互いに等しい。制御装置53は、次の(2)式を用いてY軸回転角度θ を算出し、同様に、複数のY軸回転角度θ ~θ を算出する。
Figure JPOXMLDOC01-appb-M000002
 ここで、X座標X m,nは、印Sm,nのジグ座標系におけるX座標を示している。X座標X m,nは、目標位置Gm,nのロボット座標系におけるX座標を示している。
 図11は、ロボット座標系がジグ座標系に対してジグ座標系X軸まわりに回転しているX軸回転角度θXnを示すロボット本体26の他の側面図である。印S1,nは、第1支持部材32が目標位置G1,nに配置されているときに、刻みチャート7に付けられたものである。印S2,nは、第1支持部材32が目標位置G2,nに配置されているときに、刻みチャート7に付けられたものである。印SM,nは、第1支持部材32が目標位置GM,nに配置されているときに、刻みチャート7に付けられたものである。複数の目標位置G1,n~GM,nのロボット座標系におけるX座標は、互いに等しい。制御装置53は、次の(3)式を用いてX軸回転角度θ を算出し、同様に、複数のX軸回転角度θ ~θ を算出する。
Figure JPOXMLDOC01-appb-M000003
 ここで、Y座標Y m,nは、印Sm,nのジグ座標系におけるY座標を示している。Y座標Y m,nは、目標位置Gm,nのロボット座標系におけるY座標を示している。
 第1支持部材32を目標位置に配置した回数が目標回数に到達したときに(ステップS9、Yes)、刻みチャート7には、図12に示されているように、複数の印S1,1~SM,Nが付けられている。図12は、複数の印S1,1~SM,Nが付けられている刻みチャート7を示す平面図である。複数の印S1,1~S1,Nが刻みチャート7に付けられたときに第1支持部材32がそれぞれ配置されていた複数の目標位置は、ロボット座標系におけるX座標が互いに異なり、ロボット座標系におけるY座標が互いに等しい。複数の印SM,1~SM,Nが刻みチャート7に付けられたときに第1支持部材32がそれぞれ配置されていた複数の目標位置は、ロボット座標系におけるX座標が互いに異なり、ロボット座標系におけるY座標が互いに等しい。制御装置53は、複数の印S1,1~S1,Nに基づいて回帰直線Lを算出し、同様に、複数の回帰直線L~Lを算出する。制御装置53は、さらに、回帰直線Lとジグ座標系におけるX軸との間のZ軸回転角度θ を算出し、同様に、複数のZ軸回転角度θ ~θ を算出する。
 ロボット座標系は、ロボット本体26が設置されるときの誤差により、ジグ座標系に対してジグ座標系X軸まわりにX軸回転角度θXだけ回転していることがある。ロボット座標系は、ロボット本体26が設置されるときの誤差により、ジグ座標系に対してジグ座標系Y軸まわりにY軸回転角度θYだけ回転していることがある。ロボット座標系は、ロボット本体26が設置されるときの誤差により、ジグ座標系に対してジグ座標系Z軸まわりにZ軸回転角度θZだけ回転していることがある。制御装置53は、次の(4)式を用いてX軸回転角度θXとY軸回転角度θYとZ軸回転角度θZとを算出する。
Figure JPOXMLDOC01-appb-M000004
 制御装置53は、複数の印座標と複数の目標位置とX軸回転角度θXとY軸回転角度θYとZ軸回転角度θZに基づいて、キャリブレーション用ジグ1に対して把持部51が配置される相対位置を算出し、ジグ-ロボット座標変換情報を算出する(ステップS14)。ジグ-ロボット座標変換情報は、次の(5)式で示されるジグ-ロボット回転行列Rjrとジグ-ロボット平行移動行列Tjrとを示している。
Figure JPOXMLDOC01-appb-M000005
 ジグ-ロボット平行移動行列Tjrは、次の(6)式により算出される。
Figure JPOXMLDOC01-appb-M000006
 制御装置53は、カメラ画像-ジグ座標変換情報とジグ-ロボット座標変換情報とに基づいてカメラ画像-ロボット座標変換情報を算出する(ステップS15)。カメラ画像-ロボット座標変換情報は、次の(7)式で示されるカメラ画像-ロボット回転行列Rcrとカメラ画像-ロボット平行移動行列Tcrとを示している。
Figure JPOXMLDOC01-appb-M000007
 キャリブレーション装置は、キャリブレーション用ジグ1を用いることにより、搬送装置11が物体を搬送する搬送速度に無関係に、撮像カメラ28とロボット本体26との位置関係を測定することができる。このため、キャリブレーション装置は、搬送装置11が物体を搬送する搬送速度が変動する場合でも、撮像カメラ28とロボット本体26との位置関係を高精度に測定することができる。
 搬送路16に沿って複数のごみを搬送する動作では、まず、ユーザは、搬送装置11を操作することにより、搬送装置11を起動させる。搬送装置11のベルト駆動部は、搬送装置11が起動することにより、予め定められた一定の搬送速度で搬送路対向部分19が搬送方向18に並進するように、ベルト15を移動させる。
 ユーザは、さらに、ベルト15の搬送路対向部分19のうちの物体供給領域に対向する部分に複数のごみを載置する。複数のごみは、複数の処理対象資源ごみを含んでいる。複数の処理対象資源ごみは、搬送路16から除去する必要がある資源ごみであり、資源ごみ置き場に移動する必要がある資源ごみである。複数の処理対象資源ごみとしては、予め定められた色(たとえば、茶色)に着色されたガラスから形成されたびんが例示される。搬送路対向部分19に載置された複数のごみは、ベルト15が移動することにより、搬送路16に沿って搬送速度で搬送方向18に搬送される。搬送路16に沿って搬送される複数のごみは、撮像領域21に配置される。撮像領域21に配置された複数のごみは、搬送路16に沿ってさらに搬送されることにより、筐体25の把持領域22に配置される。把持領域22に配置された複数のごみは、搬送路16に沿ってさらに搬送されることにより、把持領域22の下流側の領域に配置される。
 複数の処理対象資源ごみを搬送路16から除去する動作は、搬送路16に沿って複数のごみを搬送する動作が実行される最中に並行して実行される。制御装置53は、撮像カメラ28を制御することにより、撮像領域21に配置される複数のごみが写るごみ選別用画像を撮像する。制御装置53は、ごみ選別用画像が撮像された撮像時刻に対応付けて、ごみ選別用画像を記憶装置54に記録する。制御装置53は、ごみ選別用画像を画像処理することにより、ごみ選別用画像に写る複数のごみから複数の処理対象資源ごみを選択し、複数の処理対象資源ごみの位置を算出し、複数の選別データを作成する。複数の選別データは、ごみ選別用画像に写る複数のごみのうちの複数の処理対象資源ごみに対応している。複数の選別データのうちのある処理対象資源ごみに対応する選別データは、撮像時刻と重心座標とを示している。撮像時刻は、ごみ選別用画像が撮像された時刻を示している。重心座標は、その処理対象資源ごみの重心が撮像時刻に配置される重心位置のカメラ画像座標系における座標を示している。
 制御装置53は、さらに、複数の選別データとカメラ画像-ロボット座標変換情報とに基づいて、複数の処理対象資源ごみに対応する複数の制御データを算出する。複数の制御データのうちのある処理対象資源ごみに対応する制御データは、把持タイミングと把持座標とを示している。把持タイミングは、その処理対象資源ごみが把持領域22を通過するタイミングを示している。把持座標は、把持タイミングにその処理対象資源ごみの重心が配置される位置のロボット座標系における座標を示している。制御装置53は、複数の制御データに基づいてロボット24を制御することにより、把持タイミングに把持座標に配置される処理対象資源ごみを把持タイミングに把持して搬送路16から除去し、処理対象資源ごみを資源ごみ置き場に移動させる。
 資源ごみ自動分別装置10は、キャリブレーション装置により撮像カメラ28とロボット本体26との位置関係が高精度に測定されていることにより、カメラ画像-ロボット座標変換情報に基づいて把持位置を適切に算出することができる。資源ごみ自動分別装置10は、把持位置が適切に算出されることにより、処理対象資源ごみを適切に把持することができ、処理対象資源ごみを適切に搬送路16から除去することができる。
[実施例のキャリブレーション装置の効果]
 実施例のキャリブレーション装置は、第1部材2と第2部材3とマーカ41とマーカ取付部材42とを備えている。第1部材2は、搬送路16のうちの撮像カメラ28に撮像される撮像領域21に配置される。第2部材3は、第1部材2に固定されている。マーカ41は、第2部材3に印をつける。マーカ取付部材42は、搬送路16に沿って搬送される物体を搬送路16のうちの撮像領域21と異なる把持領域22で把持する把持部51が支持される第2支持部材34にマーカ41を取り付ける。
 この場合、実施例のキャリブレーション装置は、搬送されていないキャリブレーション用ジグ1を用いていることにより、搬送装置11が物体を搬送する搬送速度に無関係に、撮像カメラ28とロボット本体26との位置関係を測定することができる。このため、キャリブレーション装置は、搬送装置11が物体を搬送する搬送速度が変動する場合でも、撮像カメラ28とロボット本体26との位置関係を高精度に測定することができる。資源ごみ自動分別装置10は、撮像カメラ28とロボット本体26との位置関係が高精度に測定されることにより、処理対象資源ごみを把持する把持位置を適切に算出することができ、処理対象資源ごみを搬送路16から適切に除去することができる。
 また、実施例のキャリブレーション装置は、位置関係計算部56をさらに備えている。位置関係計算部56は、第1部材2が写るパターンチャート画像が撮像されるように撮像カメラ28を制御し、撮像領域21に対して第1部材2が配置される第1相対位置をパターンチャート画像に基づいて算出する。位置関係計算部56は、さらに、第2部材3に第1印が付くように、第2支持部材34を移動させるX軸Y軸アクチュエータ33とZ軸アクチュエータ35とを制御する。位置関係計算部56は、さらに、第2部材3のうちの第1印がつけられた印位置に基づいて、第1部材2に対して把持部51が配置される第2相対位置を算出する。位置関係計算部56は、さらに、撮像領域21に対して把持部51が配置される第3相対位置を第1相対位置と第2相対位置とに基づいて算出する。実施例のキャリブレーション装置は、ユーザが撮像カメラ28とX軸Y軸アクチュエータ33とZ軸アクチュエータ35とを操作したり、相対位置を算出したりする必要がなく、ユーザの作業を低減することができ、ヒューマンエラーを低減することができる。
 ところで、既述の実施例のキャリブレーション装置では、制御装置53が、撮像カメラ28とX軸Y軸アクチュエータ33とZ軸アクチュエータ35とを制御し、相対位置を算出しているが、ユーザが実行してもよい。この場合でも、実施例のキャリブレーション装置は、搬送されていないキャリブレーション用ジグ1を用いていることにより、撮像カメラ28とロボット本体26との位置関係を高精度に測定することができる。
 また、実施例のキャリブレーション装置の位置関係計算部56は、撮像領域21に第2部材3が配置されたときに、第2部材3が写る刻みチャート画像が撮像されるように、撮像カメラ28を制御し、刻みチャート画像に基づいて印位置を算出する。この場合、実施例のキャリブレーション装置は、印の位置をユーザが測定する必要がなく、ユーザの作業を低減することができ、ヒューマンエラーを低減することができる。
 ところで、既述の実施例のキャリブレーション装置では、刻みチャート画像を用いて印の位置を算出しているが、ユーザが印の位置を測定してもよい。この場合でも、実施例のキャリブレーション装置は、搬送されていないキャリブレーション用ジグ1を用いていることにより、撮像カメラ28とロボット本体26との位置関係を高精度に測定することができる。
 また、実施例のキャリブレーション装置の位置関係計算部56は、第2部材3のうちの印位置と異なる他の印位置に第2印が付くように、X軸Y軸アクチュエータ33とZ軸アクチュエータ35とを制御する。位置関係計算部56は、第1印が付いたときから第2印が付いたときに第2支持部材34が移動する方向を刻みチャート画像に基づいて算出する。この場合、実施例のキャリブレーション装置は、刻みチャート画像に複数の印をつけることにより、把持部51が配置される複数の位置の撮像カメラ28に対する相対位置を算出することができる。資源ごみ自動分別装置10は、把持部51が配置される複数の位置の撮像カメラ28に対する相対位置が算出されることにより、把持領域22のうちの複数の位置で処理対象資源ごみを適切に把持することができる。
 ところで、既述の実施例のキャリブレーション装置では、刻みチャート7に付けられた複数の印に基づいて相対位置が算出されているが、刻みチャート7に付けられた1つの印の位置に基づいて相対位置が算出されてもよい。この場合でも、実施例のキャリブレーション装置は、搬送されていないキャリブレーション用ジグ1を用いていることにより、撮像カメラ28とロボット本体26との位置関係を高精度に測定することができる。
 ところで、既述の実施例のキャリブレーション装置では、キャリブレーション用ジグ1を搬送方向18の反対方向に並進させることにより、第2部材3を撮像領域21に配置させているが、他の向きで第2部材3を撮像領域21に配置させてもよい。図13は、第2部材3が撮像領域21に他の向きで配置されるキャリブレーション用ジグ1を示す平面図である。キャリブレーション用ジグ1は、第2部材3が撮像領域21に適切に配置され、かつ、第1部材2が第2部材3より搬送方向18の下流側に配置されるように、配置されている。このとき、制御装置53は、矢印8を写す像が刻みチャート画像に写し出される位置または向きにさらに基づいて複数の印座標を算出する。たとえば、制御装置53は、矢印8の位置または向きに基づいて刻みチャート画像に写る複数のX軸方向直線と複数のY軸方向直線とを特定し、複数のX軸方向直線と複数のY軸方向直線とに基づいて複数の印座標を算出する。キャリブレーション装置は、このように向きに無頓着に第2部材3が撮像領域21に配置された場合でも、刻みチャート画像に写る矢印8の向きに基づいて第2部材3の向きを判定することができ、印の位置を適切に算出することができる。
 ところで、既述の実施例のキャリブレーション装置の第2部材3には、矢印8が付けられているが、矢印8が省略されてもよい。制御装置53は、矢印8が省略された場合に、たとえば、刻みチャート画像に写るフレーム5の位置または向きに基づいて刻みチャート画像に写る複数のX軸方向直線と複数のY軸方向直線とを特定することができる。
 ところで、既述の実施例のキャリブレーション装置のキャリブレーション用ジグ1は、フレーム5を介して第1部材2と第2部材3とが互いに固定されているが、フレーム5が省略されてもよい。キャリブレーション用ジグ1は、フレーム5が省略されたときに、第1部材2と第2部材3とが直接に接合されたり、第1部材2と第2部材3とが一体の部材で形成されたりすることにより、形成される。キャリブレーション装置は、フレーム5が省略されたキャリブレーション用ジグを、既述のキャリブレーション用ジグ1と同様に用いることにより、把持部51の撮像カメラ28に対する相対位置を高精度に算出することができる。
 ところで、既述の実施例のキャリブレーション装置は、位置関係計算部56を実現するコンピュータが、選別部57とロボット制御部58とを実現するコンピュータと同一であるが、異なっていてもよい。キャリブレーション装置は、位置関係計算部56を実現するコンピュータが、選別部57とロボット制御部58とを実現するコンピュータと異なる場合でも、同様に、把持部51の撮像カメラ28に対する相対位置を高精度に算出することができる。
 以上、実施例を説明したが、前述した内容により実施例が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、実施例の要旨を逸脱しない範囲で構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。
 1 :キャリブレーション用ジグ
 2 :第1部材
 3 :第2部材
 6 :パターンチャート
 7 :刻みチャート
 8 :矢印
 10:資源ごみ自動分別装置
 11:搬送装置
 12:物体処理装置
 16:搬送路
 18:搬送方向
 21:撮像領域
 22:把持領域
 28:撮像カメラ
 33:X軸Y軸アクチュエータ
 34:第2支持部材
 35:Z軸アクチュエータ
 41:マーカ
 42:マーカ取付部材
 51:把持部
 56:位置関係計算部

Claims (5)

  1.  搬送路のうちのカメラに撮像される撮像領域に配置される第1部材と、
     前記第1部材に固定される第2部材と、
     前記第2部材に印をつけるマーカと、
     前記搬送路に沿って搬送される物体を前記搬送路のうちの前記撮像領域と異なる把持領域で把持する把持部が支持される支持部材に前記マーカを取り付ける取付部材と、
     前記撮像領域と前記把持部との位置関係を算出する位置関係計算部
     とを備えるキャリブレーション装置。
  2.  前記位置関係計算部は、
     前記第1部材が写る第1画像が撮像されるように前記カメラを制御し、
     前記撮像領域に対して前記第1部材が配置される第1相対位置を前記第1画像に基づいて算出し、
     前記第2部材に第1印が付くように、前記支持部材を移動させるアクチュエータを制御し、
     前記第2部材のうちの前記第1印がつけられた印位置に基づいて、前記第1部材に対して前記把持部が配置される第2相対位置を算出し、
     前記撮像領域に対して前記把持部が配置される第3相対位置を前記第1相対位置と前記第2相対位置とに基づいて算出する
     請求項1に記載のキャリブレーション装置。
  3.  前記位置関係計算部は、
     前記撮像領域に前記第2部材が配置されたときに、前記第2部材が写る第2画像が撮像されるように、前記カメラを制御し、
     前記第2画像に基づいて前記印位置を算出する
     請求項2に記載のキャリブレーション装置。
  4.  前記第2部材には、前記第2部材の向きを示す印がつけられている
     請求項3に記載のキャリブレーション装置。
  5.  前記位置関係計算部は、
     前記第2部材のうちの前記印位置と異なる他の印位置に第2印が付くように、前記アクチュエータを制御し、
     前記第1印が付いたときから前記第2印が付いたときに前記支持部材が移動する方向を前記第2画像に基づいて算出する
     請求項3に記載のキャリブレーション装置。
PCT/JP2021/038377 2021-10-18 2021-10-18 キャリブレーション装置 WO2023067645A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023553901A JPWO2023067645A1 (ja) 2021-10-18 2021-10-18
PCT/JP2021/038377 WO2023067645A1 (ja) 2021-10-18 2021-10-18 キャリブレーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/038377 WO2023067645A1 (ja) 2021-10-18 2021-10-18 キャリブレーション装置

Publications (1)

Publication Number Publication Date
WO2023067645A1 true WO2023067645A1 (ja) 2023-04-27

Family

ID=86058864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038377 WO2023067645A1 (ja) 2021-10-18 2021-10-18 キャリブレーション装置

Country Status (2)

Country Link
JP (1) JPWO2023067645A1 (ja)
WO (1) WO2023067645A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001548A (ja) * 2011-06-20 2013-01-07 Yaskawa Electric Corp ピッキングシステム
JP2019141935A (ja) * 2018-02-16 2019-08-29 オムロン株式会社 コンベアトラッキングシステムおよびキャリブレーション方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001548A (ja) * 2011-06-20 2013-01-07 Yaskawa Electric Corp ピッキングシステム
JP2019141935A (ja) * 2018-02-16 2019-08-29 オムロン株式会社 コンベアトラッキングシステムおよびキャリブレーション方法

Also Published As

Publication number Publication date
JPWO2023067645A1 (ja) 2023-04-27

Similar Documents

Publication Publication Date Title
JP6474179B2 (ja) 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法
JP5293442B2 (ja) ロボットシステム及び物品並置方法
JP6159124B2 (ja) 部品実装装置
CN108290286A (zh) 用于教导工业机器人拾取零件的方法
US20050247173A1 (en) Automated method and apparatus for vision registration of graphics areas operating from the unprinted side
CN103056884A (zh) 机器人系统和被加工对象物制造方法
CN114405866B (zh) 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统
TW201817561A (zh) 機器人系統
JP2011209958A (ja) 採取対象物品の認識構造及びこれを用いた採取情報認識装置並びに採取処理装置
US20190247959A1 (en) Part Marking System And Method Of Marking Parts
CN114758236A (zh) 一种非特定形状物体识别、定位与机械手抓取系统及方法
WO2023067645A1 (ja) キャリブレーション装置
JP2006082170A (ja) キャリブレーション方法
CN113495073A (zh) 视觉检查系统的自动对焦功能
JP5868257B2 (ja) ワークの位置検出方法及びそれを用いたワークの搬送方法
JP2005231915A (ja) 板ガラスの割断システム
US11667032B2 (en) Processing device
WO2007105953A1 (en) Device for automated laser cutting of a flat carrier provided with encapsulated electronic components
JP4483818B2 (ja) ワーク移し替え方法、ワーク移し替え装置及びワーク移し替えシステム
JP3648660B2 (ja) 半田ボールマウント装置
JPH08124994A (ja) ペレット分類装置
JP4665468B2 (ja) フォトマスク及びフォトマスクブランクスの載置方向変更装置
CN210084461U (zh) 图像处理并联机器人捡取合金刀片的系统
JP2013173196A (ja) ロボットのハンドリングアームの位置補正方法
JPH02276725A (ja) ロボットの教示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21961299

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023553901

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21961299

Country of ref document: EP

Kind code of ref document: A1