WO2018008102A1 - 撮像装置及び撮像システム - Google Patents

撮像装置及び撮像システム Download PDF

Info

Publication number
WO2018008102A1
WO2018008102A1 PCT/JP2016/069982 JP2016069982W WO2018008102A1 WO 2018008102 A1 WO2018008102 A1 WO 2018008102A1 JP 2016069982 W JP2016069982 W JP 2016069982W WO 2018008102 A1 WO2018008102 A1 WO 2018008102A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
unit
input
control device
Prior art date
Application number
PCT/JP2016/069982
Other languages
English (en)
French (fr)
Inventor
岡本 実幸
信夫 大石
神藤 高広
紘佑 土田
伸夫 長坂
Original Assignee
富士機械製造株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士機械製造株式会社 filed Critical 富士機械製造株式会社
Priority to PCT/JP2016/069982 priority Critical patent/WO2018008102A1/ja
Priority to CN201680087199.3A priority patent/CN109328126B/zh
Priority to JP2018525874A priority patent/JP6689974B2/ja
Priority to EP16908146.0A priority patent/EP3482890A4/en
Publication of WO2018008102A1 publication Critical patent/WO2018008102A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40425Sensing, vision based motion planning

Definitions

  • the present invention relates to an imaging apparatus and an imaging system.
  • Patent Document 1 describes a component recognition device including a control device that controls a motor and receives an encoder pulse signal and a camera that captures an image.
  • the control apparatus when the count number of the pulse signal of the encoder reaches a predetermined reference number, the control apparatus causes the camera to input a shooting trigger and cause the camera to perform shooting.
  • the present invention has been made to solve the above-described problems, and has as its main object to perform imaging-related processing at a more appropriate timing.
  • the present invention adopts the following means in order to achieve the above-mentioned main object.
  • the imaging apparatus of the present invention An imaging unit capable of capturing an image; A determination unit that inputs encoder signals of each of a plurality of motors included in the multi-axis robot and determines whether a predetermined processing condition is satisfied based on the input encoder signals; An imaging control unit that performs predetermined imaging-related processing related to imaging of the imaging unit when the determination unit determines that the processing condition is satisfied; It is equipped with.
  • the imaging apparatus inputs an encoder signal, and performs imaging-related processing based on the plurality of input encoder signals. Therefore, for example, the imaging-related processing can be performed at a more appropriate timing, for example, the delay time can be reduced as compared with the case where the execution command of the imaging-related processing is received from the motor control device that has input the encoder signal.
  • FIG. 1 is a schematic explanatory diagram of a work execution system 100.
  • FIG. 1 is a schematic explanatory diagram of a robot arm 1.
  • FIG. 3 is a block diagram showing an electrical connection relationship in the work execution system 100.
  • FIG. Explanatory drawing which shows the flow of a process of the control apparatus 80 and the imaging device 60.
  • FIG. The block diagram showing the electrical connection relation in work execution system 100A of a modification.
  • FIG. 1 is a schematic explanatory diagram of a work execution system 100 including an example of an imaging system of the present invention.
  • FIG. 2 is a schematic explanatory diagram of the robot arm 1.
  • FIG. 3 is a block diagram showing an electrical connection relationship in the work execution system 100.
  • the left and right direction (X axis), the front and rear direction (Y axis), and the vertical direction (Z axis) of the work execution system 100 are as shown in FIG.
  • the robot arm 1 is movable in all directions, there is no specific direction to be fixed. However, for convenience of explanation, the direction shown in FIG. The description will be made with the front-rear direction (Y-axis) and the up-down direction (Z-axis).
  • the work execution system 100 is configured as a device that performs a plurality of predetermined work on a work target object (work).
  • the work execution system 100 includes a robot arm 1, an imaging device 60 attached to the robot arm 1, a base 101 on which the robot arm 1 is disposed, a bolt 106 that is a workpiece in the present embodiment, and this. And a controller 80 (see FIG. 3) for controlling the entire apparatus.
  • a controller 80 see FIG. 3 for controlling the entire apparatus.
  • one robot arm 1 is disposed behind the transfer device 102, but the work execution system 100 is disposed at least one of the front or rear of the transfer device 102.
  • One or more robot arms 1 may be provided.
  • the robot arm 1 is configured as a device that performs predetermined work on a workpiece.
  • the workpiece is not particularly limited, and examples thereof include various parts such as mechanical parts, electrical parts, electronic parts, and chemical parts, foods, biotechnology, biological items, and the like.
  • Examples of the predetermined work include a process of collecting, moving, and arranging from an initial position to a predetermined position, and a process of deforming, connecting, and joining a predetermined part.
  • the robot arm 1 performs at least a process of collecting and moving the bolt 106 that is a workpiece from the pallet 105.
  • the robot arm 1 is a multi-axis robot configured as a vertical articulated robot, and includes a first arm 11, a second arm 12, a third support portion 13, a pedestal portion 14, and a tip portion 50. ing.
  • the robot arm 1 includes a plurality of (four in this embodiment) first to fourth rotation mechanisms 21 to 24 and a plurality (four in this embodiment) of first to fourth motors 31. 34 and a plurality (four in the present embodiment) of first to fourth encoders 41 to 44 (see FIG. 3).
  • the first arm 11 is a longitudinal member provided with a distal end portion 50 that is a working portion that performs work on a workpiece.
  • the first arm 11 is connected to the distal end portion 50 via a first rotation mechanism 21 that is disposed at an end opposite to the second arm 12 and has a rotation shaft and a gear mechanism.
  • a first motor 31 and a first encoder 41 are housed inside the first arm 11.
  • the first motor 31 outputs a rotational driving force to rotate the rotation shaft of the first rotation mechanism 21. Therefore, the distal end portion 50 is disposed so as to be rotatable with respect to the first arm 11.
  • the first encoder 41 is attached to the first motor 31 and outputs an encoder signal that is a pulse capable of detecting the rotational position of the first motor 31.
  • the second arm 12 is a longitudinal member to which the first arm 11 is connected via a second rotating mechanism 22 having a rotating shaft and a gear mechanism.
  • a second motor 32 and a second encoder 42 are housed inside the second arm 12.
  • the second motor 32 outputs a rotational driving force to rotate the rotation shaft of the second rotation mechanism 22. Therefore, the first arm 11 is disposed so as to be rotatable with respect to the second arm 12.
  • the second encoder 42 is attached to the second motor 32 and outputs an encoder signal that is a pulse capable of detecting the rotational position of the second motor 32.
  • the third support portion 13 is a member to which the second arm 12 is connected via a third rotation mechanism 23 having a rotation shaft and a gear mechanism.
  • a third motor 33 and a third encoder 43 are housed inside the third support portion 13.
  • the third motor 33 outputs a rotational driving force to rotate the rotation shaft of the third rotation mechanism 23. Therefore, the second arm 12 is disposed so as to be rotatable with respect to the third support portion 13.
  • the third encoder 43 is attached to the third motor 33 and outputs an encoder signal that is a pulse that can detect the rotational position of the third motor 33.
  • the pedestal portion 14 supports the third support portion 13 via a fourth rotation mechanism 24 including a support shaft formed in the vertical direction.
  • a fourth motor 34 and a fourth encoder 44 are housed inside the pedestal portion 14.
  • the fourth motor 34 outputs a rotational driving force to rotate the support shaft of the fourth rotation mechanism 24. Therefore, the third support portion 13 is disposed so as to be rotatable with respect to the pedestal portion 14.
  • the fourth encoder 44 is attached to the fourth motor 34 and outputs an encoder signal that is a pulse capable of detecting the rotational position of the fourth motor 34.
  • first to fourth encoders 41 to 44 are configured as transmissive optical encoders.
  • the first to fourth encoders 41 to 44 are incremental encoders that output two types of pulses, phase A and phase B, as encoder signals.
  • the present invention is not limited to this.
  • the first to fourth encoders 41 to 44 may be reflective optical encoders, or may be absolute encoders that can detect the absolute value of the rotational position.
  • the tip portion 50 performs a predetermined operation on the workpiece.
  • the distal end portion 50 includes a mounting portion 52, a sampling member 53, and an imaging device 60.
  • the mounting portion 52 is disposed on the lower surface of the main body of the distal end portion 50.
  • a sampling member 53 is mounted on the lower surface of the mounting portion 52.
  • the sampling member 53 is configured as, for example, a mechanical chuck that has a plurality of claw portions and grips and samples an article.
  • the collection member 53 may be, for example, an adsorption nozzle that adsorbs and collects articles by pressure.
  • the sampling member 53 can be detached from the mounting portion 52, and various members for performing a predetermined operation on the workpiece can be mounted in addition to the sampling member 53.
  • the imaging device 60 includes an irradiation unit 61, an imaging unit 62, an imaging control unit 63, and a determination unit 70 (see FIG. 3).
  • the irradiation unit 61 is, for example, illumination arranged in a circular shape on the outer periphery of the imaging unit 62, and can irradiate light on the workpiece and the periphery of the workpiece.
  • the imaging unit 62 is a unit that can capture an image, and images the work and the periphery of the work by capturing the lower part of FIG.
  • the imaging unit 62 generates image data based on an optical system such as a lens, an imaging device that is an image sensor that converts an object image into an electrical signal by photoelectric conversion, and an electrical signal input from the imaging device, for example.
  • a signal processing unit is a device capable of high-speed imaging at a frame rate of 1000 fps (frames / second) or more. Note that the frame rate of the imaging device 60 may be, for example, 2000 fps (frames / second) or less.
  • the determination unit 70 is a unit that performs determination based on encoder signals from the first to fourth encoders 41 to 44. As illustrated in FIG. 3, the determination unit 70 includes first to fourth comparison units 71 to 74 and a determination synthesis unit 75. And. The first to fourth comparison units 71 to 74 correspond to the first to fourth encoders 41 to 44 on a one-to-one basis, and each of the first to fourth comparison units 71 to 74 includes the first to fourth comparison units. An encoder signal from a corresponding encoder among the four encoders 41 to 44 is input by serial communication, for example. Further, the first to fourth comparison units 71 to 74 are respectively input with predetermined processing conditions from the control device 80 by serial communication, for example.
  • the first comparison unit 71 is a counter that counts the number of pulses of the encoder signal input from the first encoder 41, and a set value storage unit that stores a predetermined set value that is part of the processing conditions and is input from the control device 80. And a coincidence determination unit that determines whether or not the count value by the counter matches the set value. When the count value matches the set value, the match determination unit outputs a match determination signal indicating that to the determination combining unit 75.
  • the second to fourth comparison units 72 to 74 have the same configuration. When the count value of the number of pulses of the input encoder signal is compared with the set value input from the control device 80, the two match. Outputs a coincidence determination signal to the determination combining unit 75.
  • the determination combining unit 75 is connected to the first to fourth comparison units 71 to 74, and processing conditions depend on whether or not the coincidence determination signal is input from any of the first to fourth comparison units 71 to 74. It is determined whether or not That is, the determination combining unit 75 is configured as an AND circuit, for example, and when a match determination signal is input from any of the first to fourth comparison units 71 to 74, a signal indicating that the processing condition is satisfied Is output to the imaging control unit 63. On the other hand, when the coincidence determination signal is not input from one or more of the first to fourth comparison units 71 to 74, the determination combination unit 75 sends a signal indicating that the processing condition is satisfied to the imaging control unit 63. Do not output.
  • the imaging control unit 63 controls the entire imaging device 60.
  • the imaging control unit 63 outputs a control signal to the irradiating unit 61 to control light irradiation from the irradiating unit 61, or outputs a control signal to the imaging unit 62 to take an image. Further, the imaging control unit 63 inputs an image generated by the imaging unit 62 and outputs the image to the control device 80, or inputs a command from the control device 80.
  • each of the determination unit 70, the signal processing unit included in the imaging unit 62, and the imaging control unit 63 is configured by a hardware circuit as a dedicated processing circuit. However, one or more of these may be realized by software such as a program executed on the CPU of the imaging device 60.
  • the control device 80 is configured as a microprocessor centered on a CPU, and controls the entire device of the work execution system 100.
  • the control device 80 outputs signals to the first to fourth motors 31 to 34, the sampling member 53, the imaging control unit 63, and the transport device 102.
  • the control device 80 outputs the set value described above to each of the first to fourth comparison units 71 to 74.
  • encoder signals from the first to fourth encoders 41 to 44 are input to the control device 80 by, for example, serial communication. As shown in FIG. 3, encoder signals from the first to fourth encoders 41 to 44 are input in parallel to the imaging device 60 and the control device 80.
  • the position of the tip 50 of the robot arm 1, that is, the coordinates are represented by the XYZ coordinates representing the positions in the respective directions of the XYZ axes shown in FIG. 1.
  • the control device 80 stores position correspondence information (for example, a conversion formula or a table) indicating the correspondence between the coordinates of the tip 50 and the rotational positions of the first to fourth motors 31 to 34 in the storage unit. It was supposed to be. Based on this position correspondence information and the encoder signals from the first to fourth encoders 41 to 44, the control device 80 detects the current coordinates of the tip 50, or moves the tip from the current coordinates to the target coordinates.
  • position correspondence information for example, a conversion formula or a table
  • the amount of rotation of each of the first to fourth motors 31 to 34 necessary for moving the unit 50 is derived. Then, the control device 80 outputs a control signal to each of the first to fourth motors 31 to 34 based on the derived rotation amount, and controls the position of the tip portion 50.
  • the base 101 is for arranging and fixing the robot arm 1 and the transfer device 102.
  • a carrier device 102 is disposed at the center of the base 101, and the robot arm 1 is fixed behind the carrier device 102.
  • the transport device 102 is a unit that carries in, transports, and unloads workpieces, for example.
  • the conveying apparatus 102 has a pair of conveyor belts provided in the front-rear direction of FIG.
  • the pallet 105 on a flat plate on which a workpiece, that is, a plurality of bolts 106 is placed, is conveyed by the conveyor belt.
  • FIG. 4 is an explanatory diagram showing the flow of processing of the control device 80 and the imaging device 60.
  • the control device 80 drives the transport device 102 before starting the processing of FIG.
  • the bolt 106 in which the plurality of bolts 106 are arranged is carried in from the upstream side of the transport device 102 and is transported in the transport direction (left-right direction).
  • the control device 80 When the conveyance device 102 is driven, the control device 80 outputs predetermined processing conditions to the determination unit 70 of the imaging device 60 (step S100).
  • the processing condition is a condition that the tip 50 provided in the robot arm 1 can be regarded as existing at a predetermined coordinate.
  • the predetermined coordinates are coordinates suitable for starting imaging by the imaging unit 62 of the imaging device 60. For example, the height at which the imaging unit 62 is just above the transport device 102 in front of the robot arm 1 and close to the bolt 106 to some extent. It was assumed that the coordinates were predetermined.
  • the control device 80 when outputting the processing conditions to the determination unit 70, the control device 80 derives a set value that is a value obtained by converting the processing conditions into the count values of the encoder signals of the first to fourth encoders 41 to 44, This set value is output to each of the first to fourth comparison units 71 to 74. Specifically, based on the position correspondence information described above, the tip 50 is determined from the current coordinates on the basis of the current rotational positions of the first to fourth motors 31 to 34 corresponding to the current coordinates of the tip 50.
  • the number of encoder signal pulses generated before moving to a predetermined coordinate is derived for each of the first to fourth encoders 41 to 44, and the derived value is set to a set value corresponding to each of the first to fourth encoders 41 to 44. To do.
  • the derived set values are output to the first to fourth comparison units 71 to 74, respectively.
  • the control device 80 uses the current coordinates of the tip 50 as the encoder signals of the first to fourth encoders 41 to 43. You may derive based on.
  • the control device 80 performs a process of moving the tip 50 to a predetermined initial position whose coordinates are known without using an encoder signal. You may know the current coordinates.
  • the predetermined initial position may be, for example, a position in a state where each of the first to fourth rotating mechanisms 21 to 24 is rotated to an upper limit position or a lower limit position within a rotatable range (rotation angle). It is good also as a position where the predetermined mark arrange
  • each of the first to fourth comparison units 71 to 74 of the determination unit 70 stores the input set value (step S200). 70 determines whether or not the processing conditions represented by the stored setting values are satisfied (step S220). On the other hand, after step S100, the control device 80 starts the process of moving the tip 50 to a predetermined coordinate by controlling the first to fourth motors 31 to 34 (step S110). That is, whether or not the processing condition is satisfied is determined based on the encoder signals from the first to fourth encoders 41 to 44 (step S120).
  • the control device 80 and the determination unit 70 input the encoder signals from the first to fourth encoders 41 to 44 in parallel to determine whether or not the same processing condition is satisfied. . Whether or not the processing condition by the control device 80 is satisfied may be determined by counting the number of pulses of the input encoder signal and comparing it with a set value in the same manner as the determination unit 70. Alternatively, the control device 80 determines whether or not the processing condition is satisfied by determining whether or not the current coordinates of the tip 50 have reached a predetermined coordinate based on the input encoder signal and position correspondence information. Also good.
  • the control device 80 continues to control the first to fourth motors 31 to 34 until it is determined in step S120 that the processing condition is satisfied.
  • the control device 80 starts time measurement on the motor control side. Is performed (step S130).
  • the control device 80 causes the leading end portion at that time to be input whenever a pulse is input from at least one of the first to fourth encoders 41 to 44, that is, whenever the coordinates of the leading end portion 50 change.
  • the 50 coordinates and the time (for example, the elapsed time from the start of timing) are associated with each other and stored sequentially as coordinate time correspondence information.
  • the imaging control unit 63 waits until the determination unit 70 determines that the processing condition is satisfied in step S220, and determines that the processing condition is satisfied.
  • predetermined imaging-related processing related to imaging of the imaging unit 62 is performed (step S230).
  • the imaging-related processing includes imaging control side timing start processing for starting time measurement, and imaging command processing for instructing the imaging unit 62 to start imaging.
  • the imaging unit 62 starts continuous imaging at a predetermined frame rate (for example, 1000 fps), and sequentially outputs the generated images to the imaging control unit 63.
  • control apparatus 80 and the imaging control part 63 start time measurement based on the same processing conditions, both start time measurement at substantially the same timing. Further, the imaging unit 62 starts a plurality of imagings when the processing conditions are satisfied, that is, when the tip 50 reaches a predetermined coordinate.
  • the imaging control unit 63 starts outputting the captured image to the control device 80 (step S240).
  • the image capturing control unit 63 adds time information (time stamp) to the image and sequentially outputs the image to the control device 80.
  • the time information is information representing the time based on the time measurement started in step S230 (for example, the elapsed time from the time when step S230 was performed to the time when the image was input).
  • the control device 80 controls the first to fourth motors 31 to 34 on the basis of the image input from the imaging device 60 and the time information attached to the image, and moves the sampling member 53 to the bolt 106 to collect the bolt 106. (Step S140). Then, based on the input image, it is determined whether or not the bolt 106 can be collected (step S150). If the bolt 106 cannot be collected, the processing from step S140 is executed. The process of step S140 is performed as follows, for example. First, the control device 80 recognizes the bolt 106 in the image first input from the imaging device 60.
  • the bolt 106 is recognized by, for example, distinguishing the area of the bolt 106 from the other area (for example, the area of the pallet 105) in the image by binarization processing or pattern matching processing. This can be done by identifying a region that matches the reference shape data.
  • a bolt 106 that can be distinguished from other bolts 106 such as a bolt 106 positioned at the leftmost front of the pallet 105 is determined as a sampling target.
  • the same bolt as the bolt 106 determined to be collected is recognized in the same manner.
  • the coordinates, moving speed, moving direction, and the like of the bolt 106 to be collected are estimated. For example, based on the time information of the first input image and the coordinate time correspondence information, the coordinates of the tip 50 corresponding to the time at which the first input image was captured are derived, and the derived coordinates and the image are recognized. Based on the position and size of the bolt 106 to be sampled, the coordinates of the bolt 106 to be sampled at the imaged time are estimated. Based on the second input image and time information, the coordinates of the bolt 106 to be sampled at the same imaged time are estimated.
  • the moving speed and moving direction of the bolt 106 are estimated based on the time interval between two image capturing operations and the estimated coordinates.
  • the movement that is, the conveyance device 102 is taken into consideration by taking into consideration the movement speed of the tip 50 by the operation of the first to fourth motors 31-34.
  • the first to fourth motors 31 to 34 are controlled so as to track the bolt 106 to be collected during conveyance by the above and bring the bolt 106 and the sampling member 53 closer to each other.
  • Such processing in step S140 is repeated until it is determined in step S150 that the bolt 106 is ready to be collected.
  • the image used for the processing in step S140 may be performed using the latest plural (for example, two) images each time.
  • the control device 80 derives the coordinates of the tip 50 when the image is captured based on the time information attached to the image and the coordinate time correspondence information,
  • the first to fourth motors 31 to 34 are controlled so as to collect the moving bolt 106 by estimating the coordinates, moving speed and moving direction of the bolt 106 to be sampled based on the image.
  • step S150 If it is determined in step S150 that the sampling target bolt 106 can be sampled, the control device 80 controls the sampling member 53 to sample the bolt 106 (step S160), and outputs an imaging stop command to the imaging control unit 63. (Step S170).
  • the imaging control unit 63 controls the imaging unit 62 to stop imaging (step S270).
  • the control device 80 controls the first to fourth motors 31 to 34 to move the bolt 106 collected from the pallet 105 to a predetermined position (not shown) (step S180).
  • the bolt 106 may be placed on a conveyor of another transport device (not shown), or the bolt 106 may be attached to a component transported to another transport device (not shown).
  • each of the first to fourth comparison units 71 to 74 has already stored the set values, and thus the control device 80 may omit step S100.
  • the imaging unit 62 of the present embodiment corresponds to the imaging unit of the present invention
  • the determination unit 70 corresponds to the determination unit
  • the imaging control unit 63 corresponds to the imaging control unit.
  • the imaging device 60 corresponds to a motor control device
  • a system including the control device 80 and the imaging device 60 corresponds to the imaging system of the present invention.
  • the imaging device 60 inputs an encoder signal, and performs imaging-related processing based on the input plurality of encoder signals. Therefore, for example, the imaging-related processing is performed after the processing condition is satisfied (after the distal end portion 50 reaches a predetermined coordinate) as compared with the case where the execution command of the imaging-related processing is received from the control device 80 that has input the encoder signal.
  • the imaging-related processing can be performed at a more appropriate timing, for example, the delay time until the processing is performed can be reduced.
  • the work execution system 100 inputs the imaging device 60 and a plurality of encoder signals in parallel with the imaging device 60, and controls the first to fourth motors 31 to 34 based on the inputted plurality of encoder signals. Device 80. Therefore, each of the control device 80 and the imaging device 60 can perform processing based on the encoder signal at a more appropriate timing.
  • the imaging related processing includes imaging control side timing start processing for starting timing, and the imaging control unit 63 adds time information based on timing to the image captured by the imaging unit 62. Therefore, time measurement can be started at a more appropriate timing, and more appropriate time information can be added to the image. Further, when it is determined that the processing condition is satisfied based on the plurality of input encoder signals, the control device 80 performs a motor control side timing start process for starting timing. The control device 80 controls the first to fourth motors 31 to 34 based on the image input from the imaging device 60 and the time information attached to the image.
  • the imaging device 60 and the control device 80 input encoder signals in parallel and start timing based on the same processing conditions, the time measured by the timing between the imaging device 60 and the control device 80 is more accurate. It can be synchronized well. Therefore, the imaging device 60 can add more appropriate time information to the image, that is, time information with a smaller deviation from the time counted by the control device 80.
  • the control device 80 controls the first to fourth motors 31 to 34 based on the image and the time information attached to the image, the control can be performed with higher accuracy. For example, consider a case where the time difference between the time measured by the imaging device 60 and the time measured by the control device 80 is large.
  • the control device 80 derives the coordinates of the distal end portion 50 at the time of imaging based on the time information and the coordinate time correspondence information attached to the image in step S140 of FIG. 4 described above, it is attached to the image.
  • the coordinates of the tip 50 at the time of imaging cannot be derived with high accuracy, and as a result, the sampling member 53 may not be appropriately moved to the bolt 106 to be sampled. Such a malfunction can be suppressed by synchronizing the time with the imaging device 60 and the control device 80 with high accuracy.
  • the imaging-related process may include an imaging command process that causes the imaging unit to capture the image. By so doing, it is possible to perform imaging at a more appropriate timing.
  • imaging command process that causes the imaging unit to capture the image.
  • control device 80 outputs the processing conditions to the imaging device 60, and the determination unit 70 determines whether the processing conditions are satisfied based on the processing conditions input from the control device 80. For this reason, the control device 80 can set processing conditions used in the imaging device 60 in advance.
  • FIG. 5 is a block diagram showing an electrical connection relationship in the work execution system 100A according to the modified example in this case.
  • the work execution system 100 ⁇ / b> A according to this modification includes a determination device 90 independent of the imaging device 60, instead of the imaging device 60 not including the determination unit 70.
  • the determination device 90 is a device that inputs each encoder signal of the first to fourth motors 31 to 34 and determines whether or not a predetermined processing condition is satisfied based on the plurality of input encoder signals.
  • first to fourth comparison units 71 to 74 and a determination synthesis unit 75 are provided.
  • the imaging control unit 63 and the control device 80 are connected to the determination combining unit 75 in parallel with each other, and information indicating that each satisfies the processing condition can be input from the determination combining unit 75. Further, the control device 80 outputs the processing conditions to the first to fourth comparison units 71 to 74 of the determination device 90.
  • the determination device 90 performs the processes of steps S200 and S220 in FIG.
  • the control apparatus 80 will perform the motor control side time start process of step S130, if the information to the effect that the process conditions were satisfy
  • the imaging control unit 63 performs an imaging-related process (for example, an imaging control side timing start process and an imaging command process) in step S230.
  • an imaging-related process for example, an imaging control side timing start process and an imaging command process
  • the imaging device 60 and the control device 80 input in parallel from the determination device 90 information indicating that the processing conditions are satisfied based on the plurality of encoder signals, and measure time. To start. Therefore, as in the above-described embodiment, the time measured by the timekeeping can be more accurately synchronized between the imaging device 60 and the control device 80, and the control device 80 allows the first to fourth motors 31 to 34 to be more accurate. Control can be performed well.
  • the first to fourth comparison units 71 to 74 store the processing conditions, that is, the set values input from the control device 80, but are not limited thereto.
  • the first to fourth comparison units 71 to 74 may store the set values in advance, and the processing condition output from the control device 80 may be omitted.
  • the imaging related process executed by the imaging control unit 63 when the processing condition is satisfied includes the imaging control side timing start process and the imaging command process, but is not limited thereto.
  • the imaging-related process may include at least one of the imaging control side timing start process and the imaging command process, or may include other processes without including any of them.
  • the imaging-related process executed when the processing condition is satisfied includes the imaging control side timing start process and does not need to include the imaging command process. Also in this case, it is possible to more accurately synchronize the time measured by the time between the imaging device 60 and the control device 80.
  • the imaging control unit 63 may perform the imaging command process at an arbitrary timing before and after satisfying the processing condition.
  • the imaging device 60 determines whether or not the processing condition that triggers the imaging control side timing start process is satisfied, and the determination unit that determines whether or not the processing condition that triggers the imaging command process is satisfied And may each be provided.
  • one determination unit 70 determines processing conditions that trigger both the imaging control side timing start processing and the imaging command processing, that is, the determination unit is made common to reduce the number of parts. This is preferable because it can be reduced.
  • the imaging command process executed when the processing condition is satisfied is a process for causing the imaging unit 62 to start imaging a plurality of images, but is not limited thereto.
  • the imaging command process may be a process for causing the imaging unit 62 to capture one image.
  • it is possible to capture an image when the processing condition is satisfied that is, when the distal end portion 50 reaches a predetermined coordinate.
  • the control device 80 may update the processing conditions every time one image is captured. By so doing, it is possible to capture an image when the tip 50 is positioned at each of the plurality of coordinates according to the processing conditions.
  • the control device 80 may perform the motor control side timing start processing in step S130 in consideration of a delay time from when the processing condition is satisfied until the imaging device 60 performs the imaging-related processing. For example, a delay time from when the processing condition is satisfied (after the front end portion 50 reaches a predetermined coordinate) until the determination combining unit 75 outputs a signal indicating that the processing condition is satisfied, and thereafter, the imaging control unit 63 measures the time. You may consider the delay time until it starts. For example, based on the difference between the delay time (T1) on the imaging device 60 side and the delay time (T2) on the control device 80 side, if T1> T2, the control device 80 determines in step S120.
  • the time measurement in step S130 may be started after a lapse of time (T1-T2) after determining that the processing condition is satisfied.
  • the control device 80 may start timing from time (T2-T1) when it is determined in step S120 that the processing condition is satisfied.
  • the imaging control unit 63 adds the corrected time information to the image in consideration of the delay time from when the imaging unit 62 images the image until the imaging control unit 63 adds the time information to the image. May be.
  • the delay time is generated after the image capturing unit 62 captures an image (for example, from the timing when the image sensor receives light), and the image capturing control unit 63 inputs the image and attaches time information. It may be the time required until.
  • the imaging control unit 63 may add time information representing a time (elapsed time after correction) obtained by subtracting this delay time from the elapsed time from the start of timing to the time when the image is input.
  • the delay time may be a measured value derived for each image based on, for example, the number of clocks, or may be a fixed value set in advance.
  • the control device 80 may perform the processing in consideration of the delay time. For example, in step S140, the control device 80 may perform processing based on the time (corrected time) obtained by subtracting the delay time from the time represented by the time information added to the image.
  • the processing condition is a condition that the tip 50 can be regarded as existing at a predetermined coordinate.
  • the predetermined coordinate may be a single coordinate or an aggregate of a plurality of coordinates.
  • the processing condition may be a condition that the tip 50 can be regarded as existing in a predetermined area.
  • the robot arm 1 is a multi-axis robot configured as a vertical articulated robot, but is not limited thereto, and may be a multi-axis robot having a plurality of drive axes.
  • the robot arm 1 may be a horizontal articulated robot or an orthogonal robot.
  • the determination unit 70 and the control device 80 input encoder signals of all the motors included in the robot arm 1, but the present invention is not limited to this.
  • the determination unit 70 and the control device 80 may input two or more encoder signals among a plurality of motors provided in the robot arm 1.
  • the imaging device 60 is disposed at the distal end portion 50 of the robot arm 1, but the present invention is not limited to this.
  • the imaging device 60 may be fixedly arranged at a position where the collection target of the collection member 53 provided in the robot arm 1 can be imaged.
  • control device 80 controls the robot arm 1 to move the bolt 106 that is a workpiece
  • the present invention is not limited to this.
  • the control device 80 may control the robot arm 1 to bring the imaging device 60 close to the workpiece to perform imaging, and perform an appearance inspection of the workpiece based on the image.
  • the work execution system 100 including the robot arm 1, the imaging device 60, and the control device 80 has been described.
  • the imaging device 60 alone connected to the robot arm 1 may be used.
  • the present invention can be used in the technical field of apparatuses that perform processing such as sampling and inspection of workpieces such as bolts.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

エンコーダ信号を入力したモータの制御装置から撮像関連処理の実行指令を受ける場合と比較して遅延時間を小さくできるなど、撮像関連処理をより適切なタイミングで行うことができる。 作業実行システム(100)では、撮像装置(60)が第1~第4エンコーダ(41~44)のエンコーダ信号を入力し、入力した複数のエンコーダ信号に基づいて撮像関連処理を行う。作業実行システム(100)は、撮像装置(60)と、複数のエンコーダ信号を撮像装置(60)とは並列に入力し、入力した複数のエンコーダ信号に基づいて第1~第4モータ31~34を制御する制御装置(80)と、を備えていてもよい。

Description

撮像装置及び撮像システム
本発明は、撮像装置及び撮像システムに関する。
 従来、モータのエンコーダからの信号に基づいて撮影を行う装置が知られている。例えば、特許文献1には、モータを制御しエンコーダのパルス信号が入力される制御装置と、画像を撮影するカメラと、を備えた部品認識装置が記載されている。この装置では、制御装置は、エンコーダのパルス信号のカウント数が予め定められた基準数に達すると、撮影トリガをカメラに入力させて、カメラに撮影を行わせる。
特開2009-170517号公報
 しかし、特許文献1に記載の装置では、モータの制御装置がエンコーダのパルス信号を入力してカメラに撮像を行わせるため、パルス信号のカウント数が基準数に達してから撮像までの遅延時間が大きくなるなど、適切なタイミングで撮像できない場合があった。
 本発明は、上述した課題を解決するためになされたものであり、より適切なタイミングで撮像関連処理を行うことを主目的とする。
 本発明は、上述した主目的を達成するために以下の手段を採った。
 本発明の撮像装置は、
 画像を撮像可能な撮像部と、
 多軸ロボットが備える複数のモータの各々のエンコーダ信号を入力し、該入力した複数のエンコーダ信号に基づいて所定の処理条件を満たしたか否かを判定する判定部と、
 前記判定部が前記処理条件を満たしたと判定した場合に、前記撮像部の撮像に関連する所定の撮像関連処理を行う撮像制御部と、
 を備えたものである。
 この撮像装置では、撮像装置がエンコーダ信号を入力し、入力した複数のエンコーダ信号に基づいて撮像関連処理を行う。したがって、例えばエンコーダ信号を入力したモータの制御装置から撮像関連処理の実行指令を受ける場合と比較して遅延時間を小さくできるなど、撮像関連処理をより適切なタイミングで行うことができる。
作業実行システム100の概略説明図。 ロボットアーム1の概略説明図。 作業実行システム100における電気的な接続関係を表すブロック図。 制御装置80及び撮像装置60の処理の流れを示す説明図。 変形例の作業実行システム100Aにおける電気的な接続関係を表すブロック図。
 本発明の実施形態を図面を参照しながら以下に説明する。図1は、本発明の撮像システムの一例を含む作業実行システム100の概略説明図である。図2は、ロボットアーム1の概略説明図である。図3は、作業実行システム100における電気的な接続関係を表すブロック図である。なお、作業実行システム100の左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)は、図1に示した通りとする。また、ロボットアーム1は全方位に可動するため固定される特定の方向はないが、説明の便宜のため、ロボットアーム1に対しては、図2に示した方向を左右方向(X軸)、前後方向(Y軸)及び上下方向(Z軸)として説明する。
 作業実行システム100は、作業対象の物品(ワーク)に対して複数の所定の作業を行う装置として構成されている。作業実行システム100は、ロボットアーム1と、ロボットアーム1に取り付けられた撮像装置60と、ロボットアーム1が配設される基台101と、本実施形態におけるワークであるボルト106及びこれを載置したパレット105を搬送する搬送装置102と、装置全体を制御する制御装置80(図3参照)と、を備えている。なお、本実施形態では、図1に示すようにロボットアーム1が搬送装置102の後方に1つ配設されているが、作業実行システム100は搬送装置102の前方又は後方の少なくとも一方に配設された1以上のロボットアーム1を他にも備えていてもよい。
 ロボットアーム1は、ワークに対して所定の作業を行う装置として構成されている。ワークは、特に限定されないが、例えば、機械部品、電気部品、電子部品、化学部品など各種の部品のほか、食品、バイオ、生物関連の物品などが挙げられる。また、所定の作業としては、例えば、初期位置から所定位置まで採取、移動、配置する処理や、所定の部位に対して変形、接続、接合させる処理などが挙げられる。本実施形態では、ロボットアーム1は、少なくとも、ワークであるボルト106をパレット105上から採取及び移動する処理を行う。
 ロボットアーム1は、垂直多関節ロボットとして構成された多軸ロボットであり、第1アーム11と、第2アーム12と、第3支持部13と、台座部14と、先端部50と、を備えている。また、ロボットアーム1は、複数(本実施形態では4個)の回転機構である第1~第4回転機構21~24と、複数(本実施形態では4個)の第1~第4モータ31~34と、複数(本実施形態では4個)の第1~第4エンコーダ41~44と、を備えている(図3参照)。
 第1アーム11は、図2に示すように、ワークに対して作業を行う作業部である先端部50が配設された長手部材である。第1アーム11は、第2アーム12とは反対側の端部に配設され回転軸及び歯車機構を有する第1回転機構21を介して、先端部50と接続されている。第1アーム11の内部には、第1モータ31及び第1エンコーダ41が収納されている。第1モータ31は、回転駆動力を出力して第1回転機構21の回転軸を回転させる。そのため、先端部50は第1アーム11に対して回動可能に配設されている。第1エンコーダ41は、第1モータ31に取り付けられており、第1モータ31の回転位置を検出可能なパルスであるエンコーダ信号を出力する。
 第2アーム12は、回転軸及び歯車機構を有する第2回転機構22を介して第1アーム11が接続された長手部材である。第2アーム12の内部には、第2モータ32及び第2エンコーダ42が収納されている。第2モータ32は、回転駆動力を出力して第2回転機構22の回転軸を回転させる。そのため、第1アーム11は第2アーム12に対して回動可能に配設されている。第2エンコーダ42は、第2モータ32に取り付けられており、第2モータ32の回転位置を検出可能なパルスであるエンコーダ信号を出力する。
 第3支持部13は、回転軸及び歯車機構を有する第3回転機構23を介して第2アーム12が接続された部材である。第3支持部13の内部には、第3モータ33及び第3エンコーダ43が収納されている。第3モータ33は、回転駆動力を出力して第3回転機構23の回転軸を回転させる。そのため、第2アーム12は第3支持部13に対して回動可能に配設されている。第3エンコーダ43は、第3モータ33に取り付けられており、第3モータ33の回転位置を検出可能なパルスであるエンコーダ信号を出力する。
 台座部14は、上下方向に形成された支持軸を含む第4回転機構24を介して第3支持部13を支持する。台座部14の内部には、第4モータ34及び第4エンコーダ44が収納されている。第4モータ34は、回転駆動力を出力して第4回転機構24の支持軸を回転させる。そのため、第3支持部13は台座部14に対して回動可能に配設されている。第4エンコーダ44は、第4モータ34に取り付けられており、第4モータ34の回転位置を検出可能なパルスであるエンコーダ信号を出力する。
 なお、第1~第4エンコーダ41~44は、透過式の光学エンコーダとして構成されているものとした。また、第1~第4エンコーダ41~44は、エンコーダ信号としてA相及びB相の2種類のパルスが出力されるインクリメンタル式のエンコーダとした。ただし、これに限らず、例えば第1~第4エンコーダ41~44は反射式の光学エンコーダとしてもよいし、回転位置の絶対値を検出可能なアブソリュート式のエンコーダとしてもよい。
 先端部50は、ワークに対して所定の作業を行うものである。先端部50は、図2に示すように、装着部52と、採取部材53と、撮像装置60と、を備えている。装着部52は、先端部50本体の下面に配設されている。装着部52の下面には、採取部材53が装着されている。採取部材53は、例えば、複数の爪部を有し物品を把持採取するメカニカルチャックとして構成されている。採取部材53は、例えば、圧力により物品を吸着採取する吸着ノズルとしてもよい。なお、採取部材53は装着部52から取り外し可能であり、採取部材53の他に、ワークに対して所定の作業を行うための種々の部材を装着可能になっている。
 撮像装置60は、照射部61と、撮像部62と、撮像制御部63と、判定部70と、を備える(図3参照)。照射部61は、例えば、撮像部62の外周に円状に配設された照明であり、ワーク及びワークの周辺に対して光を照射可能である。撮像部62は、画像を撮像可能なユニットであり、図2の下方を撮像することでワーク及びワークの周辺を撮像する。撮像部62は、例えば、レンズなどの光学系と、被写体の像を光電変換によって電気信号に変換するイメージセンサである撮像素子と、撮像素子から入力される電気信号に基づいて画像のデータを生成する信号処理部と、を備えている。なお、特にこれに限定しないが、本実施形態では、撮像装置60は1000fps(フレーム/秒)以上でのフレームレートでの高速撮像が可能な装置とした。なお、撮像装置60のフレームレートは例えば2000fps(フレーム/秒)以下としてもよい。
 判定部70は、第1~第4エンコーダ41~44からのエンコーダ信号に基づく判定を行うユニットであり、図3に示すように、第1~第4比較部71~74と、判定合成部75と、を備えている。第1~第4比較部71~74は、第1~第4エンコーダ41~44と1対1に対応しており、第1~第4比較部71~74の各々には、第1~第4エンコーダ41~44のうち対応するエンコーダからのエンコーダ信号が例えばシリアル通信により入力される。また、第1~第4比較部71~74は、それぞれ、例えばシリアル通信により制御装置80からの所定の処理条件が入力される。第1比較部71は、第1エンコーダ41から入力したエンコーダ信号のパルス数をカウントするカウンタと、処理条件の一部であり制御装置80から入力した所定の設定値を記憶する設定値記憶部と、カウンタによるカウント値と設定値とが一致するか否かを判定する一致判定部とを備える。一致判定部は、カウント値と設定値とが一致した場合には、その旨を表す一致判定信号を判定合成部75に出力する。第2~第4比較部72~74も同様の構成をしており、入力したエンコーダ信号のパルス数のカウント値と制御装置80から入力した設定値とを比較して、両者が一致した場合には一致判定信号を判定合成部75に出力する。判定合成部75は、第1~第4比較部71~74と接続されており、第1~第4比較部71~74のいずれからも一致判定信号を入力しているか否かによって、処理条件を満たしたか否かを判定する。すなわち、判定合成部75は、例えばAND回路として構成されており、第1~第4比較部71~74のいずれからも一致判定信号を入力した場合には、処理条件を満たした旨を表す信号を撮像制御部63に出力する。一方、判定合成部75は、第1~第4比較部71~74のうち1以上から一致判定信号を入力していない場合には、処理条件を満たした旨を表す信号を撮像制御部63に出力しない。
 撮像制御部63は、撮像装置60全体を制御するものである。撮像制御部63は、照射部61に制御信号を出力して照射部61からの光の照射を制御したり、撮像部62に制御信号を出力して画像の撮像を行わせたりする。また、撮像制御部63は、撮像部62が生成した画像を入力して制御装置80に出力したり、制御装置80からの指令を入力したりする。
 なお、本実施形態では、判定部70,撮像部62が有する信号処理部,及び撮像制御部63の各々は、専用の処理回路としてのハードウェア回路で構成されているものとした。ただし、これらの1以上について、撮像装置60が有するCPU上で実行されるプログラムなどのソフトウェアで実現してもよい。
 制御装置80は、CPUを中心とするマイクロプロセッサとして構成されており、作業実行システム100の装置全体を制御する。この制御装置80は、第1~第4モータ31~34,採取部材53,撮像制御部63及び搬送装置102へ信号を出力する。制御装置80は、第1~第4比較部71~74の各々に上述した設定値を出力する。また、制御装置80には、第1~第4エンコーダ41~44からのエンコーダ信号が例えばシリアル通信により入力される。なお、図3に示すように、第1~第4エンコーダ41~44からのエンコーダ信号は、撮像装置60と制御装置80とに並列に入力されている。ここで、本実施形態では、図1に示したXYZ軸の各々の方向の位置を表すXYZ座標により、ロボットアーム1の先端部50の位置すなわち座標を表すものとした。そして、制御装置80は、この先端部50の座標と、第1~第4モータ31~34の回転位置との対応関係を表す位置対応情報(例えば換算式又はテーブルなど)を記憶部に記憶しているものとした。制御装置80は、この位置対応情報と第1~第4エンコーダ41~44からのエンコーダ信号とに基づいて、先端部50の現在の座標を検出したり、現在の座標から目標とする座標に先端部50を移動させるのに必要な第1~第4モータ31~34の各々の回転量を導出したりする。そして、制御装置80は、導出した回転量に基づいて第1~第4モータ31~34の各々に制御信号を出力して、先端部50の位置を制御する。
 基台101は、図1に示すように、ロボットアーム1や搬送装置102を配設固定するものである。この基台101には、その中央に搬送装置102が配設され、搬送装置102の後方にロボットアーム1が固定されている。
 搬送装置102は、例えば、ワークの搬入、搬送、搬出を行うユニットである。搬送装置102は、図1の前後に間隔を開けて設けられ左右方向に架け渡された1対のコンベアベルトを有している。本実施形態では、ワークすなわち複数のボルト106を載置した平板上のパレット105は、このコンベアベルトにより搬送される。
 次に、こうして構成された本実施形態の作業実行システム100の動作、特に、搬送中のパレット105上のボルト106を、撮像装置60による撮像を伴って採取部材53で採取及び移動させる処理について説明する。図4は、制御装置80及び撮像装置60の処理の流れを示す説明図である。例えば作業者が図示しない操作部を操作して作業の開始を指示すると、制御装置80は、図4の処理を開始する前に、搬送装置102を駆動させる。これにより、搬送装置102の上流側から複数のボルト106が配置されたボルト106が搬入され、搬送方向(左右方向)に搬送されていく。
 搬送装置102を駆動させると、制御装置80は、所定の処理条件を撮像装置60の判定部70に出力する(ステップS100)。ここで、処理条件は、本実施形態では、ロボットアーム1が備える先端部50が所定座標に存在するとみなせる旨の条件とした。所定座標とは、ここでは撮像装置60の撮像部62による撮像開始に適した座標であり、例えば撮像部62がロボットアーム1の前方の搬送装置102の真上且つある程度ボルト106に接近した高さの座標として予め定められているものとした。また、制御装置80は、処理条件を判定部70に出力するにあたり、処理条件を第1~第4エンコーダ41~44のエンコーダ信号の各々のカウント値に変換した値である設定値を導出し、この設定値を第1~第4比較部71~74の各々に出力する。具体的には、上述した位置対応情報に基づいて、先端部50の現在の座標に対応する第1~第4モータ31~34の現在の回転位置を基準として、先端部50が現在の座標から所定座標に移動するまでに生じるエンコーダ信号のパルス数を第1~第4エンコーダ41~44の各々について導出し、導出した値を第1~第4エンコーダ41~44の各々に対応する設定値とする。そして、この導出した各設定値を第1~第4比較部71~74の各々に出力する。なお、先端部50の現在の座標は、例えば第1~第4エンコーダ41~44がアブソリュート式のエンコーダの場合には、制御装置80は現在の第1~第4エンコーダ41~43のエンコーダ信号に基づいて導出してもよい。例えば第1~第4エンコーダ41~44がインクリメンタル式のエンコーダの場合には、制御装置80はエンコーダ信号を用いずに先端部50を座標が既知である所定の初期位置まで移動させる処理を行って現在の座標を把握してもよい。所定の初期位置は、例えば第1~第4回転機構21~24の各々を回転可能な範囲(回転角)の上限位置又は下限位置まで回転させた状態の位置としてもよいし、例えば基台101上に配設された所定のマークが撮像装置60を用いて検出される位置としてもよい。
 ステップS100で制御装置80が処理条件すなわち各設定値を出力すると、判定部70の第1~第4比較部71~74の各々は、入力した各設定値を記憶し(ステップS200)、判定部70は記憶された各設定値で表される処理条件を満たしたか否かを判定する(ステップS220)。一方、ステップS100のあと、制御装置80は、第1~第4モータ31~34を制御して先端部50を所定座標まで移動させる処理を開始し(ステップS110)、所定座標まで移動したか否かすなわち処理条件を満たしたか否かを第1~第4エンコーダ41~44からのエンコーダ信号に基づいて判定する(ステップS120)。このように、本実施形態では、制御装置80及び判定部70が第1~第4エンコーダ41~44からのエンコーダ信号を並列に入力して、同じ処理条件を満たしたか否かを各々で判定する。なお、制御装置80による処理条件を満たしたか否かの判定は、判定部70と同様に入力したエンコーダ信号のパルス数をカウントして設定値と比較することで行ってもよい。あるいは、制御装置80は、入力したエンコーダ信号と位置対応情報とに基づいて先端部50の現在の座標が所定座標に到達したかを判定することで、処理条件を満たしたか否かを判定してもよい。
 制御装置80は、ステップS120で処理条件を満たしたと判定するまで第1~第4モータ31~34の制御を続け、処理条件を満たしたと判定すると、時刻の計時を開始するモータ制御側計時開始処理を行う(ステップS130)。なお、計時を開始すると、制御装置80は、第1~第4エンコーダ41~44の少なくとも1つからパルスを入力する度に、すなわち先端部50の座標が変化する度に、そのときの先端部50の座標と時刻(例えば計時開始からの経過時間)とを対応づけて座標時刻対応情報として順次記憶していく。一方、撮像装置60では、撮像制御部63は、判定部70がステップS220で処理条件を満たしたと判定するまで待ち、満たしたと判定すると、すなわち判定合成部75から処理条件を満たした旨の信号を入力すると、撮像部62の撮像に関連する所定の撮像関連処理を行う(ステップS230)。本実施形態では、撮像関連処理は、時刻の計時を開始する撮像制御側計時開始処理と、撮像部62に画像の撮像開始を指示する撮像指令処理と、を含む。撮像部62は、撮像指令処理を入力すると、所定のフレームレート(例えば1000fps)での連続的な撮像を開始し、生成された画像を順次撮像制御部63に出力する。このように、本実施形態では、制御装置80及び撮像制御部63は同じ処理条件に基づいてそれぞれ計時を開始するため、両者はほぼ同じタイミングで計時を開始することになる。また、撮像部62は、処理条件を満たしたときすなわち先端部50が所定座標に到達したときに、複数の撮像を開始する。
 ステップS230の後、撮像制御部63は、撮像された画像の制御装置80への出力を開始する(ステップS240)。なお、撮像制御部63は、撮像部62が撮像した画像を入力すると、その画像に時刻情報(タイムスタンプ)を付加して、制御装置80へ順次出力する。時刻情報は、ステップS230で開始した計時に基づく時刻(例えばステップS230を行った時刻から画像を入力した時刻までの経過時間)を表す情報である。
 一方、制御装置80は、撮像装置60から入力した画像及び画像に付された時刻情報に基づいて第1~第4モータ31~34を制御し、ボルト106を採取すべく採取部材53をボルト106に向けて移動させる(ステップS140)。そして、入力した画像に基づいてボルト106が採取可能な状態になったか否かを判定し(ステップS150)、ボルト106を採取可能でなければステップS140以降の処理を実行する。ステップS140の処理は、例えば以下のように行う。制御装置80は、まず、撮像装置60から最初に入力した画像において、ボルト106を認識する。ボルト106の認識は、例えば、二値化処理やパターンマッチング処理などにより、画像中のボルト106の領域とそれ以外の領域(例えばパレット105の領域)とを区別し、予め用意されたボルト106の基準形状データに適合する領域を識別することにより行うことができる。次に、認識した1以上のボルト106のうち例えばパレット105の最も左前方に位置するボルト106など、他のボルト106と区別可能なボルト106を採取対象に決定する。続いて、撮像装置60から2番目に入力した画像において、採取対象に決定したボルト106と同じボルトを同様にして認識する。そして、最初に入力した画像と2番目に入力した画像とに基づいて、採取対象のボルト106の座標,移動速度及び移動方向などを推定する。例えば、最初に入力した画像の時刻情報と座標時刻対応情報とに基づいて、最初に入力した画像が撮像された時刻に対応する先端部50の座標を導出し、導出した座標と画像中に認識された採取対象のボルト106の位置及び大きさなどに基づいて、撮像された時刻における採取対象のボルト106の座標を推定する。2番目に入力した画像及び時刻情報に基づいて、同様に撮像された時刻における採取対象のボルト106の座標を推定する。そして、2つの画像の撮像の時間間隔と推定された座標とに基づいて、ボルト106の移動速度及び移動方向を推定する。このようにして採取対象のボルト106の座標,移動速度及び移動方向を推定すると、第1~第4モータ31~34の動作による先端部50の移動速度などを加味して、移動すなわち搬送装置102による搬送中の採取対象のボルト106を追跡しボルト106と採取部材53とが近づくように、第1~第4モータ31~34を制御する。このようなステップS140の処理を、ステップS150でボルト106が採取可能な状態になったと判定されるまで繰り返す。なお、撮像装置60からは順次画像が出力されるため、ステップS140の処理に用いる画像はその都度最新の複数(例えば2枚)の画像を用いて行えばよい。このように、制御装置80は、画像に付された時刻情報と座標時刻対応情報とに基づいて、画像が撮像されたときの先端部50の座標を導出し、導出した先端部50の座標と画像とに基づいて採取対象のボルト106の座標,移動速度及び移動方向を推定して、移動中のボルト106を採取するように第1~第4モータ31~34を制御する。
 ステップS150で採取対象のボルト106を採取可能と判定すると、制御装置80は、採取部材53を制御してボルト106を採取させ(ステップS160)、撮像制御部63に対して撮像停止指令を出力する(ステップS170)。撮像制御部63は、撮像停止指令を入力すると、画像の撮像を停止するよう撮像部62を制御する(ステップS270)。一方、制御装置80は、第1~第4モータ31~34を制御して採取したボルト106をパレット105上から図示しない所定位置へ移動させる(ステップS180)。なお、ステップS180では、図示しない他の搬送装置のコンベア上にボルト106を載置してもよいし、図示しない他の搬送装置に搬送される部品にボルト106を取り付けたりしてもよい。また、例えばパレット105上から移動させるボルト106の本数が定められている場合、その本数のボルト106を移動させるまで図4に示した処理を繰り返してもよい。この場合、2回目以降の処理では、第1~第4比較部71~74の各々は各設定値を既に記憶しているから、制御装置80はステップS100を省略してもよい。
 ここで、本実施形態の構成要素と本発明の構成要素との対応関係を明らかにする。本実施形態の撮像部62が本発明の撮像部に相当し、判定部70が判定部に相当し、撮像制御部63が撮像制御部に相当する。また、撮像装置60がモータ制御装置に相当し、制御装置80及び撮像装置60を備えたシステムが本発明の撮像システムに相当する。
 以上説明した本実施形態の作業実行システム100では、撮像装置60がエンコーダ信号を入力し、入力した複数のエンコーダ信号に基づいて撮像関連処理を行う。したがって、例えばエンコーダ信号を入力した制御装置80から撮像関連処理の実行指令を受ける場合と比較して、処理条件が満たされてから(先端部50が所定座標に到達してから)撮像関連処理が行われるまでの遅延時間を小さくできるなど、撮像関連処理をより適切なタイミングで行うことができる。また、作業実行システム100は、撮像装置60と、複数のエンコーダ信号を撮像装置60とは並列に入力し、入力した複数のエンコーダ信号に基づいて第1~第4モータ31~34を制御する制御装置80と、を備えている。したがって、制御装置80と撮像装置60との各々がエンコーダ信号に基づく処理をより適切なタイミングで行うことができる。
 また、撮像関連処理は、計時を開始する撮像制御側計時開始処理を含み、撮像制御部63は、撮像部62が撮像した画像に対して計時に基づく時刻情報を付加する。したがって、より適切なタイミングで計時を開始することができ、画像に対してより適切な時刻情報を付加することができる。さらに、制御装置80は、入力した複数のエンコーダ信号に基づいて処理条件を満たしたと判定した場合に、計時を開始するモータ制御側計時開始処理を行う。また、制御装置80は、撮像装置60から入力した画像と画像に付された時刻情報とに基づいて、第1~第4モータ31~34を制御する。こうすれば、撮像装置60と制御装置80とが並列にエンコーダ信号を入力し且つ同じ処理条件に基づいて計時を開始するため、撮像装置60と制御装置80との間で計時による時刻をより精度良く同期させることができる。そのため、撮像装置60は画像に対してより適切な時刻情報、すなわち制御装置80が計時している時刻とのずれがより小さい時刻情報を付加することができる。制御装置80が画像と画像に付された時刻情報とに基づいて第1~第4モータ31~34を制御する際に、より精度良く制御を行うことができる。例えば、撮像装置60の計時と制御装置80の計時との時刻のずれが大きい場合を考える。この場合、上述した図4のステップS140で制御装置80が画像に付された時刻情報と座標時刻対応情報とに基づいて撮像時の先端部50の座標を導出しても、画像に付された時刻情報と座標時刻対応情報に含まれる時刻情報とのずれが大きくなる。そのため、撮像時の先端部50の座標を精度良く導出できず、結果的に採取部材53を採取対象のボルト106まで適切に移動できない場合がある。撮像装置60と制御装置80とで時刻を精度良く同期させることで、このような不具合を抑制できる。
 さらに、前記撮像関連処理は、前記撮像部に前記画像を撮像させる撮像指令処理を含んでいてもよい。こうすれば、より適切なタイミングに撮像を行うことができる。本実施形態では、撮像開始に適した所定座標に先端部50が到達したときに、複数の画像の撮像を開始することができる。
 さらにまた、制御装置80は、撮像装置60に処理条件を出力し、判定部70は、制御装置80から入力した処理条件に基づいて処理条件を満たしたか否かの判定を行う。そのため、撮像装置60で用いられる処理条件を制御装置80が予め設定しておくことができる。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、複数のエンコーダ信号を制御装置80と撮像装置60とが並列に入力したが、これに限られない。例えば、複数のエンコーダ信号に基づく判定を行う判定装置からの情報を、制御装置80と撮像装置60とが並列に入力してもよい。図5は、この場合の変形例の作業実行システム100Aにおける電気的な接続関係を表すブロック図である。この変形例の作業実行システム100Aは、撮像装置60が判定部70を備えない代わりに、撮像装置60とは独立した判定装置90を備えている。判定装置90は、第1~第4モータ31~34の各々のエンコーダ信号を入力し、入力した複数のエンコーダ信号に基づいて所定の処理条件を満たしたか否かを判定する装置であり、判定部70と同様に第1~第4比較部71~74と、判定合成部75と、を備えている。撮像制御部63及び制御装置80は、互いに並列に判定合成部75に接続されて、各々が判定合成部75から処理条件を満たした旨の情報を入力可能になっている。また、制御装置80は、処理条件を判定装置90の第1~第4比較部71~74に出力する。この作業実行システム100Aでは、図4のステップS200及びS220の処理を判定装置90が行う。そして、制御装置80は、判定装置90から処理条件を満たした旨の情報を入力すると、ステップS130のモータ制御側計時開始処理を行う。同様に、撮像制御部63は、判定装置90から処理条件を満たした旨の情報を入力すると、ステップS230の撮像関連処理(例えば撮像制御側計時開始処理及び撮像指令処理)を行う。このように、この変形例の作業実行システム100Aでは、複数のエンコーダ信号に基づいて処理条件を満たした旨の情報を、撮像装置60と制御装置80とが判定装置90から並列に入力して計時を開始する。そのため、上述した実施形態と同様に、撮像装置60と制御装置80との間で計時による時刻をより精度良く同期させることができ、制御装置80は第1~第4モータ31~34をより精度良く制御を行うことができる。
 上述した実施形態では、第1~第4比較部71~74は制御装置80から入力した処理条件すなわち各設定値を記憶したが、これに限られない。例えば、予め第1~第4比較部71~74が設定値を記憶しており、制御装置80からの処理条件の出力を省略してもよい。
 上述した実施形態では、処理条件を満たした場合に撮像制御部63が実行する撮像関連処理は、撮像制御側計時開始処理と撮像指令処理とを含んでいたが、これに限られない。例えば、撮像関連処理は、撮像制御側計時開始処理と撮像指令処理との少なくとも一方を含んでいてもよいし、いずれも含まず他の処理を含んでいてもよい。例えば、処理条件を満たした場合に実行される撮像関連処理が、撮像制御側計時開始処理を含み且つ撮像指令処理を含まなくてもよい。この場合も、撮像装置60と制御装置80との間で計時による時刻をより精度良く同期させることができる。また、この場合、例えば処理条件を満たす前後の任意のタイミングで、撮像制御部63が撮像指令処理を行ってもよい。また、撮像装置60は、撮像制御側計時開始処理のトリガーとなる処理条件を満たしたか否かを判定する判定部と、撮像指令処理のトリガーとなる処理条件を満たしたか否かを判定する判定部と、をそれぞれ備えていてもよい。ただし、上述した実施形態のように1つの判定部70で撮像制御側計時開始処理及び撮像指令処理の両方のトリガーとなる処理条件を判定する、すなわち判定部を共通化した方が、部品点数を少なくできるため好ましい。
 上述した実施形態では、処理条件を満たした場合に実行される撮像指令処理は、撮像部62に複数の画像の撮像を開始させる処理としたが、これに限られない。例えば、撮像指令処理は、撮像部62に1つの画像を撮像させる処理としてもよい。この場合も、処理条件を満たした場合すなわち先端部50が所定座標に到達したときの画像を撮像することができる。なお、この場合、画像を1枚撮像する毎に制御装置80が処理条件を更新するものとしてもよい。こうすれば、処理条件に応じて先端部50が複数の座標の各々に位置するときの画像を撮像することができる。
 上述した実施形態において、制御装置80は、処理条件を満たしてから撮像装置60が撮像関連処理を行うまでの遅延時間を加味してステップS130のモータ制御側計時開始処理を行ってもよい。例えば、処理条件を満たしてから(先端部50が所定座標に到達してから)判定合成部75が処理条件を満たす旨の信号を出力するまでの遅延時間と、その後さらに撮像制御部63が計時を開始するまでの遅延時間とを加味してもよい。例えば、上記の撮像装置60側の遅延時間(T1とする)と制御装置80側の遅延時間(T2とする)との差に基づいて、T1>T2の場合には制御装置80はステップS120で処理条件を満たしたと判定してから(T1-T2)時間経過後にステップS130における計時を開始してもよい。あるいは、T1<T2の場合には、制御装置80はステップS120で処理条件を満たしたと判定した場合に時刻(T2-T1)から計時を開始してもよい。
 上述した実施形態では、撮像制御部63がステップS240において画像に付加する時刻情報の例として、ステップS230で計時を開始してから画像を入力した時刻までの経過時間を表す情報を挙げたが、これに限られない。例えば、撮像制御部63は、撮像部62が画像を撮像してから撮像制御部63が画像に時刻情報を付加するまでの遅延時間分、を加味した補正後の時刻情報を、画像に付加してもよい。遅延時間は、具体的には、例えば撮像部62が画像を撮像してから(例えば撮像素子が受光したタイミングから)画像が生成されて撮像制御部63がその画像を入力して時刻情報を付すまでに要する時間としてもよい。撮像制御部63は、計時開始から画像を入力した時刻までの経過時間からこの遅延時間を引いた時間(補正後の経過時間)を表す時刻情報を画像に付加してもよい。なお、遅延時間は、例えばクロック数などに基づいて画像毎に導出した測定値であってもよいし、予め設定された固定値であってもよい。また、制御装置80が遅延時間を加味して処理を行ってもよい。例えば、制御装置80は、ステップS140において、画像に付加された時刻情報で表される時刻から遅延時間を引いた時刻(補正後の時刻)に基づいて処理を行ってもよい。
 上述した実施形態では、処理条件は先端部50が所定座標に所定座標に存在するとみなせる旨の条件としたが、この所定座標は1つの座標でもよいし、複数の座標の集合体でもよい。例えば、所定の領域内に先端部50が存在するとみなせる旨の条件を処理条件としてもよい。
 上述した実施形態では、ロボットアーム1は垂直多関節ロボットとして構成された多軸ロボットとしたが、これに限らず複数の駆動軸を有する多軸ロボットであればよい。例えば、ロボットアーム1は水平多関節ロボットとしてもよいし、直交ロボットとしてもよい。
 上述した実施形態では、ロボットアーム1が備える全てのモータのエンコーダ信号を判定部70及び制御装置80が入力するものとしたが、これに限られない。判定部70及び制御装置80は、ロボットアーム1が備える複数のモータのうち2以上のエンコーダ信号を入力すればよい。
 上述した実施形態では、ロボットアーム1の先端部50に撮像装置60が配設されていたが、これに限られない。例えば、ロボットアーム1が備える採取部材53の採取対象を撮像可能な位置に撮像装置60が固定配置されていてもよい。
 上述した実施形態では、制御装置80がロボットアーム1を制御してワークであるボルト106を移動させる場合について説明したが、これに限られない。例えば制御装置80がロボットアーム1を制御してワークに対して撮像装置60を接近させて撮像を行い、画像に基づいてワークの外観検査を行うものとしてもよい。
 上述した実施形態では、ロボットアーム1と撮像装置60と制御装置80とを備える作業実行システム100として説明したが、例えばロボットアーム1に接続される制御装置80及び撮像装置60を備えた撮像システムとしてもよいし、ロボットアーム1に接続される撮像装置60単体としてもよい。
 本発明は、ボルトなどのワークの採取、検査などの処理を行う装置の技術分野に利用可能である。
 1 ロボットアーム、11,12 第1,第2アーム、13 第3支持部、14 台座部、21~24 第1~第4回転機構、31~34 第1~第4モータ、41~44 第1~第4エンコーダ、50 先端部、52 装着部、53 採取部材、60 撮像装置、61 照射部、62 撮像部、63 撮像制御部、70 判定部、71~74 第1~第4比較部、75 判定合成部、80 制御装置、90 判定装置、100,100A 作業実行システム、101 基台、102 搬送装置、105 パレット、106 ボルト。

Claims (7)

  1.  画像を撮像可能な撮像部と、
     多軸ロボットが備える複数のモータの各々のエンコーダ信号を入力し、該入力した複数のエンコーダ信号に基づいて所定の処理条件を満たしたか否かを判定する判定部と、
     前記判定部が前記処理条件を満たしたと判定した場合に、前記撮像部の撮像に関連する所定の撮像関連処理を行う撮像制御部と、
     を備えた撮像装置。
  2.  前記撮像関連処理は、計時を開始する撮像制御側計時開始処理を含み、
     前記撮像制御部は、前記撮像部が撮像した画像に対して前記計時に基づく時刻情報を付加する、
     請求項1に記載の撮像装置。
  3.  前記撮像関連処理は、前記撮像部に前記画像を撮像させる撮像指令処理を含む、
     請求項1又は2に記載の撮像装置。
  4.  請求項1~3のいずれか1項に記載の撮像装置と、
     前記複数のエンコーダ信号を前記撮像装置とは並列に入力し、該入力した複数のエンコーダ信号に基づいて前記複数のモータを制御するモータ制御装置と、
     を備えた撮像システム。
  5.  前記撮像関連処理は、計時を開始する撮像制御側計時開始処理を含み、
     前記撮像制御部は、前記撮像部が撮像した画像に対して前記計時に基づく時刻情報を付加して前記モータ制御装置に出力し、
     前記モータ制御装置は、前記入力した複数のエンコーダ信号に基づいて前記処理条件を満たしたと判定した場合に、計時を開始するモータ制御側計時開始処理を行い、
     前記モータ制御装置は、前記撮像装置から入力した前記画像と該画像に付された前記時刻情報とに基づいて、前記複数のモータを制御する、
     請求項4に記載の撮像システム。
  6.  前記モータ制御装置は、前記撮像装置に前記処理条件を出力し、
     前記判定部は、前記モータ制御装置から入力した前記処理条件に基づいて前記判定を行う、
     請求項4又は5に記載の撮像システム。
  7.  多軸ロボットが備える複数のモータの各々のエンコーダ信号を入力し、該入力した複数のエンコーダ信号に基づいて所定の処理条件を満たしたか否かを判定する判定装置と、
     画像を撮像可能な撮像部と、前記判定装置から前記処理条件を満たした旨の情報を入力した場合に計時を開始する撮像制御側計時開始処理を行い、前記撮像部が撮像した画像に対して前記計時に基づく時刻情報を付加する撮像制御部と、を有する撮像装置と、
     前記判定装置から前記処理条件を満たした旨の情報を前記撮像装置とは並列に入力し、該情報を入力した場合に計時を開始するモータ制御側計時開始処理を行い、前記撮像装置から入力した前記画像と該画像に付された前記時刻情報とに基づいて前記複数のモータを制御するモータ制御装置と、
     を備えた撮像システム。
PCT/JP2016/069982 2016-07-06 2016-07-06 撮像装置及び撮像システム WO2018008102A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2016/069982 WO2018008102A1 (ja) 2016-07-06 2016-07-06 撮像装置及び撮像システム
CN201680087199.3A CN109328126B (zh) 2016-07-06 2016-07-06 拍摄装置及拍摄系统
JP2018525874A JP6689974B2 (ja) 2016-07-06 2016-07-06 撮像装置及び撮像システム
EP16908146.0A EP3482890A4 (en) 2016-07-06 2016-07-06 IMAGING DEVICE AND IMAGING SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069982 WO2018008102A1 (ja) 2016-07-06 2016-07-06 撮像装置及び撮像システム

Publications (1)

Publication Number Publication Date
WO2018008102A1 true WO2018008102A1 (ja) 2018-01-11

Family

ID=60901638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069982 WO2018008102A1 (ja) 2016-07-06 2016-07-06 撮像装置及び撮像システム

Country Status (4)

Country Link
EP (1) EP3482890A4 (ja)
JP (1) JP6689974B2 (ja)
CN (1) CN109328126B (ja)
WO (1) WO2018008102A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230429A1 (ja) * 2019-05-10 2020-11-19 オムロン株式会社 カウンタユニット、データ処理装置、計測システム、カウンタユニット制御方法、およびデータ処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274641A (ja) * 2001-03-16 2002-09-25 Mitsubishi Electric Engineering Co Ltd 小物ワークの受渡し制御装置
JP2011201007A (ja) * 2010-03-05 2011-10-13 Fanuc Ltd 視覚センサを備えたロボットシステム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
WO2016056087A1 (ja) * 2014-10-08 2016-04-14 富士機械製造株式会社 画像取得装置およびロボット装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000071188A (ja) * 1998-08-28 2000-03-07 Aisin Seiki Co Ltd 部品供給装置
JP5725708B2 (ja) * 2009-12-24 2015-05-27 キヤノン株式会社 センサ位置姿勢計測方法
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
JP5316563B2 (ja) * 2011-02-15 2013-10-16 オムロン株式会社 画像処理装置および画像処理システム
CN203265306U (zh) * 2013-05-08 2013-11-06 山东拓维数控设备有限公司 一种工件冲孔精度精确测量装置
CN104802166B (zh) * 2013-10-10 2016-09-28 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274641A (ja) * 2001-03-16 2002-09-25 Mitsubishi Electric Engineering Co Ltd 小物ワークの受渡し制御装置
JP2011201007A (ja) * 2010-03-05 2011-10-13 Fanuc Ltd 視覚センサを備えたロボットシステム
JP2012187651A (ja) * 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
WO2016056087A1 (ja) * 2014-10-08 2016-04-14 富士機械製造株式会社 画像取得装置およびロボット装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3482890A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230429A1 (ja) * 2019-05-10 2020-11-19 オムロン株式会社 カウンタユニット、データ処理装置、計測システム、カウンタユニット制御方法、およびデータ処理方法
US11988529B2 (en) 2019-05-10 2024-05-21 Omron Corporation Counter unit, data processing device, measurement system, counter unit control method, and data processing method

Also Published As

Publication number Publication date
EP3482890A1 (en) 2019-05-15
CN109328126A (zh) 2019-02-12
JPWO2018008102A1 (ja) 2019-07-11
JP6689974B2 (ja) 2020-04-28
EP3482890A4 (en) 2020-03-11
CN109328126B (zh) 2022-06-07

Similar Documents

Publication Publication Date Title
US9741108B2 (en) Image processing apparatus and image processing system for conveyor tracking
CN210464371U (zh) 一种可调拍摄角度的工业图像采集装置
CN109108959B (zh) 机器人系统
JP2012183606A (ja) ロボット位置検出装置及びロボットシステム
JP2012166314A (ja) ロボット用位置検出装置、ロボットシステム、及びロボット用位置検出方法
JP6849631B2 (ja) 作業ロボットシステムおよび作業ロボット
WO2018008102A1 (ja) 撮像装置及び撮像システム
CN110385696B (zh) 作业机器人系统和作业机器人
JPH09307297A (ja) 電子部品装着機用補正装置およびその方法
JP6646055B2 (ja) 実装装置
JP5800614B2 (ja) トリガ発生装置
JP2020055059A (ja) 作業システム
JP2019018339A (ja) ロボットシステム
CN211282860U (zh) 一种用于边缘缺陷检测实验的转运装置及系统
EP3125664A1 (en) Component mounting device
EP4154514B1 (en) Physical object processing system and method
US20090206787A1 (en) Drive Control System and Machine Control Device
JP2020517966A (ja) 対象物を光学的に検査する検査装置、検査装置を備えた製造システム、及び、検査装置を用いて対象物を光学的に検査する方法
CN111051014B (zh) 机器人系统以及对输送的工件进行作业的方法
JP6264668B2 (ja) 機械システム、モータ制御装置、及びトリガ出力制御方法
CN203704862U (zh) 一种用于同步位置探测的全反射棱镜装置
CN111221298A (zh) 具有视觉定位的加工系统及加工方法
WO2022259387A1 (ja) 生産システム
CN107839329A (zh) 一种基于多尺寸芯片与多膜片匹配的cob自动贴膜机
JP5421885B2 (ja) 部品実装方法、および、部品実装機

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018525874

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16908146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016908146

Country of ref document: EP

Effective date: 20190206