WO2024052959A1 - 画像符号化装置および画像処理システム並びに部品実装機 - Google Patents

画像符号化装置および画像処理システム並びに部品実装機 Download PDF

Info

Publication number
WO2024052959A1
WO2024052959A1 PCT/JP2022/033275 JP2022033275W WO2024052959A1 WO 2024052959 A1 WO2024052959 A1 WO 2024052959A1 JP 2022033275 W JP2022033275 W JP 2022033275W WO 2024052959 A1 WO2024052959 A1 WO 2024052959A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
image processing
pixel
values
Prior art date
Application number
PCT/JP2022/033275
Other languages
English (en)
French (fr)
Inventor
伸夫 長坂
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to PCT/JP2022/033275 priority Critical patent/WO2024052959A1/ja
Publication of WO2024052959A1 publication Critical patent/WO2024052959A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction

Definitions

  • This specification discloses an image encoding device, an image processing system, and a component mounting machine.
  • DPCM Differential Pulse Code Modulation
  • Patent Document 1 describes a method in which continuous image signals read from an object to be read are encoded and compressed according to the gradation of the image. It has been disclosed that when the absolute value of the difference is less than a certain value, the difference is coded, and when it is more than the certain value, the absolute value of the gradation data is coded. According to this method, when the difference in gradation between pixels is small, a small number of simple codes are sufficient, but when the difference is large, error codes are generated continuously by indicating the absolute value of the density of that pixel with a code. It is possible to prevent this from happening.
  • the image By encoding an image using DPCM, the image can be compressed at a high compression rate.
  • the resolution of imaging devices has been increasing and the amount of image data has been increasing, so it is desired to further improve the compression rate of images without deteriorating the image quality.
  • the main purpose of the present disclosure is to further improve the compression rate of images without deteriorating the image quality.
  • the present disclosure has taken the following measures to achieve the above-mentioned main objective.
  • the image encoding device of the present disclosure includes: An image encoding device that encodes an image using differential pulse code modulation that encodes a difference value between gradation data of a pixel and gradation data of a previous pixel, comprising: when the plurality of consecutive difference values are a predetermined set of specific values, encoding the plurality of difference values into data of a predetermined number of bits;
  • the gist is that.
  • the image compression rate can be further improved without deteriorating the image quality.
  • the image processing system of the present disclosure can achieve the same effects as the image encoding device of the present disclosure. Furthermore, since the component mounting machine of the present disclosure includes the image processing system of the present disclosure, similar effects can be achieved.
  • FIG. 1 is a schematic configuration diagram of a component mounting machine.
  • FIG. 3 is a block diagram showing an electrical connection relationship between a mounting head and a mounting control device.
  • 3 is a flowchart illustrating an example of image encoding processing.
  • 3 is a flowchart illustrating an example of image encoding processing.
  • 3 is a flowchart illustrating an example of image encoding processing.
  • FIG. 2 is an explanatory diagram showing an example of an encoding table. It is an explanatory diagram showing an example of an image.
  • FIG. 8 is an explanatory diagram showing the number of pixels (pixel number counter) for each difference value when the image in FIG. 7 is encoded by DPCM.
  • FIG. 8 is an explanatory diagram showing the number of each transform value (conversion counter) of 1 to 3 symbols converted when the image of FIG. 7 is encoded by DPCM and the number of each transform value of consecutive difference values.
  • FIG. 8 is an explanatory diagram showing the number of pixels (pixel number counter) and the total number of bits of the image in FIG. 7.
  • FIG. 8 is an explanatory diagram showing the number of each conversion value (conversion counter) of 1 to 3 symbols and the total number of bits when the image in FIG. 7 is encoded one difference value at a time.
  • FIG. 8 is an explanatory diagram showing the number of each conversion value (conversion counter) of symbols 1 to 3, the number of pixels (pixel number counter), and the total number of bits when the image in FIG. 7 is encoded by the DPCM of the present disclosure.
  • FIG. FIG. 7 is a block diagram showing an electrical connection relationship between a mounting head and a mounting control device according to another embodiment. 3 is a flowchart illustrating an example of image processing.
  • FIG. 1 is a schematic diagram of the component mounting machine 10.
  • FIG. 2 is a block diagram showing the electrical connection relationship between the mounting head 40 and the mounting control device 60.
  • the component mounting machine 10 includes a base 11, a component supply device 21, a substrate transport device 22, a head moving device 30, a mounting head 40, and a mounting control device 60 (see FIG. 2). and.
  • the component mounting machine 10 also includes a parts camera 26, a mark camera 28, and the like.
  • the component supply device 21 is installed at the front of the base 11.
  • the component supply device 21 is, for example, a tape feeder that includes a reel wound with a tape in which cavities are formed at predetermined intervals and components are housed in the cavities, and supplies components by feeding the tape from the reel. .
  • the substrate conveyance device 22 has a pair of conveyor belts that are spaced apart from each other in the front and rear of the base 11 (in the Y-axis direction) in FIG. 1 and spanned in the left-right direction (X-axis direction).
  • the substrate S is conveyed from left to right in the figure by a conveyor belt of the substrate conveyance device 22.
  • the head moving device 30 moves the mounting head 40 back and forth and left and right (XY axis directions). As shown in FIG. 1, this head moving device 30 includes an X-axis slider 32 and a Y-axis slider 34.
  • the X-axis slider 32 is supported by a pair of X-axis guide rails provided on the front surface of the Y-axis slider 34 so as to extend in the left-right direction, and is driven by an X-axis motor (servo motor) 36 (see FIG. 2). It can be moved left and right.
  • the Y-axis slider 34 is supported by a pair of Y-axis guide rails provided in the upper part of the housing (not shown) so as to extend in the front-rear direction, and is driven by a Y-axis motor (servo motor) 38 (see FIG. 2). It can be moved back and forth by.
  • the left and right positions of the X-axis slider 32 are detected by an X-axis encoder 37 (see FIG. 2), and the front and rear positions of the Y-axis slider 34 are detected by a Y-axis encoder 39 (see FIG. 2).
  • a mounting head 40 is attached to the X-axis slider 32.
  • the mounting head 40 can be moved back and forth and left and right along the XY plane (horizontal plane) by driving and controlling the head moving device 30 (X-axis motor 36 and Y-axis motor 38).
  • the X-axis slider 32 also includes a mark camera 28 for capturing and reading the reference marks attached to the substrate S from above. Note that the mark camera 28 is electrically connected to a circuit board (not shown) installed on the X-axis slider 32, and connected to the mounting control device 60 via the circuit board.
  • the mounting head 40 is a rotary head including a plurality of nozzle holders (not shown) arranged at equal angular intervals in the circumferential direction.
  • a suction nozzle 41 is detachably attached to the tip of each nozzle holder.
  • the tip of the suction nozzle 41 is provided with a suction port that communicates with a negative pressure source via a solenoid valve.
  • the suction nozzle 41 suctions the component P using negative pressure from a negative pressure source that is supplied with the solenoid valve open.
  • the mounting head 40 includes an R-axis motor (servo motor) 42 that rotates (revolutions) each nozzle holder (suction nozzle 41) in the circumferential direction, and a ⁇ -axis motor (servo motor) 43 that rotates (rotates) each nozzle holder. , and a Z-axis motor (servo motor) 44 that moves up and down (up and down) the nozzle holder at a predetermined turning position among each nozzle holder.
  • R-axis motor (servo motor) 42 that rotates (revolutions) each nozzle holder (suction nozzle 41) in the circumferential direction
  • a ⁇ -axis motor (servo motor) 43 that rotates (rotates) each nozzle holder.
  • a Z-axis motor (servo motor) 44 that moves up and down (up and down) the nozzle holder at a predetermined turning position among each nozzle holder.
  • the mounting head 40 includes an R-axis encoder 45 for detecting the rotational position of each nozzle holder, a ⁇ -axis encoder 46 for detecting the rotational position of each nozzle holder, and a ⁇ -axis encoder 46 for detecting the vertical position of the nozzle holder at a predetermined position.
  • a Z-axis encoder 47 is provided.
  • the mounting head 40 includes a side camera 48 for capturing an image of the tip of the suction nozzle 41 from the side, a light source unit 49 for illuminating the subject of the side camera 48 (the component P to be suctioned by the suction nozzle 41), It also includes an image encoding unit 50 for encoding the image captured by the camera 48 and an optical communication unit 51 for communicating with the mounting control device 60.
  • the optical communication section 51 is connected to an optical communication section 67 included in the mounting control device 60 via an optical fiber cable 55.
  • the mounting head 40 exchanges various signals with the mounting control device 60 through optical communication.
  • Various signals sent to the mounting control device 60 include position signals from each axis encoder (R-axis encoder 45, ⁇ -axis encoder 46, and Z-axis encoder 47), and position signals captured by the side camera 48 and encoded by the image encoding unit 50. This includes image signals etc.
  • Various signals received from the mounting control device 60 include control signals for each axis motor (R-axis motor 42, ⁇ -axis motor 43, and Z-axis motor 44), control signals for the side camera 48, and a light source unit. 49 includes control signals and the like.
  • the image encoding unit 50 encodes the image captured by the side camera 48 using differential pulse code modulation (DCPM) in order to reduce communication data. Details of DCPM will be described later.
  • DCPM differential pulse code modulation
  • the mounting control device 60 is provided on the base 11, and as shown in FIG. and an optical communication section 67.
  • the CPU 61, the storage section 62, the servo amplifier 63, the image decoding section 64, and the image processing section 65 are electrically connected. Further, the CPU 61 , the storage section 62 , the servo amplifier 63 , the image decoding section 64 , and the image processing section 65 are electrically connected to an input/output interface 66 and to an optical communication section 67 .
  • the storage unit 62 includes a RAM that temporarily stores data, and an SSD or HDD that stores processing programs and various data.
  • the input/output interface 66 includes each axis encoder (X-axis encoder 37, Y-axis encoder 39) and each axis motor (X-axis motor 36, Y-axis motor 38) of the component supply device 21, the substrate transfer device 22, and the head moving device 30. ) are electrically connected. Furthermore, the input/output interface 66 includes the parts camera 26, a light source unit 27 for illuminating the object of the parts camera 26, a display device 25 for displaying various information, a mark camera 28, and a light source for illuminating the object of the mark camera 28. The unit 29 and the like are also electrically connected.
  • the servo amplifier 63 performs feedback control of each axis motor (servo motor).
  • the servo amplifier 63 inputs position signals from each axis encoder (X-axis encoder 37 and Y-axis encoder 39) of the head moving device 30 via an input/output interface 66, and controls the head moving device based on the input position signals.
  • 30 axis motors (X-axis motor 36 and Y-axis motor 38), and outputs the control signals to the corresponding axis motors via the input/output interface 66.
  • the servo amplifier 63 receives position signals from each axis encoder (R-axis encoder 45, ⁇ -axis encoder 46, and Z-axis encoder 47) of the mounting head 40 via the optical communication section 67, and inputs the position signal to the input position signal. Based on this, a control signal for each axis motor (R-axis motor 42, ⁇ -axis motor 43, and Z-axis motor 44) of the corresponding mounting head 40 is generated, and the control signal is transmitted to each corresponding axis motor via the optical communication section 67. Output to.
  • the image decoding unit 64 decodes the image captured by the side camera 48 and encoded by the image encoding unit 50 using a decoding table.
  • the image processing unit 65 processes image signals captured by various cameras (parts camera 26, mark camera 28, side camera 48).
  • the image processing section 65 receives image signals from the parts camera 26 and mark camera 28 via an input/output interface 66, and also receives an image signal decoded by the image decoding section 64.
  • the CPU 61 of the mounting control device 60 first controls the head moving device 30 so that the mark camera 28 moves above the reference mark attached to the substrate S after the substrate S is carried in and positioned by the substrate transport device 22. .
  • the servo amplifier 63 inputs position signals from the X-axis encoder 37 and Y-axis encoder 39 via the input/output interface 66 based on a control command from the CPU 61, and also outputs a control signal based on the input position signal. This is done by generating and outputting it to the X-axis motor 36 and Y-axis motor 38 via the input/output interface 66.
  • the CPU 61 controls the mark camera 28 and its light source unit 29 so that the reference mark is imaged.
  • This imaging control is performed by the CPU 61 transmitting control signals to the mark camera 28 and the light source unit 29.
  • the reference mark on the substrate S is imaged by the mark camera 28.
  • the image signal from the mark camera 28 is output to the image processing section 65.
  • the image processing unit 65 performs image processing to recognize the reference mark in the image based on the input image signal.
  • the CPU 61 recognizes the position of the substrate S based on the result of image processing by the image processing section 65.
  • the CPU 61 performs a suction operation to cause the suction nozzle 41 to suction the component P. That is, the CPU 61 controls the head moving device 30 so that the suction nozzle 41 moves above the component P supplied by the component supply device 21. Note that the control of the head moving device 30 has been described above. Subsequently, the CPU 61 controls the Z-axis motor 44 so that the suction nozzle 41 descends, and supplies negative pressure to the suction port of the suction nozzle 41. As a result, the component P is attracted to the suction nozzle 41.
  • the Z-axis motor 44 is controlled by the servo amplifier 63 based on a control command from the CPU 61, which transmits the position signal from the Z-axis encoder 47 to the optical communication section 51 of the mounting head 40, the optical fiber cable 55, and the optical communication between the mounting control device 60.
  • a control signal generated based on the input position signal is transmitted to the Z-axis via the optical communication section 67 of the mounting control device 60, the optical fiber cable 55, and the optical communication section 51 of the mounting head 40 in order. This is done by outputting to the motor 44.
  • the CPU 61 causes the suction nozzles 41 (nozzle holder) to rotate by a predetermined amount until the scheduled number of components P is sucked.
  • the R-axis motor 42 is controlled so as to repeat the suction of the component P to the suction nozzle 41 to be suctioned next.
  • the servo amplifier 63 transmits the position signal from the R-axis encoder 45 to the optical communication section 51 of the mounting head 40, the optical fiber cable 55, and the mounting control device 60 based on a control command from the CPU 61.
  • a control signal generated based on the input position signal is sent to the R axis via the optical communication section 67 of the mounting control device 60, the optical fiber cable 55, and the optical communication section 51 of the mounting head 40 in this order. This is done by outputting to the motor 42.
  • the CPU 61 controls the side camera 48 and the light source unit 49 so that the tip of the suction nozzle 41 is imaged from the side.
  • the CPU 61 sequentially transmits control signals to the side camera 48 and the light source unit 49 via the optical communication section 67 of the mounting control device 60, the optical fiber cable 55, and the optical communication section 51 of the mounting head 40.
  • the image signal from the side camera 48 is encoded by an image encoder 50.
  • the encoded image signal is output to the image decoding unit 64 via the optical communication unit 51 of the mounting head 40, the optical fiber cable 55, and the optical communication unit 67 of the mounting control device 60 in order, and is then outputted to the image decoding unit 64.
  • the image processing section 65 After being decoded, it is output to the image processing section 65.
  • the image processing section 65 receives the image signal decoded by the image decoding section 64, it performs image processing to recognize the part P (part side surface) in the image.
  • the CPU 61 determines the suction state of the component P with respect to the suction nozzle 41 (for example, the presence or absence of a suction error, the quality of the suction posture, etc.) based on the result of image processing by the image processing unit 65.
  • the CPU 61 When the suction of the components P to all the suction nozzles 41 to be suctioned is completed, the CPU 61 performs a mounting operation to mount the suctioned components P onto the board S. That is, the CPU 61 controls the head moving device 30 so that the mounting head 40 moves above the parts camera 26 . Subsequently, the CPU 61 controls the parts camera 26 and the light source unit 27 so that the parts P sucked by the suction nozzle 41 are imaged. This imaging control is performed by the CPU 61 transmitting control signals to the parts camera 26 and the light source unit 27 via the input/output interface 66. The image signal from the parts camera 26 is output to the image processing section 65 via the input/output interface 66.
  • the image processing unit 65 performs image processing to recognize the component P (lower surface of the component) in the image based on the input image signal.
  • the CPU 61 calculates the positional deviation amount (adsorption deviation amount) of the component P sucked by each suction nozzle 41 based on the processing result of the image processing unit 65, and determines the mounting position of the board S based on the calculated positional deviation amount. and correct the mounting angle. After correcting the mounting position and mounting angle, the CPU 61 controls the head moving device 30 so that the component P sucked by the suction nozzle 41 moves above the corrected mounting position.
  • the CPU 61 controls the ⁇ -axis motor 43 and the Z-axis motor 44 so that the suction nozzle 41 descends as the component P reaches the corrected mounting angle, and also releases the supply of negative pressure to the suction port of the suction nozzle 41.
  • the ⁇ -axis motor 43 is controlled by the servo amplifier 63 transmitting the position signal from the ⁇ -axis encoder 46 through the optical communication section 51 of the mounting head 40, the optical fiber cable 55, and the optical communication section 67 in order based on a control command from the CPU 61.
  • the control of the Z-axis motor 44 has been described above.
  • the component P is mounted on the board S at the mounting position and mounting angle. If an unmounted component P remains in any of the plurality of suction nozzles 41 of the mounting head 40, the CPU 61 causes the component P to be suctioned to the next suction nozzle 41 to be mounted until all the components P are mounted. Repeat the mounting of the component P.
  • the CPU 61 controls the side camera 48 and the light source unit 49 so that the tip of the suction nozzle 41 is imaged from the side every time a mounting operation is performed.
  • the control of the side camera 48 and the light source unit 49 has been described above.
  • the image signal from the side camera 48 is encoded by the image encoding unit 50, transferred to the mounting control device 60 by optical communication, and decoded by the image decoding unit 64 to form an image. It is output to the processing section 65.
  • the image processing unit 65 performs image processing to recognize the part P (part side surface) in the image based on the input image signal. Then, the CPU 61 determines whether there is a take-home error in which the suction nozzle 41 takes back the component P without mounting it on the board S, based on the result of the image processing by the image processing unit 65.
  • the mounting control device 60 acquires an image of the component P captured by the side camera 48 provided on the mounting head 40 through optical communication during the suction operation and mounting operation of the component P. For this reason, if it takes a long time to transfer the image, a waiting time occurs in the suction operation and the mounting operation, which may reduce production efficiency. Therefore, in this embodiment, the image signal is compressed by DPCM before being transferred, thereby enabling high-speed transfer.
  • FIGS. 3 to 5 are flowcharts illustrating an example of the image encoding process executed by the image encoding unit 50.
  • FIG. 6 is an explanatory diagram showing an example of an encoding table used in encoding processing.
  • a grayscale image in which one pixel is expressed with 256 gradations (8 bits) is encoded will be described as an example.
  • the image encoding unit 50 When the image encoding process is executed, the image encoding unit 50 first acquires an image from the side camera 48 (S100). Next, the image encoding unit 50 sets the variable i to the value 1 (S110), and determines whether the i-th pixel is the first pixel of the line in sequential scanning of the image line by line. (S120). In this embodiment, a vertically long image is handled as an image, as shown in FIG. Then, the image is scanned from the top to the bottom, and when it reaches the bottom, it moves to the top of the column one column to the right, and by repeating the process of scanning from the top to the bottom, the starting pixel at the top left is This is performed for each column line from 1 to the end point pixel at the bottom right.
  • the image is scanned from left to right, and when it reaches the right end, it moves to the left end of the row below, and by repeating the scanning from left to right, the image is scanned from the upper left pixel. It may be performed for each row line up to the lower right pixel. In this case, it is suitable to apply this method to horizontally long images.
  • the image encoding unit 50 determines that the i-th pixel is the first pixel of the line, it converts the gradation value of the i-th pixel into a 3-symbol code value (S130), and also converts the i-th pixel into a code value.
  • the pixel is set to a pixel that has already been converted (S140), and the process advances to S280.
  • the process of S130 converts the gradation value of one pixel represented by 8 bits into a 12-bit code value.
  • the upper 8 bits (B4 to B11) of the code value are assigned the raw data of the gradation value
  • the lower 4 bits (B0 to B3) of the code value are assigned the raw data of the gradation value to the upper 8 bits.
  • Data indicating that data is assigned is assigned (see the 15th code value in FIG. 6). Since 8-bit data is converted to 12-bit data, the compression ratio, which is the ratio of the amount of data after conversion to the amount of data before conversion, is 150%.
  • the image encoding unit 50 determines that the i-th pixel is not the first pixel of the line, it calculates the difference value D(i) between the gradation value of the i-th pixel and its predicted value (S150).
  • the predicted value for example, the gradation value of the (i-1)th pixel that is continuous with the i-th pixel can be used.
  • the image encoding unit 50 determines whether the (i-1)th pixel has been encoded (S160). When the image encoding unit 50 determines that the (i-1)th pixel has been encoded, the process proceeds to S180.
  • the image encoding unit 50 determines that the (i-1)th pixel has not been encoded, the image encoding unit 50 sets the difference value D(i-1) calculated in the previous step S150 and the difference value D( It is determined whether the consecutive difference values D(i-1) and D(i) of i) are a set of specific values (S170).
  • the set of specific values is a set of (0,0) where the difference value D(i-1) is 0 and the difference value D(i) is 0, and the set where the difference value D(i-1) is 0.
  • the image encoding unit 50 determines whether the consecutive difference values D(i-1) and D(i) are not a specific value set, it compresses the image using normal DPCM. That is, the image encoding unit 50 determines whether the previously calculated difference value D(i-1) is greater than or equal to - ⁇ (for example, ⁇ is 5) and less than or equal to ⁇ (S180); is also a large value, for example, it is determined whether or not it is greater than or equal to 12) and less than or equal to ⁇ (S190).
  • the image encoding unit 50 determines that the difference value D(i-1) is greater than or equal to - ⁇ and less than or equal to ⁇
  • the image encoding unit 50 converts the difference value D(i-1) into a code value of one symbol (S200), and ( The i-1)th pixel is set as an encoded pixel (S220), and the process proceeds to S250.
  • the process of S200 converts the gradation value of the (i-1)th pixel expressed by 8 bits into a 4-bit (B0 to B3) code value.
  • data corresponding to the difference value D(i-1) is assigned to the 4 bits (B0 to B3) of the code value (see the second to twelfth code values in FIG. 6).
  • the compression ratio is 50%.
  • the image encoding unit 50 determines that the difference value D(i-1) is not more than - ⁇ and less than ⁇ but more than - ⁇ and less than ⁇ , the image encoding unit 50 converts the difference value D(i-1) into two symbols. (S210), the (i-1)th pixel is set as an encoded pixel (S220), and the process advances to S250. The process of S210 converts the gradation value of the (i-1)th pixel expressed by 8 bits into an 8-bit code value (B0 to B7).
  • the upper 4 bits (B4 to B7) of the code value are assigned data corresponding to the difference value D(i-1), and the lower 4 bits (B0 to B3) of the code value are assigned the upper 4 bits.
  • Data indicating that data corresponding to the difference value D(i-1) is assigned is assigned to (see the 16th to 29th code values in FIG. 6). Since 8-bit data is converted to 8-bit data, the compression ratio is 100%. In other words, the amount of data does not increase or decrease.
  • the image encoding unit 50 determines in S180 and S190 that the difference value D(i-1) is not greater than or equal to - ⁇ and less than or equal to ⁇ , nor greater than or equal to - ⁇ and less than or equal to ⁇ , the image encoding unit 50 encodes the (i-1)th pixel.
  • the gradation value of is converted into a code value of 3 symbols (S230), the (i-1)th pixel is set to already encoded (S240), and the process proceeds to S250.
  • S130 the gradation value of one pixel represented by 8 bits is converted to a 12-bit code value, so the compression ratio is 150% (see the 15th code value in FIG. 6). .
  • the image encoding unit 50 determines in S170 that the consecutive difference values D(i-1) and D(i) correspond to a set of specific values, the image encoding unit 50 converts the difference values D(i-1) and D(i) into It is converted into a 4-bit code value (S260), the (i-1)th pixel and the i-th pixel are set to have been encoded (S270), and the process advances to S280.
  • the process of S260 converts the gradation value of two pixels represented by 16 bits into a 4-bit code value. In this case, data corresponding to a set of specific values of two difference values D(i-1) and D(i) is assigned to the 4 bits (B0 to B3) of the code value (first and second in FIG. 6). (See code values 13th and 14th). Since 16-bit data is converted to 4-bit data, the compression ratio is 25%.
  • the image encoding unit 50 determines whether the i-th pixel is the pixel at the end of the line (S250). If the image encoding unit 50 determines that the i-th pixel is not the pixel at the end of the line, the process proceeds to S280. On the other hand, when the image encoding unit 50 determines that the i-th pixel is the pixel at the end of the line, it determines whether the currently calculated difference value D(i) is greater than or equal to - ⁇ and less than or equal to ⁇ (S300); It is determined whether the value is greater than or equal to ⁇ and less than or equal to ⁇ (S310).
  • the image encoding unit 50 determines that the difference value D(i) is greater than or equal to ⁇ and less than or equal to ⁇ , the image encoding unit 50 converts the difference value D(i) into a code value of one symbol as in S200 (S320), The th pixel is set as an encoded pixel (S340), and the process proceeds to S280.
  • the gradation value of the i-th pixel represented by 8 bits is converted to a 4-bit code value, so the compression ratio is 50% (see the 2nd to 12th code values in Figure 6). .
  • the image encoding unit 50 determines that the difference value D(i) is not more than - ⁇ and less than ⁇ but more than - ⁇ and less than ⁇ , the image encoding unit 50 converts the difference value D(i) into 8 bits as in S210. (S330), sets the i-th pixel to the encoded pixel (S340), and proceeds to S280.
  • the gradation value of the i-th pixel represented by 8 bits is converted to an 8-bit code value, so the compression ratio is 100% (see code values from 16th to 29th in Figure 6). ).
  • the image encoding unit 50 determines that the difference value D(i) is not greater than or equal to - ⁇ and less than or equal to ⁇ , nor greater than or equal to - ⁇ and less than or equal to ⁇ , the image encoding unit 50 sets the tone value of the i-th pixel to three symbols as in S230. (S350), sets the i-th pixel to already encoded (S360), and proceeds to S280.
  • S350 sets the i-th pixel to already encoded
  • S280 proceeds to S280.
  • the gradation value of one pixel represented by 8 bits is converted to a 12-bit code value, so the compression ratio becomes 150% and the amount of data increases.
  • the image encoding unit 50 increments the variable i by the value 1 (S280), and checks whether the value of the variable i is larger than the number of pixels, i.e. It is determined whether encoding has been completed for all pixels (S290). If the image encoding unit 50 determines that the value of the variable i is equal to or less than the number of pixels of the image, the process returns to S120. On the other hand, if the image encoding unit 50 determines that the value of the variable i is greater than the number of pixels of the image, it determines that encoding has been completed for all pixels, and ends the image encoding process.
  • FIG. 8 is an explanatory diagram showing the number of pixels (pixel number counter) for each difference value when the image in FIG. 7 is encoded by DPCM.
  • FIG. 9 is an explanatory diagram showing the number of each conversion value (conversion counter) of 1 to 3 symbols converted when the image in FIG. 7 is encoded by DPCM and the number of each conversion value of consecutive difference values. be.
  • the difference in gradation between pixels is small, and the frequency of appearance of the difference value (i) is approximated by a normal distribution centered on 0, as shown in FIG. Therefore, as shown in FIG.
  • the frequency of appearance of a plurality of consecutive difference values D(i-1) and D(i) is that the set of (0, 0) is the most frequent, and the set of (0, +1) is the most frequent. This follows the pair of and the pair of (0, -1). From this, rather than assigning the difference value (i) of -6 or +6, which has a relatively low appearance frequency, to a code value of 1 symbol (4 bits), these difference values (i) are assigned 2 symbols (8 bits). Continuous difference values D(i-1) and D(i), such as (0, 0), (0, +1), and (0, -1) that appear frequently while being assigned to the code value of , are combined into 1. The overall amount of data can be reduced by assigning it to the code value of the symbol (4 bits).
  • FIG. 10A is an explanatory diagram showing the number of pixels (pixel number counter) and the total number of bits of the image in FIG. 7.
  • FIG. 10B is an explanatory diagram showing the number of each conversion value (conversion counter) of 1 to 3 symbols and the total number of bits when the image in FIG. 7 is encoded one difference value at a time.
  • FIG. 10C is an explanatory diagram showing the number of each conversion value (conversion counter) of 1 to 3 symbols, the number of pixels (pixel number counter), and the total number of bits when the image in FIG. 7 is encoded by the DPCM of the present disclosure. It is. Note that in FIG. 10B, since one converted value always represents one pixel, the conversion counter matches the pixel number counter. On the other hand, in FIG.
  • one conversion value may represent one pixel or two pixels, so the conversion counter does not necessarily match the pixel number counter.
  • FIG. 11 is a block diagram showing the electrical connection relationship between the mounting head 140 and the mounting control device 60 according to another embodiment.
  • the mounting head 140 according to another embodiment includes, in addition to the side camera 48 and image encoding section 50 similar to the mounting head 40 of this embodiment, an image processing section for processing the image captured by the side camera 48. 144.
  • the image processing section 144 is electrically connected to the side camera 48 and the image encoding section 50, and exchanges signals and data.
  • processing of images captured by the parts camera 26 and mark camera 28 is executed by the image processing unit 65 of the mounting control device 60.
  • FIG. 12 is a flowchart illustrating an example of image processing performed by the image processing unit 144.
  • the image processing unit 144 first acquires an image from the side camera 48 (S400). Subsequently, the image processing unit 144 performs image processing on the acquired image (S402).
  • the image processing is a process of recognizing the part P (part side surface) in the image.
  • the result of the image processing is normal when the part P is recognized in the normal position relative to the suction nozzle 41, and when the part P cannot be recognized (suction error) or when the part P is recognized. If the position is different from the normal position (poor suction posture), it becomes abnormal.
  • the image processing unit 144 determines whether the result of the image processing is normal (S420). If the image processing unit 144 determines that the image processing result is normal, it transmits the image processing result to the mounting control device 60 without transmitting the image (S430), and ends the image processing. On the other hand, if the image processing unit 144 determines that the image processing result is not normal, the image encoding unit 50 encodes the image acquired in S400 (S440), and implements the image processing result and the encoded image. The information is transmitted to the control device 60 (S450), and the image processing ends.
  • the mounting head 40 includes the image processing unit 144 that processes the image captured by the side camera 48, and if the result of the image processing is normal, only the result of the image processing is implemented. If the result of the image processing is abnormal, an encoded image obtained by encoding the obtained image in addition to the result of the image processing is transmitted to the implementation control device 60. This allows the amount of data to be transmitted to be reduced compared to the case where all images captured by the side camera 48 are transmitted. Note that if the image processing result is normal, the image processing unit 144 sends only the image processing result, and if the image processing result is abnormal, the image processing unit 144 sends the encoded image in addition to the image processing result. Even if the encoded image has been transmitted, but the result of image processing is normal, the encoded image may be transmitted.
  • the image encoding unit 50 when two consecutive difference values are a set of specific values, the image encoding unit 50 encodes the two consecutive difference values into a code value of one symbol. However, depending on the image to be encoded, if three consecutive difference values are a set of specific values (for example, a set of (0, 0, 0)), the image encoding unit 50 may The difference value may be encoded into a code value of one symbol.
  • the mounting head 40 is connected to the mounting control device 60 by wire (optical fiber cable 55), but the mounting head 40 may be connected to the mounting control device 60 so as to be able to communicate wirelessly. That is, the mounting head 40 may transmit the encoded image encoded by the image encoding unit 50 to the mounting control device 60 by wireless communication.
  • the image encoding device (image encoding unit 50) of the present disclosure is applied to encode an image to be transmitted to a control device, but it is applied to an image encoding device that encodes an image to be stored in the storage unit 62. May be applied to In this case, the image encoding unit 50 may be provided in the mounting control device 60.
  • the image encoding device (image encoding unit 50) of the present disclosure is applied to the component mounter 10, but it is not limited to this, and can be applied to other devices equipped with a camera such as an articulated robot. It can be applied to any device.
  • the image encoding device of the present disclosure when a plurality of consecutive difference values are a set of predetermined values, the plurality of consecutive difference values are encoded into data of a predetermined number of bits. .
  • a plurality of difference values can be encoded into one piece of data by determining a set of values that appear frequently among a plurality of continuous difference values as a set of predetermined values. Therefore, the compression rate can be further increased compared to the case where each difference value is encoded into one piece of data. As a result, the compression rate of the image can be further improved without deteriorating the image quality.
  • the plurality of consecutive difference values when the plurality of consecutive difference values are not a set of the specific values, encoding one of the difference values into data within the first data range of the predetermined number of bits;
  • the plurality of consecutive difference values when the plurality of consecutive difference values are a set of the specific values, the plurality of difference values may be encoded into data within a second data range different from the first data range of the predetermined number of bits. .
  • the compression ratio can be further increased by encoding one difference value into one data, encoding multiple difference values into one data, and mixing the predetermined number of bits of data. .
  • the plurality of consecutive difference values may be two consecutive difference values.
  • the set of specific values is a set of the two difference values in which the previous difference value is 0 and the next difference value is 0, and a set of the two difference values in which the previous difference value is 0 and the next difference value is 0. It may include at least one of a set in which the difference value is +1 and a set in which the previous difference value of the two difference values is 0 and the next difference value is -1. This reduces the overall amount of data by encoding the two difference values into one data when the set of specific values mentioned above has a high occurrence rate and a set of specific values appears as a difference between two values. This is because it has been experimentally confirmed that it can be done.
  • the present disclosure is not limited to the form of an image encoding device, but can also be made to the form of an image processing system. That is, the image processing system of the present disclosure encodes an image using differential pulse code modulation that encodes the difference value between the gradation data of a pixel and the gradation data of the previous pixel. an encoding unit that encodes the plurality of difference values into data of a predetermined number of bits when the difference values are a predetermined set of specific values, and the encoding unit communicates the encoded data. and a decoding unit that decodes the image from the input encoded data.
  • the image processing system of the present disclosure encodes an image using differential pulse code modulation that encodes the difference value between the gradation data of a pixel and the gradation data of the previous pixel.
  • an encoding unit that encodes the plurality of difference values into data of a predetermined number of bits when the difference values are a predetermined set of specific values, and the encoding unit communicates the encoded data.
  • the present disclosure can also be implemented in the form of a component mounting machine. That is, the component mounting machine of the present disclosure may include the above-described image processing system of the present disclosure, and the encoding section may be installed in a movable section, and the decoding section may be installed in a fixed section.
  • the image processing apparatus may include an image processing section that is installed in the fixed section and processes the image decoded by the decoding section.
  • the movable part includes an image processing section that acquires and processes an image, and the encoding section encodes the image when the result of image processing by the image processing section is a specific result.
  • the data may also be sent to the decoding unit. In this way, the amount of data to be transmitted can be further reduced compared to the case where all acquired images are transmitted.
  • the "specific result" includes cases where the result of image processing is abnormal.
  • the present disclosure can be used in the manufacturing industry of image encoding devices, image processing systems, component mounting machines, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

画像符号化装置は、画素の階調データと前の画素の階調データとの差分値を符号化する差分パルス符号変調を用いて画像を符号化するものである。画像符号化装置は、連続する複数の差分値が予め定められた特定値の組である場合に、複数の差分値を所定数ビットのデータに符号化する。

Description

画像符号化装置および画像処理システム並びに部品実装機
 本明細書は、画像符号化装置および画像処理システム並びに部品実装機について開示する。
 従来、データの圧縮方式として、画素の階調値とその予測値との差分を符号化する差分パルス符号変調(DPCM;Differential Pulse Code Modulation)が知られている。例えば、特許文献1には、被読取体から読み取られた連続する画信号を、画の階調に応じてコード化し、圧縮する方式において、画素の階調データと前の画素の階調データとの差の絶対値が一定値以下の場合には、その差分をコード化し、一定値以上の場合には階調データの絶対値をコード化するものが開示されている。この方式によれば、画素間の階調の差分の少ない場合には簡単な少数のコードで済み、差分の大きい場合にはその画素の濃度の絶対値をコードで示すことにより誤りコードが連続発生するのを防止することができる、としている。
特開昭56-129482号公報
 DPCMにより画像を符号化することにより、画像を高い圧縮率で圧縮することができる。しかしながら、近年、撮像装置は高解像度化が進み、画像のデータ量は益々増大していることから、画質を劣化させることなく、画像の圧縮率をより向上させることが望まれる。
 本開示は、画質を劣化させることなく、画像の圧縮率をより向上させることを主目的とする。
 本開示は、上述の主目的を達成するために以下の手段を採った。
 本開示の画像符号化装置は、
 画素の階調データと前の画素の階調データとの差分値を符号化する差分パルス符号変調を用いて画像を符号化する画像符号化装置であって、
 連続する複数の前記差分値が予め定められた特定値の組である場合に、前記複数の差分値を所定数ビットのデータに符号化する、
 ことを要旨とする。
 この本開示の画像符号化装置では、画質を劣化させることなく、画像の圧縮率をより向上させることができる。
 本開示の画像処理システムは、本開示の画像符号化装置と同様の効果を奏することができる。さらに、本開示の部品実装機は、本開示の画像処理システムを備えるため、同様の効果を奏することができる。
部品実装機の概略構成図である。 実装ヘッドと実装制御装置との電気的な接続関係を示すブロック図である。 画像符号化処理の一例を示すフローチャートである。 画像符号化処理の一例を示すフローチャートである。 画像符号化処理の一例を示すフローチャートである。 符号化テーブルの一例を示す説明図である。 画像の一例を示す説明図である。 図7の画像をDPCMにより符号化する場合の差分値ごとの画素数(画素数カウンタ)を示す説明図である。 図7の画像をDPCMにより符号化した場合に変換される1~3シンボルの各変換値の数(変換カウンタ)と連続する差分値の各変換値の数とを示す説明図である。 図7の画像の画素数(画素数カウンタ)と全ビット数とを示す説明図である。 図7の画像を1つの差分値ずつ符号化した場合の1~3シンボルの各変換値の数(変換カウンタ)と全ビット数とを示す説明図である。 図7の画像を本開示のDPCMにより符号化した場合の1~3シンボルの各変換値の数(変換カウンタ)と画素数(画素数カウンタ)と全ビット数とを示す説明図である。 他の実施形態に係る実装ヘッドと実装制御装置との電気的な接続関係を示すブロック図である。 画像処理の一例を示すフローチャートである。
 次に、本開示を実施するための形態について図面を参照しながら説明する。図1は、部品実装機10の概略構成図である。図2は、実装ヘッド40と実装制御装置60との電気的な接続関係を示すブロック図である。部品実装機10は、図1に示すように、基台11と、部品供給装置21と、基板搬送装置22と、ヘッド移動装置30と、実装ヘッド40と、実装制御装置60(図2参照)と、を備える。また、部品実装機10は、これらの他に、パーツカメラ26やマークカメラ28なども備えている。
 部品供給装置21は、基台11の前部に設置される。部品供給装置21は、例えば、所定間隔おきにキャビティが形成されると共にキャビティに部品が収容されたテープが巻回されたリールを備え、リールからテープを送り出すことにより部品を供給するテープフィーダである。
 基板搬送装置22は、基台11に対して図1の前後(Y軸方向)に間隔をおいて設けられ左右方向(X軸方向)に架け渡された一対のコンベアベルトを有する。基板Sは、基板搬送装置22のコンベアベルトにより図中、左から右へと搬送される。
 ヘッド移動装置30は、実装ヘッド40を前後左右(XY軸方向)に移動させるものである。このヘッド移動装置30は、図1に示すように、X軸スライダ32と、Y軸スライダ34と、を備える。X軸スライダ32は、Y軸スライダ34の前面に左右方向に延在するように設けられた一対のX軸ガイドレールに支持され、X軸モータ(サーボモータ)36(図2参照)の駆動によって左右に移動可能である。Y軸スライダ34は、図示しない筐体の上段部に前後方向に延在するように設けられた一対のY軸ガイドレールに支持され、Y軸モータ(サーボモータ)38(図2参照)の駆動によって前後に移動可能である。なお、X軸スライダ32は、X軸エンコーダ37(図2参照)により左右の位置が検知され、Y軸スライダ34は、Y軸エンコーダ39(図2参照)により前後の位置が検知される。X軸スライダ32には実装ヘッド40が取り付けられている。このため、実装ヘッド40は、ヘッド移動装置30(X軸モータ36およびY軸モータ38)を駆動制御することにより、XY平面(水平面)に沿って前後左右に移動可能である。また、X軸スライダ32には、基板Sに付された基準マークを上方から撮像して読み取るためのマークカメラ28も備える。なお、マークカメラ28は、X軸スライダ32に設置される図示しない回路基板に電気的に接続され、当該回路基板を介して実装制御装置60に接続される。
 実装ヘッド40は、本実施形態では、周方向に等角度間隔で配列される複数のノズルホルダ(図示せず)を備えるロータリヘッドである。各ノズルホルダの先端部には、吸着ノズル41が着脱可能に取り付けられる。吸着ノズル41の先端部には、図示しないが、電磁弁を介して負圧源と連通する吸引口が設けられている。吸着ノズル41は、電磁弁を開弁した状態で供給される負圧源からの負圧により部品Pを吸着する。
 実装ヘッド40は、各ノズルホルダ(吸着ノズル41)を周方向に旋回(公転)させるR軸モータ(サーボモータ)42と、各ノズルホルダを回転(自転)させるθ軸モータ(サーボモータ)43と、各ノズルホルダのうち所定の旋回位置にあるノズルホルダを昇降(上下)させるZ軸モータ(サーボモータ)44と、を備える。また、実装ヘッド40は、各ノズルホルダの旋回位置を検出するためのR軸エンコーダ45と、各ノズルホルダの回転位置を検出するθ軸エンコーダ46と、所定位置にあるノズルホルダの昇降位置を検出するZ軸エンコーダ47と、を備える。
 さらに、実装ヘッド40は、吸着ノズル41の先端を側方から撮像するための側面カメラ48や、側面カメラ48の被写体(吸着ノズル41に吸着される部品P)を照らすための光源ユニット49、側面カメラ48で撮像された画像を符号化するための画像符号化部50、実装制御装置60と通信するための光通信部51も備える。
 光通信部51は、光ファイバケーブル55を介して実装制御装置60が備える光通信部67と接続されている。実装ヘッド40は、光通信によって実装制御装置60と各種信号をやり取りする。実装制御装置60に送信する各種信号には、各軸エンコーダ(R軸エンコーダ45,θ軸エンコーダ46およびZ軸エンコーダ47)からの位置信号や側面カメラ48で撮像され画像符号化部50により符号化された画像信号などが含まれる。また、実装制御装置60から受信される各種信号には、各軸モータ(R軸モータ42,θ軸モータ43およびZ軸モータ44)への制御信号や、側面カメラ48への制御信号、光源ユニット49へ制御信号などが含まれる。
 画像符号化部50は、通信データを削減するために、側面カメラ48で撮像された画像を差分パルス符号変調(DCPM)により符号化するものである。DCPMの詳細については後述する。符号化された画像信号は、光通信部51および光ファイバケーブル55を介して実装制御装置60へ送信される。
 実装制御装置60は、基台11に設けられ、図2に示すように、CPU61と、記憶部62と、サーボアンプ63と、画像復号化部64と、画像処理部65と、入出力インタフェース66と、光通信部67と、を備える。CPU61と記憶部62とサーボアンプ63と画像復号化部64と画像処理部65は、電気的に接続されている。また、CPU61と記憶部62とサーボアンプ63と画像復号化部64と画像処理部65は、入出力インタフェース66に電気的に接続されると共に、光通信部67に電気的に接続される。記憶部62は、一時的にデータを記憶するRAM、処理プログラムや各種データを記憶するSSDやHDDなどを含む。入出力インタフェース66には、部品供給装置21や基板搬送装置22、ヘッド移動装置30の各軸エンコーダ(X軸エンコーダ37,Y軸エンコーダ39)および各軸モータ(X軸モータ36,Y軸モータ38)が電気的に接続される。さらに、入出力インタフェース66には、パーツカメラ26や、パーツカメラ26の被写体を照らすための光源ユニット27、各種情報を表示する表示装置25、マークカメラ28、マークカメラ28の被写体を照らすための光源ユニット29なども電気的に接続される。
 サーボアンプ63は、各軸モータ(サーボモータ)をフィードバック制御するものである。このサーボアンプ63は、入出力インタフェース66を介してヘッド移動装置30の各軸エンコーダ(X軸エンコーダ37およびY軸エンコーダ39)からの位置信号を入力し、入力した位置信号に基づいてヘッド移動装置30の各軸モータ(X軸モータ36およびY軸モータ38)の制御信号を生成すると共に入出力インタフェース66を介して当該制御信号を対応する各軸モータへ出力する。また、サーボアンプ63は、光通信部67を介して実装ヘッド40の各軸エンコーダ(R軸エンコーダ45,θ軸エンコーダ46およびZ軸エンコーダ47)からの位置信号を入力し、入力した位置信号に基づいて対応する実装ヘッド40の各軸モータ(R軸モータ42,θ軸モータ43およびZ軸モータ44)の制御信号を生成すると共に光通信部67を介して当該制御信号を対応する各軸モータへ出力する。
 画像復号化部64は、側面カメラ48で撮像され、画像符号化部50で符号化された画像を復号化テーブルを用いて復号化するものである。画像処理部65は、各種カメラ(パーツカメラ26やマークカメラ28、側面カメラ48)で撮像された画像信号を処理するものである。画像処理部65には、入出力インタフェース66を介してパーツカメラ26やマークカメラ28からの画像信号が入力されると共に、画像復号化部64で復号化された画像信号が入力される。
 次に、こうして構成された実施形態の部品実装機10の動作について説明する。実装制御装置60のCPU61は、まず、基板搬送装置22により基板Sが搬入され位置決めされた後、マークカメラ28が基板Sに付された基準マークの上方へ移動するようヘッド移動装置30を制御する。この制御は、CPU61からの制御指令に基づいてサーボアンプ63が入出力インタフェース66を介してX軸エンコーダ37およびY軸エンコーダ39からの位置信号を入力すると共に入力した位置信号に基づいて制御信号を生成して入出力インタフェース66を介してX軸モータ36およびY軸モータ38へ出力することにより行なわれる。続いて、CPU61は、基準マークが撮像されるようマークカメラ28およびその光源ユニット29を制御する。この撮像の制御は、CPU61がマークカメラ28および光源ユニット29へ各制御信号を送信することにより行なわれる。これにより、基板Sの基準マークがマークカメラ28により撮像される。マークカメラ28からの撮像信号は、画像処理部65へ出力される。画像処理部65は、入力した画像信号に基づいて画像中の基準マークを認識する画像処理を行なう。そして、CPU61は、画像処理部65の画像処理の結果に基づいて基板Sの位置を認識する。
 次に、CPU61は、吸着ノズル41に部品Pを吸着させる吸着動作を行なう。すなわち、CPU61は、部品供給装置21により供給される部品Pの上方に吸着ノズル41が移動するようヘッド移動装置30を制御する。なお、ヘッド移動装置30の制御については上述した。続いて、CPU61は、吸着ノズル41が下降するようZ軸モータ44を制御すると共に吸着ノズル41の吸引口に負圧を供給する。これにより、吸着ノズル41に部品Pが吸着される。Z軸モータ44の制御は、CPU61からの制御指令に基づいてサーボアンプ63がZ軸エンコーダ47からの位置信号を実装ヘッド40の光通信部51,光ファイバケーブル55,実装制御装置60の光通信部67を順に介して入力し、入力した位置信号に基づいて生成した制御信号を実装制御装置60の光通信部67,光ファイバケーブル55,実装ヘッド40の光通信部51を順に介してZ軸モータ44へ出力することにより行なわれる。なお、CPU61は、実装ヘッド40の複数の吸着ノズル41に予定数の部品Pが吸着されていなければ、予定数の部品Pが吸着されるまで、吸着ノズル41(ノズルホルダ)が所定量ずつ旋回するようR軸モータ42を制御し、次に吸着すべき吸着ノズル41への部品Pの吸着を繰り返す。R軸モータ42の制御は、CPU61からの制御指令に基づいてサーボアンプ63がR軸エンコーダ45からの位置信号を実装ヘッド40の光通信部51,光ファイバケーブル55,実装制御装置60の光通信部67を順に介して入力し、入力した位置信号に基づいて生成した制御信号を実装制御装置60の光通信部67,光ファイバケーブル55,実装ヘッド40の光通信部51を順に介してR軸モータ42へ出力することにより行なわれる。
 CPU61は、吸着動作を行なう度に、当該吸着ノズル41の先端部が側方から撮像されるよう側面カメラ48および光源ユニット49を制御する。この撮像の制御は、CPU61が実装制御装置60の光通信部67,光ファイバケーブル55,実装ヘッド40の光通信部51を順に介して側面カメラ48および光源ユニット49へ各制御信号を送信することにより行なわれる。側面カメラ48からの画像信号は、画像符号化部50で符号化される。符号化された画像信号は、実装ヘッド40の光通信部51,光ファイバケーブル55,実装制御装置60の光通信部67を順に介して画像復号化部64へ出力され、画像復号化部64で復号化された後、画像処理部65へ出力される。画像処理部65は、画像復号化部64で復号化された画像信号を入力すると、画像中の部品P(部品側面)を認識する画像処理を行なう。CPU61は、画像処理部65の画像処理の結果に基づいて、吸着ノズル41に対する部品Pの吸着状態(例えば、吸着ミスの有無や吸着姿勢の良否など)を判定する。
 CPU61は、吸着すべき全ての吸着ノズル41への部品Pの吸着が完了すると、吸着した部品Pを基板Sに実装する実装動作を行なう。すなわち、CPU61は、実装ヘッド40がパーツカメラ26の上方へ移動するようヘッド移動装置30を制御する。続いて、CPU61は、吸着ノズル41に吸着させた部品Pが撮像されるようパーツカメラ26および光源ユニット27を制御する。この撮像の制御は、CPU61が入出力インタフェース66を介してパーツカメラ26および光源ユニット27に各制御信号を送信することにより行なわれる。パーツカメラ26からの画像信号は、入出力インタフェース66を介して画像処理部65に出力される。画像処理部65は、入力した画像信号に基づいて画像中の部品P(部品下面)を認識する画像処理を行なう。CPU61は、画像処理部65の処理結果に基づいて各吸着ノズル41に吸着されている部品Pの位置ずれ量(吸着ずれ量)を算出し、算出した位置ずれ量に基づいて基板Sの実装位置および実装角度を補正する。CPU61は、実装位置および実装角度を補正すると、吸着ノズル41に吸着させた部品Pが補正した実装位置の上方へ移動するようヘッド移動装置30を制御する。そして、CPU61は、部品Pが補正した実装角度になると共に吸着ノズル41が下降するようθ軸モータ43およびZ軸モータ44を制御すると共に吸着ノズル41の吸引口への負圧の供給を解除する。θ軸モータ43の制御は、CPU61からの制御指令に基づいてサーボアンプ63がθ軸エンコーダ46からの位置信号を実装ヘッド40の光通信部51,光ファイバケーブル55,光通信部67を順に介して入力し、入力した位置信号に基づいて生成した制御信号を光通信部67,光ファイバケーブル55,実装ヘッド40の光通信部51を順に介してθ軸モータ43へ出力することにより行なわれる。Z軸モータ44の制御については上述した。これにより、部品Pが基板S上の実装位置および実装角度で実装される。CPU61は、実装ヘッド40が有する複数の吸着ノズル41のいずれかに未実装の部品Pが残っていれば、全ての部品Pが実装されるまで、次に実装すべき吸着ノズル41に吸着されている部品Pの実装を繰り返す。
 CPU61は、実装動作を行なう度に、吸着ノズル41の先端が側方から撮像されるよう側面カメラ48および光源ユニット49を制御する。側面カメラ48および光源ユニット49の制御については上述した。また、側面カメラ48からの画像信号は、上述したように、画像符号化部50で符号化されてから、光通信によって実装制御装置60に転送され、画像復号化部64で復号化されて画像処理部65に出力される。画像処理部65は、入力した画像信号に基づいて画像中の部品P(部品側面)を認識する画像処理を行なう。そして、CPU61は、画像処理部65の画像処理の結果に基づいて、吸着ノズル41が部品Pを基板Sに実装することなく持ち帰る持ち帰りエラーの有無を判定する。
 このように、実装制御装置60は、部品Pの吸着動作や実装動作にあたり、実装ヘッド40に設けられた側面カメラ48により撮像された部品Pの画像を光通信によって取得している。このため、画像の転送に長時間を要すると、吸着動作や実装動作に待ち時間が発生し、生産効率が低下する場合が生じる。そこで、本実施形態では、DPCMによって画像信号を圧縮してから転送することにより、高速転送を可能とした。
 次に、画像符号化部50で実行されるDPCMによる符号化処理について図3~図6を参照しつつ説明する。図3~5は、画像符号化部50により実行される画像符号化処理の一例を示すフローチャートである。図6は、符号化処理に用いられる符号化テーブルの一例を示す説明図である。以下、1画素を256階調(8ビット)で表わしたグレースケール画像を符号化する場合を例として説明する。
 画像符号化処理が実行されると、画像符号化部50は、まず、側面カメラ48からの画像を取得する(S100)。次に、画像符号化部50は、変数iを値1に設定し(S110)、画像を1ライン毎に走査する順次走査において、i番目の画素がラインの先頭画素であるか否かを判定する(S120)。本実施形態では、画像として、図7に示すように、縦長の画像を取り扱う。そして、画像の走査は、上から下に向かって走査し、下端に達すると、1つ右の列の上端に移動し、上から下に向かって走査することを繰り返すことにより、左上の始点画素から右下の終点画素まで列ライン毎に行なわれる。なお、画像の走査は、左から右に向かって走査し、右端に達すると、1つ下の行の左端に移動し、左から右に向かって走査することを繰り返すことにより、左上の画素から右下の画素まで行ライン毎に行なわれてもよい。この場合、横長の画像に適用するのが好適である。
 画像符号化部50は、i番目の画素がラインの先頭画素であると判定すると、i番目の画素の階調値を3シンボルのコード値に変換すると共に(S130)、i番目の画素を符号化済みの画素に設定して(S140)、S280に進む。本実施形態では、4ビットを1シンボルとしているから、S130の処理は、8ビットで表わされる1画素の階調値を12ビットのコード値に変換するものとなる。この場合、コード値の上位8ビット(B4~B11)には、階調値の生データが割り当てられ、コード値の下位4ビット(B0~B3)には、上位8ビットに階調値の生データが割り当てられていることを示すデータが割り当てられる(図6の15番目のコード値を参照)。8ビットのデータが12ビットのデータに変換されるため、変換前のデータ量に対する変換後のデータ量の割合である圧縮率は150%となる。
 画像符号化部50は、i番目の画素がラインの先頭画素ではないと判定すると、i番目の画素の階調値とその予測値との差分値D(i)を算出する(S150)。予測値は、例えば、i番目の画素と連続する(i-1)番目の画素の階調値を用いることができる。続いて、画像符号化部50は、(i-1)番目の画素が符号化済みであるか否かを判定する(S160)。画像符号化部50は、(i-1)番目の画素が符号化済みであると判定すると、S180に進む。一方、画像符号化部50は、(i-1)番目の画素が符号化済みではないと判定すると、前回にS150で算出した差分値D(i-1)と今回に算出した差分値D(i)である連続する差分値D(i-1),D(i)が特定値の組であるか否かを判定する(S170)。特定値の組は、本実施形態では、差分値D(i-1)が0で差分値D(i)が0である(0,0)の組と、差分値D(i-1)が0で差分値D(i)が+1である(0,+1)の組と、差分値D(i-1)が0で差分値D(i)が-1である(0,-1)の組と、がある。これは、DPCMにおいて、出現頻度が高い値の組として、実験的に求められたものである。
 画像符号化部50は、連続する差分値D(i-1),D(i)が特定値の組ではないと判定すると、通常のDPCMによって画像の圧縮を行なう。すなわち、画像符号化部50は、前回に算出した差分値D(i-1)が-α(例えばαは5)以上かつα以下であるか否か(S180)、-β(βはαよりも大きい値であり、例えば12)以上かつβ以下であるか否か(S190)、をそれぞれ判定する。画像符号化部50は、差分値D(i-1)が-α以上かつα以下であると判定すると、差分値D(i-1)を1シンボルのコード値に変換し(S200)、(i-1)番目の画素を符号化済みの画素に設定して(S220)、S250に進む。S200の処理は、8ビットで表わされる(i-1)番目の画素の階調値を、4ビット(B0~B3)のコード値に変換するものとなる。この場合、コード値の4ビット(B0~B3)には、差分値D(i-1)に対応するデータが割り当てられる(図6の2番目から12番目までのコード値参照)。8ビットのデータが4ビットのデータに変換されるため、圧縮率は50%となる。一方、画像符号化部50は、差分値D(i-1)が-α以上かつα以下ではなく、-β以上かつβ以下であると判定すると、差分値D(i-1)を2シンボルのコード値に変換し(S210)、(i-1)番目の画素を符号化済みの画素に設定して(S220)、S250に進む。S210の処理は、8ビットで表わされる(i-1)番目の画素の階調値を、8ビットのコード値(B0~B7)に変換するものとなる。この場合、コード値の上位4ビット(B4~B7)には、差分値D(i-1)に対応するデータが割り当てられ、コード値の下位4ビット(B0~B3)には、上位4ビットに差分値D(i-1)に対応するデータが割り当てられていることを示すデータが割り当てられる(図6の16番目から29番目までのコード値参照)。8ビットのデータが8ビットのデータに変換されるため、圧縮率は100%である。すなわち、データ量は増減しない。
 画像符号化部50は、S180,S190において、差分値D(i-1)が-α以上かつα以下ではなく、-β以上かつβ以下でもないと判定すると、(i-1)番目の画素の階調値を3シンボルのコード値に変換し(S230)、(i-1)番目の画素を符号化済みに設定して(S240)、S250に進む。この場合、S130と同様に、8ビットで表わされる1画素の階調値は、12ビットのコード値に変換されるため、圧縮率は150%となる(図6の15番目のコード値参照)。
 画像符号化部50は、S170において、連続する差分値D(i-1),D(i)が特定値の組に該当すると判定すると、差分値D(i-1),D(i)を4ビットのコード値に変換し(S260)、(i-1)番目の画素とi番目の画素とを符号化済みに設定し(S270)、S280に進む。S260の処理は、16ビットで表わされる2画素分の階調値を4ビットのコード値に変換するものとなる。この場合、コード値の4ビット(B0~B3)には、2つの差分値D(i-1),D(i)の特定値の組に対応するデータが割り当てられる(図6の1番目と13番目と14番目のコード値参照)。16ビットのデータが4ビットのデータに変換されるため、圧縮率は25%となる。
 次に、画像符号化部50は、i番画素がライン末尾の画素であるか否かを判定する(S250)。画像符号化部50は、i番画素がライン末尾の画素ではないと判定すると、S280に進む。一方、画像符号化部50は、i番画素がライン末尾の画素であると判定すると、今回に算出した差分値D(i)が-α以上かつα以下であるか否か(S300)、-β以上かつβ以下であるか否か(S310)、をそれぞれ判定する。画像符号化部50は、差分値D(i)が-α以上かつα以下であると判定すると、差分値D(i)をS200と同様に1シンボルのコード値に変換し(S320)、i番目の画素を符号化済みの画素に設定して(S340)、S280に進む。この場合、8ビットで表わされるi番目の画素の階調値は、4ビットのコード値に変換されるため、圧縮率は50%となる(図6の2番目から12番目のコード値参照)。一方、画像符号化部50は、差分値D(i)が-α以上かつα以下ではなく、-β以上かつβ以下であると判定すると、差分値D(i)をS210と同様に8ビットのコード値に変換し(S330)、i番目の画素を符号化済みの画素に設定して(S340)、S280に進む。この場合、8ビットで表わされるi番目の画素の階調値は、8ビットのコード値に変換されるため、圧縮率は100%となる(図6の16番目から29番目までのコード値参照)。
 画像符号化部50は、差分値D(i)が-α以上かつα以下ではなく、-β以上かつβ以下でもないと判定すると、i番目の画素の階調値をS230と同様に3シンボルのコード値に変換し(S350)、i番目の画素を符号化済みに設定して(S360)、S280に進む。この場合、S130と同様に、8ビットで表わされる1画素の階調値は、12ビットのコード値に変換されるため、圧縮率は150%となり、データ量は増加する。
 こうして1つまたは2つの画素について符号化を行なうと、画像符号化部50は、変数iを値1だけインクリメントし(S280)、変数iの値が画素の画素数よりも大きいか否か、すなわち全ての画素について符号化が完了したか否かを判定する(S290)。画像符号化部50は、変数iの値が画像の画素数以下であると判定すると、S120に戻る。一方、画像符号化部50は、変数iの値が画像の画素数よりも大きいと判定すると、全ての画素について符号化が完了したと判断して、画像符号化処理を終了する。
  図8は、図7の画像をDPCMにより符号化する場合の差分値ごとの画素数(画素数カウンタ)を示す説明図である。図9は、図7の画像をDPCMにより符号化した場合に変換される1~3シンボルの各変換値の数(変換カウンタ)と連続する差分値の各変換値の数とを示す説明図である。グレースケール画像においては、画素間の階調の差分が小さく、差分値(i)の出現頻度は、図8に示すように、0を中心とした正規分布に近似される。このため、連続する複数の差分値D(i-1),D(i)の出現頻度は、図9に示すように、それぞれの(0,0)の組が最も多く、(0,+1)の組と(0,-1)の組に続く。このことから、出現頻度が比較的低い-6や+6の差分値(i)を1シンボル(4ビット)のコード値に割り当てるよりも、これらの差分値(i)については2シンボル(8ビット)のコード値に割り当てつつ出現頻度が高い(0,0)や(0,+1),(0,-1)といった連続する差分値D(i-1),D(i)を1まとめにして1シンボル(4ビット)のコード値に割り当てた方が、全体のデータ量を削減することができる。
 図10Aは、図7の画像の画素数(画素数カウンタ)と全ビット数とを示す説明図である。図10Bは、図7の画像を1つの差分値ずつ符号化した場合の1~3シンボルの各変換値の数(変換カウンタ)と全ビット数とを示す説明図である。図10Cは、図7の画像を本開示のDPCMにより符号化した場合の1~3シンボルの各変換値の数(変換カウンタ)と画素数(画素数カウンタ)と全ビット数とを示す説明図である。なお、図10Bにおいては、1個の変換値は必ず1画素をあらわすため、変換カウンタは画素数カウンタと一致する。一方、図10Cにおいては、備考に記載されているように、1個の変換値が1画素をあらわす場合と2画素をあらわす場合とがあるため、変換カウンタは画素数カウンタと必ずしも一致しない。図示するように、(0,0)や(0,+1)、(0,-1)の組の連続する差分値D(i-1),D(i)を1まとめにして符号化する本開示のDPCMでは、1つの差分値D(i)ずつ符号化する従来のDPCMに比して、データ量を削減できていることがわかる。
 なお、本開示は上述した実施形態に何ら限定されることはなく、本開示の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、側面カメラ48により撮像された画像の処理を実装制御装置60で実行するものとしたが、実装ヘッド40で実行してもよい。図11は、他の実施形態に係る実装ヘッド140と実装制御装置60との電気的な接続関係を示すブロック図である。他の実施形態に係る実装ヘッド140は、本実施形態の実装ヘッド40と同様の側面カメラ48や画像符号化部50に加えて、側面カメラ48で撮像された画像を処理するための画像処理部144を備える。画像処理部144は、側面カメラ48と画像符号化部50と電気的に接続されており、信号やデータのやり取りを行なう。なお、この実施形態においても、パーツカメラ26やマークカメラ28で撮像された画像の処理は、実装制御装置60の画像処理部65で実行される。
 次に、画像処理部144で実行される画像処理について説明する。図12は、画像処理部144により実行される画像処理の一例を示すフローチャートである。画像処理が実行されると、画像処理部144は、まず、側面カメラ48から画像を取得する(S400)。続いて、画像処理部144は、取得した画像に対して画像処理を行なう(S402)。画像処理は、上述したように、画像中の部品P(部品側面)を認識する処理である。そして、画像処理の結果は、吸着ノズル41に対して部品Pが正常な位置で認識された場合には、正常となり、部品Pを認識できなかった場合(吸着ミス)や部品Pを認識したがその位置が正常な位置とは異なる場合(吸着姿勢不良)には、異常となる。次に、画像処理部144は、画像処理の結果が正常であるか否かを判定する(S420)。画像処理部144は、画像処理の結果が正常であると判定すると、画像を送信することなく、画像処理の結果を実装制御装置60に送信して(S430)、画像処理を終了する。一方、画像処理部144は、画像処理の結果が正常でないと判定すると、S400で取得した画像を画像符号化部50で符号化し(S440)、画像処理の結果と符号化済みの画像とを実装制御装置60に送信して(S450)、画像処理を終了する。このように、他の実施形態に係る実装ヘッド40は、側面カメラ48で撮像された画像を処理する画像処理部144を備え、画像処理の結果が正常であれば、画像処理の結果のみを実装制御装置60に送信し、画像処理の結果が異常であれば、画像処理の結果に加えて取得した画像を符号化した符号化済みの画像を実装制御装置60に送信する。これにより、側面カメラ48で撮像された全ての画像を送信するものに比して、データの送信量を削減することができる。なお、画像処理部144は、画像処理の結果が正常である場合には、画像処理の結果のみを送信し、画像処理の結果が異常である場合には、画像処理の結果に加えて符号化済みの画像を送信したが、画像処理の結果が正常である場合も、符号化済みの画像を送信するようにしてもよい。
 上述した実施形態では、画像符号化部50は、2つの連続する差分値が特定値の組である場合に、当該2つの連続する差分値を1シンボルのコード値に符号化するものとした。しかし、画像符号化部50は、符号化する画像によっては、3つの連続する差分値が特定値の組(例えば、(0,0,0)の組)である場合に、当該3つの連続する差分値を1シンボルのコード値に符号化するようにしてもよい。
 上述した実施形態では、実装ヘッド40は実装制御装置60と有線(光ファイバケーブル55)で接続されるものとしたが、実装ヘッド40は実装制御装置60と無線通信可能に接続されてもよい。すなわち、実装ヘッド40は、画像符号化部50で符号化された符号化済みの画像を無線通信によって実装制御装置60に送信してもよい。
 上述した実施形態では、本開示の画像符号化装置(画像符号化部50)を、制御装置に送信する画像を符号化するものに適用したが、記憶部62に記憶する画像を符号化するものに適用してもよい。この場合、画像符号化部50は、実装制御装置60に設けられてもよい。
 上述した実施形態では、本開示の画像符号化装置(画像符号化部50)を、部品実装機10に適用したが、これに限定されるものではなく、多関節ロボット等、カメラを備える他の如何なる機器にも適用可能である。
 以上説明したように、本開示の画像符号化装置では、連続する複数の差分値が予め定められた所定値の組である場合に、当該複数の差分値を所定数ビットのデータに符号化する。連続する複数の差分値のうち、出現頻度の高い値の組を所定値の組に定めることで、複数の差分値を1つのデータに符号化することができる。このため、1つの差分値ずつ1つのデータに符号化するものに比して、圧縮率をより高めることができる。この結果、画質を劣化させることなく、画像の圧縮率をより向上させることができる。
 こうした本開示の画像符号化装置において、連続する複数の前記差分値が前記特定値の組ではない場合に、1つの前記差分値を前記所定数ビットの第1データ範囲内のデータに符号化し、連続する複数の前記差分値が前記特定値の組である場合に、前記複数の差分値を前記所定数ビットの前記第1データ範囲とは異なる第2データ範囲内のデータに符号化してもよい。こうすれば、1つの差分値を1つのデータに符号化するものと複数の差分値を1つのデータに符号化するものと所定数ビットのデータに混在させて、圧縮率をより高めることができる。
 また、本開示の画像符号化装置において、前記連続する複数の前記差分値は、連続する2つの差分値であってもよい。この場合、前記特定値の組は、前記2つの差分値のうち前の差分値が0で次の差分値が0の組と、前記2つの差分値のうち前の差分値が0で次の差分値が+1の組と、前記2つの差分値のうち前の差分値が0で次の差分値が-1の組の少なくとも一つを含んでもよい。これは、上記特定値の組の出現率が高く、2つの差分値として特定値の組が出現したときに当該2つの差分値を1つのデータに符号化することにより、全体のデータ量を削減できることが実験的に確かめられたことによる。
 本開示は、画像符号化装置の形態に限られず、画像処理システムの形態とすることもできる。すなわち、本開示の画像処理システムは、画素の階調データと前の画素の階調データとの差分値を符号化する差分パルス符号変調を用いて画像を符号化するものであり、連続する複数の前記差分値が予め定められた特定値の組である場合に、前記複数の差分値を所定数ビットのデータに符号化する符号化部と、前記符号化部から符号化済みのデータを通信により入力し、入力した符号化済みのデータから前記画像を復号化する復号化部と、を備えることを要旨とする。これにより、本開示の画像符号化装置と同様に、画質を劣化させることなく、画像の圧縮率をより向上させることができる。この結果、データの送信量を削減することができるため、高速転送が可能となる。
 また、本開示は、部品実装機の形態とすることもできる。すなわち、本開示の部品実装機は、上述した本開示の画像処理システムを備え、前記符号化部は、可動部に設置され、前記復号化部は、固定部に設置されてもよい。この場合、前記固定部に設置され、前記複合化部により復号化された画像を処理する画像処理部を備えてもよい。あるいは、前記可動部に設置され、画像を取得して処理する画像処理部を備え、前記符号化部は、前記画像処理部による画像処理の結果が特定結果である場合に、前記画像を符号化して前記復号化部に送信してもよい。こうすれば、取得した全ての画像を送信するものに比して、データの送信量をより削減することができる。「特定結果」には、画像処理の結果が異常である場合が含まれる。
 本開示は、画像符号化装置や画像処理システム、部品実装機の製造産業などに利用可能である。
 10 部品実装機、11 基台、21 部品供給装置、22 基板搬送装置、25 表示装置、26 パーツカメラ、27 光源ユニット、28 マークカメラ、29 光源ユニット、30 ヘッド移動装置、32 X軸スライダ、34 Y軸スライダ、36 X軸モータ、37 X軸エンコーダ、38 Y軸モータ、39 Y軸エンコーダ、40,140 実装ヘッド、41 吸着ノズル、42 R軸モータ、43 θ軸モータ、44 Z軸モータ、45 R軸エンコーダ、46 θ軸エンコーダ、47 Z軸エンコーダ、48 側面カメラ、49 光源ユニット、50 画像符号化部、51 光通信部、55 光ファイバケーブル、60 実装制御装置、61 CPU、62 記憶部、63 サーボアンプ、64 画像復号化部、65 画像処理部、66 入出力インタフェース、67 光通信部、150 画像処理部、P 部品、S 基板。

Claims (8)

  1.  画素の階調データと前の画素の階調データとの差分値を符号化する差分パルス符号変調を用いて画像を符号化する画像符号化装置であって、
     連続する複数の前記差分値が予め定められた特定値の組である場合に、前記複数の差分値を所定数ビットのデータに符号化する、
     画像符号化装置。
  2.  請求項1に記載の画像符号化装置であって、
     連続する複数の前記差分値が前記特定値の組ではない場合に、1つの前記差分値を前記所定数ビットの第1データ範囲内のデータに符号化し、
     連続する複数の前記差分値が前記特定値の組である場合に、前記複数の差分値を前記所定数ビットの前記第1データ範囲とは異なる第2データ範囲内のデータに符号化する、
     画像符号化装置。
  3.  請求項1または2に記載の画像符号化装置であって、
     前記連続する複数の前記差分値は、連続する2つの差分値である、
     画像符号化装置。
  4.  請求項3に記載の画像符号化装置であって、
     前記特定値の組は、前記2つの差分値のうち前の差分値が0で次の差分値が0の組と、前記2つの差分値のうち前の差分値が0で次の差分値が+1の組と、前記2つの差分値のうち前の差分値が0で次の差分値が-1の組の少なくとも一つを含む、
     画像符号化装置。
  5.  画素の階調データと前の画素の階調データとの差分値を符号化する差分パルス符号変調を用いて画像を符号化するものであり、連続する複数の前記差分値が予め定められた特定値の組である場合に、前記複数の差分値を所定数ビットのデータに符号化する符号化部と、
     前記符号化部から符号化済みのデータを通信により入力し、入力した符号化済みのデータから前記画像を復号化する復号化部と、
     を備える画像処理システム。
  6.  請求項5に記載の画像処理システムを備える部品実装機であって、
     前記符号化部は、可動部に設置され、
     前記復号化部は、固定部に設置される、
     部品実装機。
  7.  請求項6に記載の部品実装機であって、
     前記固定部に設置され、前記複合化部により復号化された画像を処理する画像処理部を備える、
     部品実装機。
  8.  請求項6に記載の部品実装機であって、
     前記可動部に設置され、画像を取得して処理する画像処理部を備え、
     前記符号化部は、前記画像処理部による画像処理の結果が特定結果である場合に、前記画像を符号化して前記復号化部に送信する、
     部品実装機。
PCT/JP2022/033275 2022-09-05 2022-09-05 画像符号化装置および画像処理システム並びに部品実装機 WO2024052959A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033275 WO2024052959A1 (ja) 2022-09-05 2022-09-05 画像符号化装置および画像処理システム並びに部品実装機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033275 WO2024052959A1 (ja) 2022-09-05 2022-09-05 画像符号化装置および画像処理システム並びに部品実装機

Publications (1)

Publication Number Publication Date
WO2024052959A1 true WO2024052959A1 (ja) 2024-03-14

Family

ID=90192358

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033275 WO2024052959A1 (ja) 2022-09-05 2022-09-05 画像符号化装置および画像処理システム並びに部品実装機

Country Status (1)

Country Link
WO (1) WO2024052959A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60185468A (ja) * 1984-03-02 1985-09-20 Takeshi Akoin カラ−画像圧縮符号化方式
JPS6333084A (ja) * 1986-07-26 1988-02-12 Canon Inc 符号化装置
WO2007148425A1 (ja) * 2006-06-19 2007-12-27 Fujitsu Limited 画像圧縮装置、画像復元装置、及びプログラム
JP2008539635A (ja) * 2005-04-27 2008-11-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ信号のdpcm符号化
JP2011044869A (ja) * 2009-08-20 2011-03-03 Ricoh Co Ltd 画像処理装置および画像処理方法
JP2017005415A (ja) * 2015-06-08 2017-01-05 富士機械製造株式会社 通信装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60185468A (ja) * 1984-03-02 1985-09-20 Takeshi Akoin カラ−画像圧縮符号化方式
JPS6333084A (ja) * 1986-07-26 1988-02-12 Canon Inc 符号化装置
JP2008539635A (ja) * 2005-04-27 2008-11-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ信号のdpcm符号化
WO2007148425A1 (ja) * 2006-06-19 2007-12-27 Fujitsu Limited 画像圧縮装置、画像復元装置、及びプログラム
JP2011044869A (ja) * 2009-08-20 2011-03-03 Ricoh Co Ltd 画像処理装置および画像処理方法
JP2017005415A (ja) * 2015-06-08 2017-01-05 富士機械製造株式会社 通信装置

Similar Documents

Publication Publication Date Title
WO2015052843A1 (ja) 多重化通信システム及び対基板作業機
WO2024052959A1 (ja) 画像符号化装置および画像処理システム並びに部品実装機
US10736251B2 (en) Mounting device
JP3075458B2 (ja) 端子挿入方法
CN110786084B (zh) 电子元件安装机
CN1231044C (zh) 一种智能摄像头及其实现方法
WO2018216075A1 (ja) 画像処理装置、多重通信システム及び画像処理方法
JP7201540B2 (ja) マーク認識装置及びそれを備えた処理装置
US7738034B2 (en) Image processing apparatus with illumination unit and imaging unit in different casings
JP6131315B2 (ja) 通信システム及び電子部品装着装置
WO2018055757A1 (ja) 照明条件特定装置及び照明条件特定方法
JP2005235942A (ja) 物品認識装置ならびにこれを備えた表面実装機、部品試験装置および基板検査装置
JP4860936B2 (ja) 表面実装機
JP6199985B2 (ja) 電子部品装着装置用延長装置及び電子部品装着装置
JP6095768B2 (ja) データベース、データベースの構築方法、通信装置及び電子部品装着装置
KR20110099457A (ko) 플렉시블 플랫 케이블 접속부 성형장치
JP6905976B2 (ja) 対基板作業機
CN115004877B (zh) 图像处理装置、安装装置及图像处理方法
JP2765692B2 (ja) 電子部品搭載装置
JP7153126B2 (ja) 良否判定装置および良否判定方法
WO2023007606A1 (ja) 撮像ユニット、表面実装機
US20220346296A1 (en) Image processing device
JP2843545B2 (ja) 電子部品搭載装置
WO2023105619A1 (ja) 部品実装機及び基板の製造方法
JP2008092355A (ja) 撮像制御装置および表面実装機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22958040

Country of ref document: EP

Kind code of ref document: A1