WO2024024090A1 - Component count device and robot system - Google Patents

Component count device and robot system Download PDF

Info

Publication number
WO2024024090A1
WO2024024090A1 PCT/JP2022/029305 JP2022029305W WO2024024090A1 WO 2024024090 A1 WO2024024090 A1 WO 2024024090A1 JP 2022029305 W JP2022029305 W JP 2022029305W WO 2024024090 A1 WO2024024090 A1 WO 2024024090A1
Authority
WO
WIPO (PCT)
Prior art keywords
parts
feature points
likelihood
component
counting device
Prior art date
Application number
PCT/JP2022/029305
Other languages
French (fr)
Japanese (ja)
Inventor
航 有田
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to PCT/JP2022/029305 priority Critical patent/WO2024024090A1/en
Publication of WO2024024090A1 publication Critical patent/WO2024024090A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M11/00Counting of objects distributed at random, e.g. on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)

Abstract

A component count device (100) comprises: an oscillation unit (20) which oscillates a housing unit (2) which houses a plurality of components (1); a photographing unit (30) which continuously photographs the components in the housing unit being oscillated by the oscillation unit; and an information processing unit (41) which, on the basis of photographic images (50) sequentially photographed by the photographing unit, tracks the components being moved by oscillation and which counts the number of the components in the housing unit.

Description

部品計数装置およびロボットシステムParts counting equipment and robot systems
 この発明は、部品計数装置およびロボットシステムに関し、特に、部品を計数する部品計数装置およびロボットシステムに関する。 The present invention relates to a parts counting device and a robot system, and particularly to a parts counting device and a robot system that count parts.
 従来、部品を計数する部品計数装置が知られている(たとえば、特許文献1参照)。 Conventionally, a parts counting device that counts parts is known (for example, see Patent Document 1).
 上記特許文献1には、部品を計数する部品計数装置が開示されている。この部品計数装置は、撮影装置によりシート上に並べられた部品を撮影した撮影画像に基づいて、部品を計数するように構成されている。また、この部品計数装置は、シート上の部品が重なっている場合に、部品の重なりが検出された部分を識別可能に加工した画像を表示するように構成されている。部品が重なっている場合には、部品を精度よく計数できない。このため、ユーザは、表示された画像上で部品の重なりを視認し、シート上での部品の重なりを手動で解消して、部品計数装置により計数処理を再び実行させる。 The above Patent Document 1 discloses a parts counting device that counts parts. This parts counting device is configured to count parts based on a photographed image of parts arranged on a sheet taken by a photographing device. Further, this parts counting device is configured to display, when parts on a sheet overlap, an image processed to enable identification of the portion where overlapping parts are detected. If parts overlap, it is not possible to accurately count the parts. Therefore, the user visually recognizes the overlap of parts on the displayed image, manually eliminates the overlap of parts on the sheet, and causes the parts counting device to perform the counting process again.
特開2019-57211号公報JP2019-57211A
 しかしながら、上記特許文献1に記載された部品計数装置では、ユーザが部品の重なりを手動で解消して計数処理を再び実行させるため、ユーザの手間が掛かるという不都合がある。このため、ユーザの手間を省きながら、部品を精度よく計数することが困難であるという問題点がある。 However, in the parts counting device described in Patent Document 1, the user manually eliminates overlapping parts and re-executes the counting process, which is disadvantageous in that it requires time and effort on the part of the user. Therefore, there is a problem in that it is difficult to accurately count parts while saving the user's effort.
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、ユーザの手間を省きながら、部品を精度よく計数することが可能な部品計数装置およびロボットシステムを提供することである。 This invention was made to solve the above problems, and one object of the invention is to provide a parts counting device and a robot that can count parts with high accuracy while saving the user's effort. The goal is to provide a system.
 この発明の第1の局面による部品計数装置は、複数の部品を収容する収容部を振動させる振動部と、振動部に振動される収容部内の部品を連続撮影する撮影部と、撮影部により順次撮影される撮影画像に基づいて、振動により移動する部品をトラッキングするとともに、収容部内の部品を計数する情報処理部と、を備える。なお、本願明細書では、振動とは、揺さ振り動かすことも含む広い概念である。 A parts counting device according to a first aspect of the present invention includes: a vibrating part that vibrates a housing part that accommodates a plurality of parts; a photographing part that continuously photographs parts in the housing part vibrated by the vibrating part; The apparatus includes an information processing unit that tracks parts that move due to vibration based on a photographed image and counts the number of parts in the storage section. Note that in this specification, vibration is a broad concept that includes shaking.
 この発明の第1の局面による部品計数装置では、上記のように、複数の部品を収容する収容部を振動させる振動部を設ける。これにより、振動部に部品を振動させることにより部品を移動させることができるので、ユーザが手動で部品の重なりを解消する必要がない。その結果、ユーザの手間を省くことができる。また、撮影部により順次撮影される撮影画像に基づいて、振動により移動する部品をトラッキングすることにより、計数精度の高い状況(部品同士が近い位置に配置されない状況)を作り出しながら、部品を計数することができるので、部品を精度よく計数することができる。これらの結果、ユーザの手間を省きながら、部品を精度よく計数することができる。 As described above, the parts counting device according to the first aspect of the present invention is provided with a vibrating part that vibrates the housing part that accommodates a plurality of parts. Thereby, the parts can be moved by causing the vibrating part to vibrate, so there is no need for the user to manually eliminate overlapping parts. As a result, the user's effort can be saved. In addition, by tracking parts that move due to vibration based on images taken sequentially by the imaging unit, parts can be counted while creating a situation with high counting accuracy (a situation where parts are not placed close to each other). Therefore, parts can be counted with high accuracy. As a result, parts can be counted accurately while saving the user's effort.
 上記第1の局面による部品計数装置において、好ましくは、情報処理部は、撮影部により順次撮影される撮影画像に基づいて、撮影画像に含まれる部品の尤度マップを作成するとともに、その尤度マップに基づいて、部品をトラッキングするように構成されている。このように構成すれば、尤度マップに基づいて部品を精度よく認識することができるので、部品を精度よくトラッキングすることができる。 In the parts counting device according to the first aspect, preferably, the information processing section creates a likelihood map of the parts included in the photographed images based on the photographed images sequentially photographed by the photographing section, and calculates the likelihood map of the parts included in the photographed images. Configured to track parts based on the map. With this configuration, parts can be recognized with high accuracy based on the likelihood map, and therefore parts can be tracked with high accuracy.
 この場合、好ましくは、情報処理部は、作成した尤度マップに基づいて、部品の位置および姿勢を推定し、推定した部品の位置および姿勢に基づいて、部品の特徴点を抽出し、抽出した特徴点をトラッキングすることにより、部品をトラッキングするように構成されている。このように構成すれば、尤度マップに基づいて部品の位置および姿勢を精度よく推定することができるので、部品の特徴点を精度よく抽出することができる。その結果、精度よく抽出した特徴点をトラッキングすることにより、部品を精度よくトラッキングすることができる。 In this case, preferably, the information processing unit estimates the position and orientation of the part based on the created likelihood map, and extracts feature points of the part based on the estimated position and orientation of the part. The part is configured to be tracked by tracking feature points. With this configuration, the position and orientation of the component can be estimated with high accuracy based on the likelihood map, so the feature points of the component can be extracted with high accuracy. As a result, by tracking the accurately extracted feature points, the parts can be accurately tracked.
 上記特徴点を抽出する構成において、好ましくは、情報処理部は、推定した部品の位置および姿勢に基づいて、特徴点を抽出する抽出領域を設定し、抽出領域内から特徴点を抽出するように構成されている。このように構成すれば、特徴点が存在する可能性が高い抽出領域内から特徴点を抽出することができるので、部品の特徴点をより精度よく抽出することができる。その結果、より精度よく抽出した特徴点をトラッキングすることにより、部品をより精度よくトラッキングすることができる。 In the configuration for extracting feature points, preferably, the information processing unit sets an extraction region for extracting feature points based on the estimated position and orientation of the part, and extracts the feature points from within the extraction region. It is configured. With this configuration, feature points can be extracted from within the extraction region where there is a high possibility that feature points exist, so feature points of parts can be extracted with higher accuracy. As a result, the parts can be tracked more accurately by tracking the extracted feature points with more accuracy.
 この場合、好ましくは、情報処理部は、抽出領域内から抽出した特徴点と、基準画像内の特徴点との一致度を取得し、抽出領域内から抽出した特徴点のうち、一致度がしきい値以上である特徴点を、トラッキングする特徴点として決定するように構成されている。このように構成すれば、一致度の高い特徴点をトラッキングすることにより、部品をより一層精度よくトラッキングすることができる。 In this case, preferably, the information processing unit obtains the degree of coincidence between the feature points extracted from within the extraction region and the feature points in the reference image, and selects the degree of coincidence among the feature points extracted from within the extraction region. It is configured to determine a feature point that is equal to or greater than a threshold value as a feature point to be tracked. With this configuration, by tracking feature points with a high degree of coincidence, parts can be tracked with even higher accuracy.
 上記特徴点を抽出する構成において、好ましくは、情報処理部は、特徴点をトラッキングする部品を計数することにより、収容部内の部品を計数するように構成されている。このように構成すれば、特徴点をトラッキングする部品を計数することにより、同じ部品を2重で計数することを回避することができるので、部品をより精度よく計数することができる。 In the configuration for extracting feature points, preferably, the information processing unit is configured to count the parts in the storage unit by counting the parts whose feature points are tracked. With this configuration, by counting the parts whose feature points are tracked, it is possible to avoid counting the same part twice, and therefore it is possible to count the parts with higher accuracy.
 この場合、好ましくは、情報処理部は、部品の種類ごとに部品の特徴点を抽出し、特徴点をトラッキングする部品を種類ごとに計数することにより、部品の種類ごとに部品を計数するように構成されている。このように構成すれば、収容部内に複数種類の部品が存在する場合にも、部品の種類ごとに部品を精度よく計数することができる。 In this case, preferably, the information processing unit counts the parts for each type of parts by extracting the feature points of the parts for each type of parts and counting the number of parts whose feature points are tracked for each type. It is configured. With this configuration, even when a plurality of types of parts are present in the storage section, the parts can be accurately counted for each type of part.
 上記特徴点を抽出する構成において、好ましくは、情報処理部は、今回作成した尤度マップの尤度と、所定回数前までに作成した尤度マップの尤度とを部品領域ごとに比較し、比較した部品領域のうち、今回作成した尤度マップで尤度が最大となる部品領域については、今回作成した尤度マップを特徴点の抽出に用い、比較した部品領域のうち、今回作成した尤度マップで尤度が最大とならない部品領域については、所定回数前までに作成した尤度マップのうち、今回作成した尤度マップよりも尤度が大きい尤度マップを特徴点の抽出に用いるように構成されている。このように構成すれば、常に尤度が大きい状態で抽出した特徴点をトラッキングすることができる。 In the configuration for extracting the feature points, preferably, the information processing unit compares the likelihood of the currently created likelihood map with the likelihood of the likelihood map created a predetermined number of times ago for each part region, Among the compared component regions, for the component region for which the likelihood map created this time has the maximum likelihood, the likelihood map created this time is used to extract feature points, and the likelihood map created this time is used to extract the feature points. For component regions for which the likelihood map does not have the maximum likelihood, the likelihood map that has a higher likelihood than the currently created likelihood map among the likelihood maps created a predetermined number of times ago is used to extract feature points. It is composed of With this configuration, it is possible to always track extracted feature points with a high likelihood.
 上記第1の局面による部品計数装置において、好ましくは、情報処理部は、機械学習により生成された機械学習モデルを用いて、部品をトラッキングするように構成されている。このように構成すれば、機械学習モデルを用いて、部品を容易に精度よくトラッキングすることができる。 In the parts counting device according to the first aspect, preferably, the information processing section is configured to track parts using a machine learning model generated by machine learning. With this configuration, parts can be easily and accurately tracked using a machine learning model.
 上記第1の局面による部品計数装置において、好ましくは、情報処理部は、計数した部品の個数が所定個数を満たさない場合、ユーザに通知するように構成されている。このように構成すれば、計数した部品の個数が所定個数を満たさない場合(部品の個数が所定個数よりも多いかまたは少ない場合)、ユーザは、部品の個数が所定個数を満たさないことを容易に知ることができるので、部品の個数が所定個数を満たすように容易に対処することができる。 In the parts counting device according to the first aspect, the information processing unit is preferably configured to notify the user when the number of counted parts does not satisfy a predetermined number. With this configuration, if the number of counted parts does not meet the predetermined number (if the number of parts is greater or less than the predetermined number), the user can easily confirm that the number of parts does not satisfy the predetermined number. Since it is possible to know the number of parts, it is possible to easily take measures so that the number of parts satisfies the predetermined number.
 上記第1の局面による部品計数装置において、好ましくは、振動部は、収容部を水平方向に振動させる振動子を含む。このように構成すれば、水平方向に部品を振動させることにより部品を容易に移動させることができるので、計数精度の高い状況(部品同士が近い位置に配置されない状況)を容易に作り出すことができる。 In the parts counting device according to the first aspect, preferably, the vibrating section includes a vibrator that vibrates the housing section in the horizontal direction. With this configuration, the parts can be easily moved by vibrating them horizontally, so it is easy to create a situation with high counting accuracy (a situation where parts are not placed close to each other). .
 この発明の第2の局面によるロボットシステムは、収容部内の部品を移載するか、または、収容部内に部品を移載するロボットと、収容部内の部品を計数する部品計数装置と、を備え、部品計数装置は、収容部を振動させる振動部と、振動部に振動される収容部内の部品を連続撮影する撮影部と、撮影部により順次撮影される撮影画像に基づいて、振動により移動する部品をトラッキングするとともに、収容部内の部品を計数する情報処理部と、を含む。 A robot system according to a second aspect of the present invention includes a robot that transfers and loads parts in a storage unit or a robot that transfers and loads parts into the storage unit, and a parts counting device that counts the parts in the storage unit, The parts counting device includes a vibrating part that vibrates the housing part, a photographing part that continuously photographs the parts inside the housing part that are vibrated by the vibrating part, and a part counting apparatus that detects the parts that are moved by vibration based on the photographed images that are sequentially photographed by the photographing part. and an information processing unit that tracks the parts and counts the parts in the storage section.
 この発明の第2の局面によるロボットシステムでは、上記のように、複数の部品を収容する収容部を振動させる振動部を設ける。これにより、振動部に部品を振動させることにより部品を移動させることができるので、ユーザが手動で部品の重なりを解消する必要がない。その結果、ユーザの手間を省くことができる。また、撮影部により順次撮影される撮影画像に基づいて、振動により移動する部品をトラッキングすることにより、計数精度の高い状況(部品同士が近い位置に配置されない状況)を作り出しながら、部品を計数することができるので、部品を精度よく計数することができる。これらの結果、ユーザの手間を省きながら、部品を精度よく計数することができる。 In the robot system according to the second aspect of the present invention, as described above, a vibrating section is provided that vibrates the housing section that accommodates a plurality of parts. Thereby, the parts can be moved by causing the vibrating part to vibrate, so there is no need for the user to manually eliminate overlapping parts. As a result, the user's effort can be saved. In addition, by tracking parts that move due to vibration based on images taken sequentially by the imaging unit, parts can be counted while creating a situation with high counting accuracy (a situation where parts are not placed close to each other). Therefore, parts can be counted with high accuracy. As a result, parts can be counted accurately while saving the user's effort.
 本発明によれば、上記のように、ユーザの手間を省きながら、部品を精度よく計数することができる。 According to the present invention, as described above, parts can be counted with high accuracy while saving the user's effort.
一実施形態による部品計数装置を示す模式図である。FIG. 1 is a schematic diagram showing a parts counting device according to one embodiment. 一実施形態による部品計数装置の部品計数処理を説明するための図である。FIG. 3 is a diagram for explaining a parts counting process of a parts counting device according to an embodiment. 一実施形態による部品計数処理の特徴点抽出処理を説明するための図である。FIG. 3 is a diagram for explaining feature point extraction processing in parts counting processing according to an embodiment. 一実施形態による特徴点抽出処理に用いられる機械学習モデルを説明するための図である。FIG. 3 is a diagram for explaining a machine learning model used in feature point extraction processing according to an embodiment. 一実施形態による部品計数に関する制御処理を説明するためのフローチャートである。5 is a flowchart for explaining control processing related to parts counting according to an embodiment. 一実施形態による撮影画像の画像処理を説明するためのフローチャートである。5 is a flowchart for explaining image processing of captured images according to an embodiment. 一実施形態による部品計数装置を備えたロボットシステムの構成例を示す模式図である。FIG. 1 is a schematic diagram showing a configuration example of a robot system including a parts counting device according to an embodiment. 一実施形態の変形例による部品計数に関する撮影部側の制御処理を説明するためのフローチャートである。12 is a flowchart for explaining control processing on the imaging unit side regarding component counting according to a modification of the embodiment. 一実施形態の変形例による部品計数に関する情報処理部側の制御処理を説明するためのフローチャートである。12 is a flowchart for explaining control processing on the information processing unit side regarding parts counting according to a modified example of one embodiment.
 以下、本発明を具体化した実施形態を図面に基づいて説明する。 Hereinafter, embodiments embodying the present invention will be described based on the drawings.
 まず、図1を参照して、一実施形態による部品計数装置100の構成について説明する。 First, with reference to FIG. 1, the configuration of a parts counting device 100 according to an embodiment will be described.
(部品計数装置の構成)
 図1に示すように、部品計数装置100は、収容部2内に収容された複数の部品1を計数する装置である。収容部2は、たとえば、トレイである。部品1は、たとえば、ねじまたはワッシャなどである。工業製品の組み立てラインでは、工業製品の組み立てのために、部品1を収容した収容部2が供給される場合がある。部品計数装置100は、たとえば、工業製品の組み立てラインに供給される前に収容部2内に収容された部品1を計数することにより、収容部2に正しい個数の部品1が収容されているか否かを検査する用途に用いられる。部品計数装置100は、検査装置であるともいえる。
(Configuration of parts counting device)
As shown in FIG. 1, the parts counting device 100 is a device that counts a plurality of parts 1 housed in a housing section 2. As shown in FIG. The accommodating part 2 is, for example, a tray. The component 1 is, for example, a screw or a washer. In an assembly line for industrial products, storage units 2 containing parts 1 are sometimes supplied for assembly of industrial products. For example, the parts counting device 100 counts the parts 1 stored in the storage part 2 before being supplied to an assembly line of industrial products, thereby determining whether the correct number of parts 1 is stored in the storage part 2. It is used to test whether The parts counting device 100 can also be said to be an inspection device.
 図1に示すように、部品計数装置100は、搭載部10と、振動部20と、撮影部30と、制御部40とを備える。 As shown in FIG. 1, the parts counting device 100 includes a mounting section 10, a vibration section 20, an imaging section 30, and a control section 40.
 搭載部10は、収容部2を搭載可能に構成されている。搭載部10は、上面に収容部2を載置可能な台である。また、搭載部10には、振動部20が設けられている。 The mounting section 10 is configured such that the accommodating section 2 can be mounted thereon. The mounting section 10 is a table on which the accommodating section 2 can be placed. Further, the mounting section 10 is provided with a vibrating section 20.
 振動部20は、収容部2を振動させるように構成されている。具体的には、振動部20は、第1振動子21と、第2振動子22と、振動板23とを含む。第1振動子21は、搭載部10に搭載された収容部2を水平方向に振動させるように構成されている。具体的には、第1振動子21は、搭載部10に搭載された収容部2を前後方向および左右方向(水平面内で互いに略直交する2方向)に振動させるように構成されている。第2振動子22は、搭載部10に搭載された収容部2を上下方向に振動させるように構成されている。振動板23は、第1振動子21および第2振動子22の各々が振動することにより、振動されるように構成されている。振動板23が振動されることにより、収容部2内の部品1が振動される。なお、第1振動子21は、請求の範囲の「振動子」の一例である。 The vibrating section 20 is configured to vibrate the housing section 2. Specifically, the vibrating section 20 includes a first vibrator 21, a second vibrator 22, and a diaphragm 23. The first vibrator 21 is configured to horizontally vibrate the housing section 2 mounted on the mounting section 10. Specifically, the first vibrator 21 is configured to vibrate the housing section 2 mounted on the mounting section 10 in the front-rear direction and the left-right direction (two directions substantially orthogonal to each other in a horizontal plane). The second vibrator 22 is configured to vibrate the housing section 2 mounted on the mounting section 10 in the vertical direction. The diaphragm 23 is configured to be vibrated when each of the first vibrator 21 and the second vibrator 22 vibrates. When the diaphragm 23 is vibrated, the component 1 inside the housing section 2 is vibrated. Note that the first vibrator 21 is an example of a "vibrator" in the claims.
 撮影部30は、振動部20に振動される収容部2内の部品1を連続撮影するカメラである。撮影部30は、所定のフレームレートで撮影を行うことにより、動画撮影または動画撮影に近い静止画の連続撮影を行うように構成されている。撮影部30は、搭載部10の上方(すなわち、被写体である部品1の上方)に配置されている。また、撮影部30には、撮影時に被写体である部品1に向かって照明光を照射する照明部31が設けられている。 The photographing section 30 is a camera that continuously photographs the component 1 inside the housing section 2 that is vibrated by the vibrating section 20. The photographing unit 30 is configured to perform continuous photographing of moving images or still images similar to moving images by photographing at a predetermined frame rate. The photographing section 30 is arranged above the mounting section 10 (that is, above the component 1 that is the subject). Further, the photographing section 30 is provided with an illumination section 31 that irradiates illumination light toward the component 1 that is a subject during photographing.
 制御部40は、部品計数装置100の動作を制御するように構成されている。具体的には、制御部40は、情報処理部41と、デバイス制御部42と、記憶部43とを含む。情報処理部41は、CPU(中央演算処理装置)などのプロセッサを含み、各種の情報を処理する。本実施形態では、情報処理部41は、撮影部30により部品1を撮影した撮影画像50(図2参照)を取得し、取得した撮影画像50に基づいて、収容部2内の部品1を計数する処理を行うように構成されている。デバイス制御部42は、CPU(中央演算処理装置)などのプロセッサを含み、振動部20および撮影部30の動作を制御する。収容部2内の部品1を計数する際には、デバイス制御部42の制御の下、振動部20による振動動作が行われるとともに、撮影部30による撮影動作が行われる。記憶部43は、フラッシュメモリなどの書き換え可能な不揮発性メモリを含み、各種の情報を記憶可能に構成されている。 The control unit 40 is configured to control the operation of the parts counting device 100. Specifically, the control section 40 includes an information processing section 41, a device control section 42, and a storage section 43. The information processing unit 41 includes a processor such as a CPU (central processing unit), and processes various information. In the present embodiment, the information processing unit 41 acquires a captured image 50 (see FIG. 2) of the component 1 captured by the imaging unit 30, and counts the components 1 in the storage unit 2 based on the acquired captured image 50. The system is configured to perform the processing that follows. The device control unit 42 includes a processor such as a CPU (central processing unit), and controls the operations of the vibration unit 20 and the imaging unit 30. When counting the parts 1 in the storage section 2, under the control of the device control section 42, the vibration section 20 performs a vibration operation, and the photographing section 30 performs a photographing operation. The storage unit 43 includes a rewritable nonvolatile memory such as a flash memory, and is configured to be able to store various types of information.
(部品計数処理の構成)
 図2aおよびbに示すように、デバイス制御部42は、振動部20により収容部2を振動させることにより収容部2内の部品1を移動させながら、撮影部30により収容部2内の部品1を連続撮影させるように構成されている。そして、情報処理部41は、撮影部30による撮影画像50を取得するとともに、取得した撮影画像50に基づいて、収容部2内の部品1を計数するように構成されている。
(Configuration of parts counting process)
As shown in FIGS. 2a and 2b, the device control section 42 moves the component 1 inside the storage section 2 by vibrating the storage section 2 with the vibration section 20, and moves the component 1 inside the storage section 2 using the imaging section 30. It is configured to shoot continuously. The information processing section 41 is configured to acquire a photographed image 50 by the photographing section 30 and to count the parts 1 in the storage section 2 based on the acquired photographed image 50.
 ここで、本実施形態では、図2b~eに示すように、情報処理部41は、撮影部30により順次撮影される撮影画像50に基づいて、振動により移動する部品1をトラッキングするとともに、収容部2内の部品1を計数するように構成されている。具体的には、情報処理部41は、撮影部30により順次撮影される撮影画像50に基づいて、撮影画像50に含まれる部品1の尤度マップ60を作成するように構成されている。尤度マップ60は、撮像画像50における部品1の尤度の分布を表すマップである。情報処理部41は、テンプレートマッチングを用いた方法、または、特徴量を抽出する方法などを用いて、撮影画像50の各画素を含む領域が部品1を写している部分に該当するかの程度を表す尤度を算出することにより、尤度マップ60を作成するように構成されている。通常は、部品1同士が隣接している場合には、尤度が低く算出され、部品1同士が隣接していない場合には、尤度が高く算出される。また、情報処理部41は、作成した尤度マップ60に基づいて、部品1をトラッキングするように構成されている。 Here, in this embodiment, as shown in FIGS. 2b to 2e, the information processing unit 41 tracks the component 1 that moves due to vibration based on the photographed images 50 sequentially photographed by the photographing unit 30, and also tracks the component 1 that moves due to vibration and It is configured to count parts 1 in section 2. Specifically, the information processing section 41 is configured to create a likelihood map 60 of the component 1 included in the photographed image 50 based on the photographed images 50 sequentially photographed by the photographing section 30. The likelihood map 60 is a map representing the likelihood distribution of the component 1 in the captured image 50. The information processing unit 41 uses a method using template matching or a method of extracting feature amounts to determine the degree to which the region including each pixel of the photographed image 50 corresponds to the part showing the part 1. The configuration is configured to create a likelihood map 60 by calculating the likelihood expressed. Usually, when the parts 1 are adjacent to each other, the likelihood is calculated to be low, and when the parts 1 are not adjacent to each other, the likelihood is calculated to be high. Furthermore, the information processing unit 41 is configured to track the component 1 based on the created likelihood map 60.
 また、本実施形態では、図2および図3に示すように、情報処理部41は、作成した尤度マップ60に基づいて、部品1の位置および姿勢(向き)を推定し、推定した部品1の位置および姿勢に基づいて、部品1の特徴点1aを抽出し、抽出した特徴点1aをトラッキングすることにより、部品1をトラッキングするように構成されている。具体的には、図2c、図2dおよび図3aに示すように、情報処理部41は、作成した尤度マップ60に基づいて、尤度がしきい値以上(たとえば90%以上)の高尤度領域61を取得し、取得した高尤度領域61の中心位置62を部品1の中心位置として推定するように構成されている。また、図3aに示すように、情報処理部41は、取得した高尤度領域61の形状に基づいて、部品1の姿勢を推定するように構成されている。情報処理部41は、たとえば部品1がねじなどの細長形状である場合、高尤度領域61の長手方向が部品1の長手方向であるとして、部品1の姿勢を推定するように構成されている。 Further, in the present embodiment, as shown in FIGS. 2 and 3, the information processing unit 41 estimates the position and orientation (orientation) of the component 1 based on the created likelihood map 60, and estimates the position and orientation of the component 1. The component 1 is tracked by extracting feature points 1a of the component 1 based on the position and orientation of the component 1, and tracking the extracted feature points 1a. Specifically, as shown in FIGS. 2c, 2d, and 3a, the information processing unit 41 selects a high likelihood whose likelihood is equal to or higher than a threshold value (for example, 90% or higher) based on the created likelihood map 60. The high likelihood area 61 is acquired, and the center position 62 of the acquired high likelihood area 61 is estimated as the center position of the component 1. Further, as shown in FIG. 3A, the information processing unit 41 is configured to estimate the orientation of the component 1 based on the shape of the acquired high likelihood region 61. For example, when the component 1 has an elongated shape such as a screw, the information processing unit 41 is configured to estimate the orientation of the component 1 on the assumption that the longitudinal direction of the high likelihood region 61 is the longitudinal direction of the component 1. .
 また、本実施形態では、図3bおよびcに示すように、情報処理部41は、推定した部品1の位置および姿勢に基づいて、特徴点1aを抽出する抽出領域70を設定し、抽出領域70内から特徴点1aを抽出するように構成されている。抽出領域70は、部品1の特徴点1aが存在する可能性が高い領域である。具体的には、抽出領域70は、部品1の外形(輪郭)を表す領域である。部品1の外形を表す情報が記憶部43に予め記憶されている。情報処理部41は、記憶部43に記憶された部品1の外形を表す情報と、推定した部品1の位置および姿勢とに基づいて、推定した位置に推定した姿勢で部品1が配置されていると仮定して、抽出領域70を設定するように構成されている。 Further, in this embodiment, as shown in FIGS. 3b and 3c, the information processing unit 41 sets an extraction region 70 for extracting the feature points 1a based on the estimated position and orientation of the component 1, and It is configured to extract feature points 1a from within. The extraction area 70 is an area where there is a high possibility that the feature point 1a of the component 1 exists. Specifically, the extraction area 70 is an area representing the outer shape (contour) of the component 1. Information representing the external shape of the component 1 is stored in the storage section 43 in advance. The information processing unit 41 arranges the component 1 at the estimated position and in the estimated orientation based on the information representing the external shape of the component 1 stored in the storage unit 43 and the estimated position and orientation of the component 1. The extraction area 70 is set based on this assumption.
 また、本実施形態では、図3dに示すように、情報処理部41は、抽出領域70内から抽出した特徴点1aと、基準画像80内の特徴点1aとの一致度を取得し、抽出領域70内から抽出した特徴点1aのうち、一致度がしきい値以上である特徴点1aを、トラッキングする特徴点1a(最終的な特徴点1a)として決定するように構成されている。基準画像80は、部品1を表す画像であり、基準画像80には、特徴点1aが予め設定されている。基準画像80の特徴点1aとしては、たとえば、角部および縁部などの外形付近の特徴点1aが設定されている。これにより、部品1の種類に関連の大きい、太さおよび長さなどの情報を保持した特徴点1aを設定することが可能である。1または複数の基準画像80が記憶部43に予め記憶されている。 Further, in the present embodiment, as shown in FIG. 3d, the information processing unit 41 obtains the degree of coincidence between the feature point 1a extracted from within the extraction region 70 and the feature point 1a within the reference image 80, and Among the feature points 1a extracted from within 70, the feature point 1a whose matching degree is equal to or higher than a threshold value is determined as the feature point 1a to be tracked (final feature point 1a). The reference image 80 is an image representing the component 1, and the feature point 1a is set in advance in the reference image 80. As the feature points 1a of the reference image 80, for example, feature points 1a near the outer shape such as corners and edges are set. Thereby, it is possible to set a feature point 1a that holds information such as thickness and length that is highly related to the type of component 1. One or more reference images 80 are stored in the storage section 43 in advance.
 また、本実施形態では、図2eに示すように、情報処理部41は、特徴点1aをトラッキングする部品1を計数することにより、収容部2内の部品1を計数するように構成されている。図2eに示す例では、特徴点1aをトラッキングする部品1(すなわち、検出済みの部品1)が1つであるので、計数された部品1の個数は1つである。振動部20により収容部2を振動させることにより収容部2内の部品1を移動させながら、撮影部30により収容部2内の部品1を連続撮影させて、順次取得される撮影画像50に対して画像処理を行うことにより、特徴点1aをトラッキングする部品1の個数が徐々に増加する。情報処理部41は、計数した部品1の個数が所定個数(収容部2に収容されるべき正しい個数)になるまで、上記のような部品計数処理を継続するように構成されている。 Further, in this embodiment, as shown in FIG. 2e, the information processing unit 41 is configured to count the parts 1 in the storage unit 2 by counting the parts 1 tracking the feature point 1a. . In the example shown in FIG. 2e, the number of parts 1 that tracks the feature point 1a (that is, the detected part 1) is one, so the number of parts 1 counted is one. While moving the component 1 inside the storage section 2 by vibrating the storage section 2 with the vibration section 20, the photographing section 30 continuously photographs the component 1 inside the storage section 2, and the photographed images 50 are sequentially acquired. By performing image processing using the image processing method, the number of parts 1 whose feature points 1a are tracked gradually increases. The information processing section 41 is configured to continue the above-described component counting process until the counted number of components 1 reaches a predetermined number (the correct number to be accommodated in the storage section 2).
 また、本実施形態では、情報処理部41は、計数した部品1の個数が所定個数を満たさない場合、ユーザに通知するように構成されている。具体的には、情報処理部41は、所定時間を経過しても計数した部品1の個数が所定個数未満である場合、または、計数した部品1の個数が所定個数よりも多くなった場合、ユーザに通知するように構成されている。情報処理部41は、表示部に表示することにより、計数した部品1の個数が所定個数を満たさないことをユーザに通知するように構成されている。情報処理部41は、たとえば部品計数装置100が表示部を備える場合には、部品計数装置100の表示部に通知を表示し、たとえば部品計数装置100が表示部を備えない場合には、外部表示部に通知を表示する。 Furthermore, in this embodiment, the information processing unit 41 is configured to notify the user when the counted number of parts 1 does not satisfy a predetermined number. Specifically, if the number of counted parts 1 is less than a predetermined number even after a predetermined time has elapsed, or if the number of counted parts 1 is greater than a predetermined number, Configured to notify the user. The information processing unit 41 is configured to notify the user that the counted number of parts 1 does not satisfy a predetermined number by displaying the information on the display unit. For example, when the parts counting device 100 includes a display section, the information processing section 41 displays a notification on the display section of the parts counting device 100; for example, when the parts counting device 100 does not include a display section, the information processing section 41 displays a notification on the external display. Display a notification in the section.
 また、本実施形態では、情報処理部41は、今回作成した尤度マップ60(最新の尤度マップ60)の尤度(精度)と、所定回数前までに作成した尤度マップ60の尤度(精度)とを部品領域(高尤度領域61などの尤度が高い領域)ごとに比較し、比較した部品領域のうち、今回作成した尤度マップ60で尤度が最大となる部品領域については、今回作成した尤度マップ60を特徴点1aの抽出に用い、比較した部品領域のうち、今回作成した尤度マップ60で尤度が最大とならない部品領域については、所定回数前までに作成した尤度マップ60のうち、今回作成した尤度マップ60よりも尤度が大きい尤度マップ60を特徴点1aの抽出に用いるように構成されている。情報処理部41は、たとえば、比較した部品領域のうち、今回作成した尤度マップ60で尤度が最大とならない部品領域については、所定回数前までに作成した尤度マップ60のうち、最も尤度が大きい尤度マップ60を特徴点1aの抽出に用いるように構成されている。 Further, in the present embodiment, the information processing unit 41 calculates the likelihood (accuracy) of the likelihood map 60 created this time (the latest likelihood map 60) and the likelihood of the likelihood map 60 created a predetermined number of times ago. (accuracy) for each part area (area with high likelihood such as high likelihood area 61), and among the compared part areas, the part area where the likelihood is maximum in the likelihood map 60 created this time. The likelihood map 60 created this time is used to extract the feature points 1a, and among the compared component regions, for the component regions for which the likelihood does not have the maximum in the likelihood map 60 created this time, the likelihood map 60 created this time is used to extract the feature points 1a. Among the likelihood maps 60 thus created, the likelihood map 60 having a higher likelihood than the likelihood map 60 created this time is used for extracting the feature point 1a. For example, for a component region that does not have the maximum likelihood in the likelihood map 60 created this time among the compared component regions, the information processing unit 41 selects the component region that has the highest likelihood among the likelihood maps 60 created a predetermined number of times before. The configuration is such that the likelihood map 60 having a high degree of accuracy is used for extracting the feature points 1a.
 ここで、図2および図3では、便宜上、1種類の部品1が収容部2内に収容されている例を図示しているが、複数種類の部品1が収容部2内に収容されている場合もある。そこで、本実施形態では、収容部2内に複数種類の部品1が存在する場合には、情報処理部41は、部品1の種類ごとに部品1の特徴点1aを抽出し、特徴点1aをトラッキングする部品1を種類ごとに計数することにより、部品1の種類ごとに部品1を計数するように構成されている。この場合、情報処理部41は、部品1の種類ごとに別々の尤度マップ60を作成するか、または、部品1の種類ごとの尤度の情報を含む1つの尤度マップ60を作成するように構成されている。そして、詳細な説明は省略するが、情報処理部41は、作成した尤度マップ60に基づいて、上記と同様に、部品1の種類ごとに部品1の特徴点1aを抽出するように構成されている。 Here, for convenience, FIGS. 2 and 3 illustrate an example in which one type of component 1 is housed in the housing section 2, but a plurality of types of components 1 are housed in the housing section 2. In some cases. Therefore, in the present embodiment, when there are multiple types of parts 1 in the storage unit 2, the information processing unit 41 extracts the feature points 1a of the parts 1 for each type of parts 1, and extracts the feature points 1a from the feature points 1a. By counting the parts 1 to be tracked for each type, the parts 1 are counted for each type of parts 1. In this case, the information processing unit 41 creates a separate likelihood map 60 for each type of component 1, or creates one likelihood map 60 that includes likelihood information for each type of component 1. It is composed of Although a detailed explanation will be omitted, the information processing unit 41 is configured to extract the feature points 1a of the component 1 for each type of component 1, in the same manner as described above, based on the created likelihood map 60. ing.
(機械学習モデルの構成)
 また、本実施形態では、図4に示すように、情報処理部41は、機械学習により生成された機械学習モデル90を用いて、部品1をトラッキングするように構成されている。具体的には、図4aに示すように、情報処理部41は、学習済みの機械学習モデル90を用いて、特徴点1aを抽出するように構成されている。より具体的には、機械学習モデル90は、撮影画像50の抽出領域70内の画像を入力とし、抽出領域70内の特徴点1aを表す2次元データである特徴点データ91を出力とするように構成されている。機械学習モデル90は、たとえば、コンボリューションネットワークにより構成されている。情報処理部41は、抽出領域70を設定すると、撮影画像50の抽出領域70内の画像を切り出して、機械学習モデル90に入力する。また、情報処理部41は、画像を入力した機械学習モデル90から特徴点データ91を取得することにより、抽出領域70内の特徴点1aを抽出する。
(Machine learning model configuration)
Further, in this embodiment, as shown in FIG. 4, the information processing unit 41 is configured to track the component 1 using a machine learning model 90 generated by machine learning. Specifically, as shown in FIG. 4a, the information processing unit 41 is configured to extract feature points 1a using a trained machine learning model 90. More specifically, the machine learning model 90 inputs an image within the extraction region 70 of the photographed image 50 and outputs feature point data 91, which is two-dimensional data representing the feature point 1a within the extraction region 70. It is composed of The machine learning model 90 is configured by, for example, a convolution network. After setting the extraction area 70, the information processing unit 41 cuts out an image within the extraction area 70 of the photographed image 50 and inputs it to the machine learning model 90. Furthermore, the information processing unit 41 extracts the feature points 1a within the extraction region 70 by acquiring feature point data 91 from the machine learning model 90 into which the image has been input.
 図4bは、機械学習モデル90の学習手順を示す。図4bに示すように、まず、学習画像92を機械学習モデル90に入力し、機械学習モデル90に特徴点データ91を出力させる。そして、特徴点データ91に基づく特徴点を抽出し、抽出した特徴点によりトラッキングを実行する。そして、トラッキングの実行結果に基づいて、トラッキング精度を表す損失値を算出する。そして、損失値を機械学習モデル90が有するパラメータに逆伝番させることにより、機械学習モデル90が有するパラメータを更新する。以上の手順で、機械学習モデル90のパラメータの更新を繰り返すことにより、特徴点1aを精度よく抽出可能な機械学習モデル90を生成することができる。また、学習済みの機械学習モデル90が記憶部43に予め記憶されて用いられる。 FIG. 4b shows the learning procedure of the machine learning model 90. As shown in FIG. 4b, first, a learning image 92 is input to the machine learning model 90, and the machine learning model 90 is caused to output feature point data 91. Then, feature points are extracted based on the feature point data 91, and tracking is performed using the extracted feature points. Then, a loss value representing tracking accuracy is calculated based on the tracking execution result. Then, the parameters of the machine learning model 90 are updated by reversely assigning the loss values to the parameters of the machine learning model 90. By repeating the updating of the parameters of the machine learning model 90 using the above procedure, it is possible to generate the machine learning model 90 that can accurately extract the feature points 1a. Further, the trained machine learning model 90 is stored in advance in the storage unit 43 and used.
(部品計数に関する制御処理)
 図5および図6を参照して、本実施形態の部品計数装置100による部品計数に関する制御処理をフローチャートに基づいて説明する。
(Control processing related to parts counting)
With reference to FIGS. 5 and 6, control processing regarding component counting by the component counting device 100 of this embodiment will be described based on a flowchart.
 図5に示すように、まず、ステップS1において、振動部20の第1振動子21および第2振動子22が作動される。 As shown in FIG. 5, first, in step S1, the first vibrator 21 and the second vibrator 22 of the vibrating section 20 are activated.
 そして、ステップS2において、振動部20により収容部2が振動されながら、撮影部30により収容部2内の部品1が撮影される。これにより、収容部2内の部品1が写された撮影画像50が取得される。 Then, in step S2, the component 1 inside the housing section 2 is photographed by the photographing section 30 while the housing section 2 is vibrated by the vibrating section 20. As a result, a photographed image 50 in which the component 1 inside the storage section 2 is captured is obtained.
 そして、ステップS3において、撮影画像50の画像処理が行われる。なお、撮影画像50の画像処理の詳細については、後述する。 Then, in step S3, image processing of the photographed image 50 is performed. Note that details of image processing of the photographed image 50 will be described later.
 そして、ステップS4において、所定個数の部品が検出(計数)されたか否かが判断される。所定個数の部品が検出されたと判断された場合、ステップS5に進む。 Then, in step S4, it is determined whether a predetermined number of parts have been detected (counted). If it is determined that a predetermined number of parts have been detected, the process advances to step S5.
 そして、ステップS5において、振動部20の第1振動子21および第2振動子22が停止される。そして、制御処理が終了される。 Then, in step S5, the first vibrator 21 and the second vibrator 22 of the vibrating section 20 are stopped. Then, the control process is ended.
 また、ステップS4において、所定個数の部品が検出されていないと判断された場合、ステップS6に進む。 Furthermore, in step S4, if it is determined that the predetermined number of parts have not been detected, the process proceeds to step S6.
 そして、ステップS6において、エラー条件が満たされたか否かが判断される。エラー条件は、所定時間を経過しても計数した部品1の個数が所定個数未満であるという条件、および、計数した部品1の個数が所定個数よりも多くなったという条件を含む。エラー条件が満たされたと判断された場合、ステップS7に進む。 Then, in step S6, it is determined whether the error condition is satisfied. The error conditions include a condition that the number of parts 1 counted is less than a predetermined number even after a predetermined time has elapsed, and a condition that the number of parts 1 counted is greater than the predetermined number. If it is determined that the error condition is satisfied, the process advances to step S7.
 そして、ステップS7において、計数した部品1の個数が所定個数を満たさないというエラーがユーザに通知される。その後、振動部20の第1振動子21および第2振動子22が停止されて、制御処理が終了される。 Then, in step S7, the user is notified of an error that the counted number of parts 1 does not meet the predetermined number. After that, the first vibrator 21 and the second vibrator 22 of the vibrating section 20 are stopped, and the control process is ended.
 また、ステップS6において、エラー条件が満たされていないと判断された場合、ステップS2に進む。そして、所定個数の部品が検出されるか、または、エラー条件が満たされるまで、ステップS2~S6の処理が繰り返される。 Furthermore, if it is determined in step S6 that the error condition is not satisfied, the process proceeds to step S2. Then, the processes of steps S2 to S6 are repeated until a predetermined number of parts are detected or an error condition is satisfied.
 図6を参照して、ステップS3の撮影画像50の画像処理の詳細について説明する。なお、撮影画像50の画像処理では、部品1の認識精度および部品1のトラッキング精度を向上させるため、2値化処理およびエッジ強調処理などの部品1を強調する処理が適宜行われてもよい。 With reference to FIG. 6, details of the image processing of the photographed image 50 in step S3 will be described. In addition, in the image processing of the photographed image 50, in order to improve the recognition accuracy of the component 1 and the tracking accuracy of the component 1, processing for emphasizing the component 1, such as binarization processing and edge enhancement processing, may be performed as appropriate.
 図6に示すように、まず、ステップS11において、撮影画像50に基づいて部品1の尤度マップ60が作成される。 As shown in FIG. 6, first, in step S11, a likelihood map 60 of the component 1 is created based on the photographed image 50.
 そして、ステップS12において、尤度マップ60に基づいて、部品1の位置および部品1の姿勢が推定される。また、複数種類の部品1が収容部2内に収容されている場合には、部品1の種類ごとに別々の尤度マップ60が作成されるか、または、部品1の種類ごとの尤度の情報を含む1つの尤度マップ60が作成されることにより、部品1の種類が推定される。 Then, in step S12, the position of component 1 and the orientation of component 1 are estimated based on the likelihood map 60. Furthermore, when multiple types of parts 1 are stored in the housing section 2, a separate likelihood map 60 is created for each type of part 1, or a likelihood map 60 for each type of part 1 is created. By creating one likelihood map 60 including information, the type of part 1 is estimated.
 そして、ステップS13において、今回作成した尤度マップ60の尤度と、所定回数前までに作成した尤度マップ60の尤度とが部品領域ごとに比較され、今回作成した尤度マップ60の尤度が最大となるか否かが部品領域ごとに判断される。今回作成した尤度マップ60で尤度が最大となると判断された部品領域については、ステップS14の処理が行われる。 Then, in step S13, the likelihood of the likelihood map 60 created this time and the likelihood of the likelihood map 60 created a predetermined number of times ago are compared for each part area, and the likelihood of the likelihood map 60 created this time is compared with the likelihood of the likelihood map 60 created a predetermined number of times ago. It is determined for each part area whether the degree is the maximum. The process of step S14 is performed for the component region for which the likelihood is determined to be the maximum in the likelihood map 60 created this time.
 そして、ステップS14において、今回作成した尤度マップ60を用いて、部品1の特徴点1aが抽出される。また、抽出された部品1の特徴点1aに特徴点1aが更新されて、記憶部43に記憶される。 Then, in step S14, the feature points 1a of the component 1 are extracted using the likelihood map 60 created this time. Further, the feature point 1a is updated to the feature point 1a of the extracted part 1 and is stored in the storage unit 43.
 そして、ステップS15において、抽出された部品1の特徴点1aがトラッキングされることにより、部品1がトラッキングされる。その後、ステップS4に進む。 Then, in step S15, the extracted feature point 1a of the component 1 is tracked, thereby tracking the component 1. After that, the process advances to step S4.
 また、ステップS13において、今回作成した尤度マップ60で尤度が最大とならないと判断された部品領域については、ステップS16の処理が行われる。 Further, in step S13, for the component region for which it is determined that the likelihood does not reach the maximum in the likelihood map 60 created this time, the process of step S16 is performed.
 そして、ステップS16において、所定回数前までに作成した尤度マップ60のうち、今回作成した尤度マップ60よりも尤度が大きい尤度マップ60を用いて、特徴点1aが抽出される。また、抽出された部品1の特徴点1aがトラッキングされることにより、部品1がトラッキングされる。その後、ステップS4に進む。 Then, in step S16, the feature point 1a is extracted using a likelihood map 60 that has a higher likelihood than the likelihood map 60 created this time among the likelihood maps 60 created a predetermined number of times ago. In addition, the extracted feature point 1a of the component 1 is tracked, so that the component 1 is tracked. After that, the process advances to step S4.
(部品計数装置を備えたロボットシステムの構成)
 次に、図7を参照して、本実施形態の部品計数装置100の適用例として、部品計数装置100を備えたロボットシステム200について説明する。
(Configuration of robot system equipped with parts counting device)
Next, with reference to FIG. 7, a robot system 200 including the parts counting device 100 will be described as an application example of the parts counting device 100 of this embodiment.
 ロボットシステム200は、部品計数装置100と、ロボット110と、ロボット制御部120とを備える。ロボット110は、収容部2内の部品1を移載するか、または、収容部2内に部品1を移載するピッキングロボットである。ロボット110は、たとえば、垂直多関節ロボットである。ロボット110は、多関節型のアーム111と、アーム111の先端に取り付けられて部品1を保持するハンド112とを含む。ロボット制御部120は、ロボット110の動作を制御するように構成されている。ロボットシステム200では、部品計数装置100は、たとえば、ロボット110により収容部2内に移載された部品1の個数が正しいか否かを検査するために、収容部2内の部品1を計数する。あるいは、部品計数装置100は、ロボット110により移載される前の収容部2内の部品1の個数が正しいか否かを検査するために、収容部2内の部品1を計数する。なお、部品計数装置100による部品計数処理は、上記の通りであるので、詳細な説明は繰り返さない。 The robot system 200 includes a parts counting device 100, a robot 110, and a robot control section 120. The robot 110 is a picking robot that transfers the component 1 into the storage section 2 or transfers the component 1 into the storage section 2 . The robot 110 is, for example, a vertically articulated robot. The robot 110 includes an articulated arm 111 and a hand 112 that is attached to the tip of the arm 111 and holds the component 1 . The robot control unit 120 is configured to control the operation of the robot 110. In the robot system 200, the parts counting device 100 counts the parts 1 in the storage unit 2, for example, in order to check whether the number of parts 1 transferred into the storage unit 2 by the robot 110 is correct. . Alternatively, the parts counting device 100 counts the parts 1 in the storage unit 2 in order to check whether the number of parts 1 in the storage unit 2 before being transferred by the robot 110 is correct. Note that the parts counting process by the parts counting device 100 is as described above, so detailed explanation will not be repeated.
 また、ロボット110により移載される前の収容部2内の部品1の個数が正しいか否かを検査するために、部品計数装置100により収容部2内の部品1を計数し、正しい部品1の個数が計数された場合、部品計数装置100の撮影部30および情報処理部41は、次のように動作する。すなわち、撮影部30は、振動部20により収容部2を振動させることを停止させた後にも、部品1を連続撮影し続けるように構成されている。また、情報処理部41は、振動部20により収容部2を振動させることを停止させた後の撮影部30による撮影画像に基づいて、収容部2内で静止した部品1の姿勢を認識するように構成されている。そして、ロボット制御部120は、情報処理部41により認識された部品1の姿勢に基づいて、ロボット110のハンド112により部品1を保持する部分を決定するように構成されている。これにより、部品計数装置100の撮影部30および情報処理部41を有効に利用して、ロボット110のハンド112により部品1を保持する部分を決定することが可能である。 In addition, in order to check whether the number of parts 1 in the storage unit 2 before being transferred by the robot 110 is correct, the parts 1 in the storage unit 2 are counted by the parts counting device 100, and the number of parts 1 in the storage unit 2 is correct. When the number of parts is counted, the photographing unit 30 and the information processing unit 41 of the parts counting device 100 operate as follows. That is, the photographing section 30 is configured to continue photographing the component 1 even after the vibrating section 20 stops vibrating the housing section 2 . The information processing unit 41 also recognizes the posture of the component 1 that is stationary within the storage unit 2 based on the image taken by the imaging unit 30 after the vibration unit 20 stops vibrating the storage unit 2. It is composed of The robot control unit 120 is configured to determine, based on the orientation of the component 1 recognized by the information processing unit 41, the portion of the robot 110 where the hand 112 holds the component 1. Thereby, it is possible to effectively utilize the photographing unit 30 and the information processing unit 41 of the parts counting device 100 to determine the part where the part 1 is held by the hand 112 of the robot 110.
 また、複数種類の部品1が収容部2内に収容されている場合には、情報処理部41は、振動部20により収容部2を振動させることを停止させた後の撮影部30による撮影画像に基づいて、収容部2内で静止した部品1の姿勢を部品1の種類ごとに認識するように構成されている。そして、ロボット制御部120は、情報処理部41により認識された種類ごとの部品1の姿勢に基づいて、部品1の種類に応じたロボット110のハンド112により部品1を保持する部分を決定するように構成されている。これにより、部品計数装置100の撮影部30および情報処理部41を有効に利用して、部品1の種類に応じたロボット110のハンド112により部品1を保持する部分を適切に決定することが可能である。 In addition, when a plurality of types of parts 1 are stored in the housing section 2, the information processing section 41 displays an image taken by the photographing section 30 after the vibrating section 20 stops vibrating the housing section 2. Based on this, the posture of the component 1 that is stationary within the storage section 2 is recognized for each type of component 1. Then, the robot control unit 120 determines the part where the hand 112 of the robot 110 should hold the part 1 according to the type of the part 1, based on the posture of the part 1 for each type recognized by the information processing unit 41. It is composed of As a result, it is possible to effectively utilize the photographing section 30 and the information processing section 41 of the parts counting device 100 to appropriately determine the part where the part 1 is held by the hand 112 of the robot 110 according to the type of the part 1. It is.
(本実施形態の効果)
 本実施形態では、以下のような効果を得ることができる。
(Effects of this embodiment)
In this embodiment, the following effects can be obtained.
 本実施形態では、上記のように、複数の部品1を収容する収容部2を振動させる振動部20を設ける。これにより、振動部20に部品1を振動させることにより部品1を移動させることができるので、ユーザが手動で部品1の重なりを解消する必要がない。その結果、ユーザの手間を省くことができる。また、撮影部30により順次撮影される撮影画像50に基づいて、振動により移動する部品1をトラッキングすることにより、計数精度の高い状況(部品1同士が近い位置に配置されない状況)を作り出しながら、部品1を計数することができるので、部品1を精度よく計数することができる。これらの結果、ユーザの手間を省きながら、部品1を精度よく計数することができる。 In this embodiment, as described above, the vibrating section 20 that vibrates the accommodating section 2 that accommodates the plurality of components 1 is provided. Thereby, the component 1 can be moved by causing the vibrating section 20 to vibrate the component 1, so there is no need for the user to manually eliminate the overlap of the components 1. As a result, the user's effort can be saved. In addition, by tracking the parts 1 that move due to vibration based on the photographed images 50 sequentially photographed by the photographing unit 30, while creating a situation with high counting accuracy (a situation in which the parts 1 are not placed in close positions), Since the parts 1 can be counted, the parts 1 can be counted with high accuracy. As a result, the parts 1 can be counted with high accuracy while saving the user's effort.
 また、本実施形態では、上記のように、情報処理部41は、撮影画像50に基づいて、撮影画像50に含まれる部品1の尤度マップ60を作成するとともに、その尤度マップ60に基づいて、部品1をトラッキングするように構成されている。これにより、尤度マップ60に基づいて部品1を精度よく認識することができるので、部品1を精度よくトラッキングすることができる。 Furthermore, in the present embodiment, as described above, the information processing unit 41 creates the likelihood map 60 of the component 1 included in the photographed image 50 based on the photographed image 50, and also creates the likelihood map 60 of the component 1 included in the photographed image 50. The device is configured to track the part 1. Thereby, the component 1 can be recognized with high precision based on the likelihood map 60, so the component 1 can be tracked with high precision.
 また、本実施形態では、上記のように、情報処理部41は、作成した尤度マップ60に基づいて、部品1の位置および姿勢を推定し、推定した部品1の位置および姿勢に基づいて、部品1の特徴点1aを抽出し、抽出した特徴点1aをトラッキングすることにより、部品1をトラッキングするように構成されている。これにより、尤度マップ60に基づいて部品1の位置および姿勢を精度よく推定することができるので、部品1の特徴点1aを精度よく抽出することができる。その結果、精度よく抽出した特徴点1aをトラッキングすることにより、部品1を精度よくトラッキングすることができる。 Further, in the present embodiment, as described above, the information processing unit 41 estimates the position and orientation of the component 1 based on the created likelihood map 60, and based on the estimated position and orientation of the component 1, The component 1 is configured to be tracked by extracting feature points 1a of the component 1 and tracking the extracted feature points 1a. Thereby, the position and orientation of the component 1 can be estimated with high precision based on the likelihood map 60, so the feature points 1a of the component 1 can be extracted with high precision. As a result, by tracking the accurately extracted feature points 1a, the component 1 can be accurately tracked.
 また、本実施形態では、上記のように、情報処理部41は、推定した部品1の位置および姿勢に基づいて、特徴点1aを抽出する抽出領域70を設定し、抽出領域70内から特徴点1aを抽出するように構成されている。これにより、特徴点1aが存在する可能性が高い抽出領域70内から特徴点1aを抽出することができるので、部品1の特徴点1aをより精度よく抽出することができる。その結果、より精度よく抽出した特徴点1aをトラッキングすることにより、部品1をより精度よくトラッキングすることができる。 Furthermore, in the present embodiment, as described above, the information processing unit 41 sets the extraction region 70 for extracting the feature points 1a based on the estimated position and orientation of the component 1, and extracts the feature points from within the extraction region 70. 1a. Thereby, the feature point 1a can be extracted from within the extraction region 70 where there is a high possibility that the feature point 1a exists, so the feature point 1a of the component 1 can be extracted with higher accuracy. As a result, the component 1 can be tracked more accurately by tracking the extracted feature points 1a with more accuracy.
 また、本実施形態では、上記のように、情報処理部41は、抽出領域70内から抽出した特徴点1aと、基準画像80内の特徴点1aとの一致度を取得し、抽出領域70内から抽出した特徴点1aのうち、一致度がしきい値以上である特徴点1aを、トラッキングする特徴点1aとして決定するように構成されている。これにより、一致度の高い特徴点1aをトラッキングすることにより、部品1をより一層精度よくトラッキングすることができる。 Further, in the present embodiment, as described above, the information processing unit 41 obtains the degree of coincidence between the feature point 1a extracted from within the extraction region 70 and the feature point 1a within the reference image 80, and Among the feature points 1a extracted from , the feature point 1a whose matching degree is equal to or higher than a threshold value is determined as the feature point 1a to be tracked. Thereby, by tracking the feature points 1a with a high degree of coincidence, the component 1 can be tracked with even higher accuracy.
 また、本実施形態では、上記のように、情報処理部41は、特徴点1aをトラッキングする部品1を計数することにより、収容部2内の部品1を計数するように構成されている。これにより、特徴点1aをトラッキングする部品1を計数することにより、同じ部品1を2重で計数することを回避することができるので、部品1をより精度よく計数することができる。 Furthermore, in this embodiment, as described above, the information processing unit 41 is configured to count the parts 1 in the storage unit 2 by counting the parts 1 that track the feature point 1a. Thereby, by counting the parts 1 that track the feature point 1a, it is possible to avoid counting the same part 1 twice, and therefore it is possible to count the parts 1 with higher accuracy.
 また、本実施形態では、上記のように、情報処理部41は、部品1の種類ごとに部品1の特徴点1aを抽出し、特徴点1aをトラッキングする部品1を種類ごとに計数することにより、部品1の種類ごとに部品1を計数するように構成されている。これにより、収容部2内に複数種類の部品1が存在する場合にも、部品1の種類ごとに部品1を精度よく計数することができる。 Furthermore, in the present embodiment, as described above, the information processing unit 41 extracts the feature points 1a of the component 1 for each type of the component 1, and counts the number of parts 1 that track the feature points 1a for each type. , is configured to count parts 1 for each type of parts 1. Thereby, even when a plurality of types of parts 1 exist in the storage section 2, the parts 1 can be accurately counted for each type of parts 1.
 また、本実施形態では、上記のように、情報処理部41は、今回作成した尤度マップ60の尤度と、所定回数前までに作成した尤度マップ60の尤度とを部品領域ごとに比較し、比較した部品領域のうち、今回作成した尤度マップ60で尤度が最大となる部品領域については、今回作成した尤度マップ60を特徴点1aの抽出に用い、比較した部品領域のうち、今回作成した尤度マップ60で尤度が最大とならない部品領域については、所定回数前までに作成した尤度マップ60のうち、今回作成した尤度マップ60よりも尤度が大きい尤度マップ60を特徴点1aの抽出に用いるように構成されている。これにより、常に尤度が大きい状態で抽出した特徴点1aをトラッキングすることができる。 Further, in the present embodiment, as described above, the information processing unit 41 calculates the likelihood of the likelihood map 60 created this time and the likelihood of the likelihood map 60 created a predetermined number of times ago for each part area. Among the compared component regions, for the component region that has the maximum likelihood in the likelihood map 60 created this time, the likelihood map 60 created this time is used to extract the feature points 1a, and the Among these, for component regions where the likelihood does not reach the maximum in the likelihood map 60 created this time, among the likelihood maps 60 created a predetermined number of times ago, the likelihood is larger than the likelihood map 60 created this time. The map 60 is configured to be used for extracting feature points 1a. Thereby, it is possible to always track the extracted feature point 1a in a state where the likelihood is large.
 また、本実施形態では、上記のように、情報処理部41は、機械学習により生成された機械学習モデル90を用いて、部品1をトラッキングするように構成されている。これにより、機械学習モデル90を用いて、部品1を容易に精度よくトラッキングすることができる。 Furthermore, in this embodiment, as described above, the information processing unit 41 is configured to track the component 1 using the machine learning model 90 generated by machine learning. Thereby, the component 1 can be easily and accurately tracked using the machine learning model 90.
 また、本実施形態では、上記のように、情報処理部41は、計数した部品1の個数が所定個数を満たさない場合、ユーザに通知するように構成されている。これにより、計数した部品1の個数が所定個数を満たさない場合(部品1の個数が所定個数よりも多いかまたは少ない場合)、ユーザは、部品1の個数が所定個数を満たさないことを容易に知ることができるので、部品1の個数が所定個数を満たすように容易に対処することができる。 Furthermore, in this embodiment, as described above, the information processing unit 41 is configured to notify the user when the counted number of parts 1 does not satisfy a predetermined number. As a result, if the number of counted parts 1 does not satisfy the predetermined number (if the number of parts 1 is greater or less than the predetermined number), the user can easily confirm that the number of parts 1 does not satisfy the predetermined number. Since this can be known, measures can be easily taken so that the number of parts 1 satisfies the predetermined number.
 また、本実施形態では、上記のように、振動部20は、収容部2を水平方向に振動させる第1振動子21を含む。これにより、水平方向に部品1を振動させることにより部品1を容易に移動させることができるので、計数精度の高い状況(部品1同士が近い位置に配置されない状況)を容易に作り出すことができる。 Furthermore, in this embodiment, as described above, the vibrating section 20 includes the first vibrator 21 that vibrates the housing section 2 in the horizontal direction. Thereby, the component 1 can be easily moved by vibrating the component 1 in the horizontal direction, so a situation with high counting accuracy (a situation in which the components 1 are not placed close to each other) can be easily created.
[変形例]
 なお、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内での全ての変更(変形例)が含まれる。
[Modified example]
Note that the embodiments disclosed this time should be considered to be illustrative in all respects and not restrictive. The scope of the present invention is indicated by the claims rather than the description of the embodiments described above, and further includes all changes (modifications) within the meaning and range equivalent to the claims.
 たとえば、上記実施形態では、部品計数装置をロボットシステムに適用する例を示したが、本発明はこれに限られない。本発明では、部品計数装置をロボットシステム以外に適用してもよい。 For example, in the above embodiment, an example was shown in which the parts counting device is applied to a robot system, but the present invention is not limited to this. In the present invention, the parts counting device may be applied to systems other than robot systems.
 また、上記実施形態では、部品計数装置が、部品を計数することにより部品の個数を検査する検査装置である例を示したが、本発明はこれに限られない。本発明では、部品計数装置が、部品の個数を検査する機能以外の検査機能をさらに備える検査装置であってもよい。 Further, in the above embodiment, an example was shown in which the parts counting device is an inspection device that inspects the number of parts by counting the parts, but the present invention is not limited to this. In the present invention, the parts counting device may be an inspection device further provided with an inspection function other than the function of inspecting the number of parts.
 また、上記実施形態では、尤度マップに基づいて抽出した特徴点をトラッキングする例を示したが、本発明はこれに限られない。本発明では、尤度マップ以外の画像処理により特徴点を抽出し、抽出した特徴点をトラッキングしてもよい。 Further, in the above embodiment, an example was shown in which feature points extracted based on a likelihood map are tracked, but the present invention is not limited to this. In the present invention, feature points may be extracted by image processing other than the likelihood map, and the extracted feature points may be tracked.
 また、上記実施形態では、特徴点を抽出する抽出領域を設定する例を示したが、本発明はこれに限られない。本発明は、特徴点を抽出する抽出領域を設定しなくてもよい。 Furthermore, in the above embodiment, an example was shown in which an extraction region for extracting feature points is set, but the present invention is not limited to this. In the present invention, it is not necessary to set an extraction area for extracting feature points.
 また、上記実施形態では、抽出領域内から抽出した特徴点と、基準画像内の特徴点との一致度を取得する例を示したが、本発明はこれに限られない。本発明では、抽出領域内から抽出した特徴点と、基準画像内の特徴点との一致度を取得しなくてもよい。すなわち、抽出領域内から抽出した特徴点を、トラッキングする特徴点として決定してもよい。 Further, in the above embodiment, an example was shown in which the degree of coincidence between feature points extracted from within the extraction region and feature points in the reference image is obtained, but the present invention is not limited to this. In the present invention, it is not necessary to obtain the degree of coincidence between the feature points extracted from within the extraction region and the feature points within the reference image. That is, feature points extracted from within the extraction area may be determined as feature points to be tracked.
 また、上記実施形態では、今回作成した尤度マップの尤度と、所定回数前までに作成した尤度マップの尤度とを部品領域ごとに比較する例を示したが、本発明はこれに限られない。本発明では、今回作成した尤度マップの尤度と、所定回数前までに作成した尤度マップの尤度とを部品領域ごとに比較しなくてもよい。すなわち、今回作成した尤度マップを、常に特徴点の抽出に用いてもよい。 Furthermore, in the above embodiment, an example was shown in which the likelihood of the likelihood map created this time and the likelihood of the likelihood map created a predetermined number of times ago are compared for each part area. Not limited. In the present invention, it is not necessary to compare the likelihood of the likelihood map created this time and the likelihood of the likelihood map created a predetermined number of times ago for each part area. That is, the likelihood map created this time may always be used to extract feature points.
 また、上記実施形態では、機械学習モデルを用いて、特徴点を抽出する例を示したが、本発明はこれに限られない。本発明では、機械学習モデル以外のルールベース型の画像処理などを用いて、特徴点を抽出してもよい。 Further, in the above embodiment, an example was shown in which feature points are extracted using a machine learning model, but the present invention is not limited to this. In the present invention, feature points may be extracted using rule-based image processing other than machine learning models.
 また、上記実施形態では、特徴点を抽出するように学習された機械学習モデルを用いて、特徴点を抽出して、部品をトラッキングする例を示したが、本発明はこれに限られない。本発明では、尤度マップを作成するように学習された機械学習モデルを用いて、尤度マップを作成して、部品をトラッキングしてもよい。 Further, in the above embodiment, an example was shown in which a machine learning model trained to extract feature points is used to extract feature points and track parts, but the present invention is not limited to this. In the present invention, a machine learning model trained to create a likelihood map may be used to create a likelihood map and track parts.
 また、上記実施形態では、振動部が、収容部を水平方向に振動させる第1振動子と、上下方向に振動させる第2振動子との両方を含む例を示したが、本発明はこれに限られない。本発明では、振動部が、収容部を水平方向に振動させる第1振動子と、上下方向に振動させる第2振動子とのいずれか一方のみを含んでいてもよい。 Further, in the above embodiment, an example was shown in which the vibrating section includes both the first vibrator that vibrates the housing section in the horizontal direction and the second vibrator that vibrates the housing section in the vertical direction. Not limited. In the present invention, the vibrating section may include only one of the first vibrator that vibrates the housing section in the horizontal direction and the second vibrator that vibrates the housing section in the vertical direction.
 また、上記実施形態では、説明の便宜上、制御部の処理動作を処理フローに沿って順番に処理を行うフロー駆動型のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、制御部の処理動作を、イベント単位で処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。 Further, in the above embodiment, for convenience of explanation, the processing operation of the control unit is explained using a flow-driven flowchart in which the processing is performed in order along the processing flow, but the present invention is not limited to this. In the present invention, the processing operation of the control unit may be performed by event-driven processing in which processing is executed on an event-by-event basis. In this case, it may be completely event-driven, or it may be a combination of event-driven and flow-driven.
 また、本発明では、撮影速度が画像処理速度よりも大きい場合、図8および図9の変形例に示すように、撮影処理と画像処理とを別々のフローで並行して実行してもよい。なお、図8および図9では、図5のフローチャートと同一の処理については、同一の符号を付し、その詳細な説明を省略する。 Furthermore, in the present invention, when the photographing speed is higher than the image processing speed, the photographing process and the image processing may be executed in parallel in separate flows, as shown in the modified examples of FIGS. 8 and 9. Note that in FIGS. 8 and 9, the same processes as those in the flowchart of FIG. 5 are denoted by the same reference numerals, and detailed explanation thereof will be omitted.
 図8に示すように、撮影部30側では、ステップS101において、記憶部43に記憶した撮影画像50が全て画像処理済みであるか否かが判断される。記憶部43に記憶した撮影画像50が全て画像処理済みでないと判断された場合、ステップS101の処理を繰り返す。また、記憶部43に記憶した撮影画像50が全て画像処理済みであると判断された場合、ステップS102に進む。そして、ステップS102において、撮影部30により収容部2内の部品1が撮影される。また、撮影画像50が記憶部43に記憶される。そして、ステップS103において、所定回数撮影が行われたか否かが判断される。所定回数撮影が行われていないと判断された場合、ステップS102の処理を繰り返す。また、所定回数撮影が行われたと判断された場合、ステップS4に進む。 As shown in FIG. 8, on the imaging unit 30 side, in step S101, it is determined whether all of the captured images 50 stored in the storage unit 43 have been subjected to image processing. If it is determined that all of the captured images 50 stored in the storage unit 43 have not been subjected to image processing, the process of step S101 is repeated. Further, if it is determined that all of the captured images 50 stored in the storage unit 43 have been subjected to image processing, the process advances to step S102. Then, in step S102, the photographing section 30 photographs the component 1 inside the storage section 2. Further, the photographed image 50 is stored in the storage unit 43. Then, in step S103, it is determined whether or not photography has been performed a predetermined number of times. If it is determined that photography has not been performed a predetermined number of times, the process of step S102 is repeated. Furthermore, if it is determined that photography has been performed a predetermined number of times, the process advances to step S4.
 また、図9に示すように、情報処理部41側では、ステップS111において、記憶部43に記憶した撮影画像50に画像処理未実行のものがあるか否かが判断される。記憶部43に記憶した撮影画像50に画像処理未実行のものがないと判断された場合、ステップS111の処理を繰り返す。また、記憶部43に記憶した撮影画像50に画像処理未実行のものがあると判断された場合、ステップS3に進み、画像処理未実行の撮影画像50に対して画像処理が実行される。そして、ステップS111に進む。図8および図9に示すフローチャートが並行して実行されることにより、情報処理部41による画像処理の完了を待ちながら、撮影部30による撮影を行うことができる。 Further, as shown in FIG. 9, on the information processing unit 41 side, in step S111, it is determined whether or not there are any captured images 50 stored in the storage unit 43 for which image processing has not been performed. If it is determined that there is no unprocessed image among the captured images 50 stored in the storage unit 43, the process of step S111 is repeated. If it is determined that some of the photographed images 50 stored in the storage unit 43 have not been subjected to image processing, the process proceeds to step S3, and image processing is performed on the photographed images 50 for which image processing has not been performed. Then, the process advances to step S111. By executing the flowcharts shown in FIGS. 8 and 9 in parallel, the image capturing section 30 can perform imaging while waiting for the information processing section 41 to complete the image processing.
 1 部品
 1a 特徴点
 2 収容部
 20 振動部
 21 第1振動子(振動子)
 30 撮影部
 41 情報処理部
 50 撮影画像
 60 尤度マップ
 70 抽出領域
 80 基準画像
 90 機械学習モデル
 100 部品計数装置
 110 ロボット
 200 ロボットシステム
1 Parts 1a Features 2 Housing section 20 Vibration section 21 First vibrator (vibrator)
30 Photographing unit 41 Information processing unit 50 Photographed image 60 Likelihood map 70 Extraction area 80 Reference image 90 Machine learning model 100 Parts counting device 110 Robot 200 Robot system

Claims (12)

  1.  複数の部品を収容する収容部を振動させる振動部と、
     前記振動部に振動される前記収容部内の前記部品を連続撮影する撮影部と、
     前記撮影部により順次撮影される撮影画像に基づいて、振動により移動する前記部品をトラッキングするとともに、前記収容部内の前記部品を計数する情報処理部と、を備える、部品計数装置。
    a vibrating unit that vibrates a housing unit that accommodates a plurality of components;
    an imaging unit that continuously photographs the parts in the housing unit that are vibrated by the vibration unit;
    A parts counting device, comprising: an information processing unit that tracks the parts that move due to vibration based on photographed images sequentially taken by the photographing unit, and counts the parts in the storage unit.
  2.  前記情報処理部は、前記撮影部により順次撮影される前記撮影画像に基づいて、前記撮影画像に含まれる前記部品の尤度マップを作成するとともに、その尤度マップに基づいて、前記部品をトラッキングするように構成されている、請求項1に記載の部品計数装置。 The information processing unit creates a likelihood map of the component included in the captured image based on the captured images sequentially captured by the imaging unit, and tracks the component based on the likelihood map. The parts counting device according to claim 1, wherein the parts counting device is configured to.
  3.  前記情報処理部は、作成した前記尤度マップに基づいて、前記部品の位置および姿勢を推定し、推定した前記部品の位置および姿勢に基づいて、前記部品の特徴点を抽出し、抽出した前記特徴点をトラッキングすることにより、前記部品をトラッキングするように構成されている、請求項2に記載の部品計数装置。 The information processing unit estimates the position and orientation of the part based on the created likelihood map, extracts feature points of the part based on the estimated position and orientation of the part, and extracts the extracted feature points of the part. 3. The parts counting device according to claim 2, configured to track the parts by tracking feature points.
  4.  前記情報処理部は、推定した前記部品の位置および姿勢に基づいて、前記特徴点を抽出する抽出領域を設定し、前記抽出領域内から前記特徴点を抽出するように構成されている、請求項3に記載の部品計数装置。 The information processing unit is configured to set an extraction area for extracting the feature points based on the estimated position and orientation of the part, and to extract the feature points from within the extraction area. 3. The parts counting device according to 3.
  5.  前記情報処理部は、前記抽出領域内から抽出した前記特徴点と、基準画像内の前記特徴点との一致度を取得し、前記抽出領域内から抽出した前記特徴点のうち、前記一致度がしきい値以上である前記特徴点を、トラッキングする前記特徴点として決定するように構成されている、請求項4に記載の部品計数装置。 The information processing unit obtains a degree of coincidence between the feature points extracted from within the extraction region and the feature points in the reference image, and determines whether the degree of coincidence is among the feature points extracted from within the extraction region. The parts counting device according to claim 4, wherein the component counting device is configured to determine the feature point that is equal to or greater than a threshold value as the feature point to be tracked.
  6.  前記情報処理部は、前記特徴点をトラッキングする前記部品を計数することにより、前記収容部内の前記部品を計数するように構成されている、請求項3に記載の部品計数装置。 The parts counting device according to claim 3, wherein the information processing unit is configured to count the parts in the storage unit by counting the parts that track the feature points.
  7.  前記情報処理部は、前記部品の種類ごとに前記部品の特徴点を抽出し、前記特徴点をトラッキングする前記部品を種類ごとに計数することにより、前記部品の種類ごとに前記部品を計数するように構成されている、請求項6に記載の部品計数装置。 The information processing unit counts the parts for each type of parts by extracting feature points of the parts for each type of parts and counting the parts whose feature points are tracked for each type. The parts counting device according to claim 6, wherein the parts counting device is configured to.
  8.  前記情報処理部は、今回作成した前記尤度マップの尤度と、所定回数前までに作成した前記尤度マップの尤度とを部品領域ごとに比較し、比較した前記部品領域のうち、今回作成した前記尤度マップで尤度が最大となる前記部品領域については、今回作成した前記尤度マップを前記特徴点の抽出に用い、比較した前記部品領域のうち、今回作成した前記尤度マップで尤度が最大とならない前記部品領域については、所定回数前までに作成した前記尤度マップのうち、今回作成した前記尤度マップよりも尤度が大きい前記尤度マップを前記特徴点の抽出に用いるように構成されている、請求項3に記載の部品計数装置。 The information processing unit compares the likelihood of the likelihood map created this time with the likelihood of the likelihood map created a predetermined number of times ago for each part area, and of the compared part areas, For the component region where the likelihood is maximum in the created likelihood map, the newly created likelihood map is used to extract the feature points, and among the compared component regions, the newly created likelihood map is used to extract the feature points. For the component region where the likelihood does not reach the maximum, the feature points are extracted from the likelihood map that has a greater likelihood than the likelihood map created this time among the likelihood maps created a predetermined number of times ago. The parts counting device according to claim 3, configured to be used for.
  9.  前記情報処理部は、機械学習により生成された機械学習モデルを用いて、前記部品をトラッキングするように構成されている、請求項1に記載の部品計数装置。 The parts counting device according to claim 1, wherein the information processing unit is configured to track the parts using a machine learning model generated by machine learning.
  10.  前記情報処理部は、計数した前記部品の個数が所定個数を満たさない場合、ユーザに通知するように構成されている、請求項1に記載の部品計数装置。 The parts counting device according to claim 1, wherein the information processing unit is configured to notify a user if the number of the counted parts does not satisfy a predetermined number.
  11.  前記振動部は、前記収容部を水平方向に振動させる振動子を含む、請求項1に記載の部品計数装置。 The parts counting device according to claim 1, wherein the vibrating section includes a vibrator that vibrates the housing section in a horizontal direction.
  12.  収容部内の部品を移載するか、または、前記収容部内に前記部品を移載するロボットと、
     前記収容部内の前記部品を計数する部品計数装置と、を備え、
     前記部品計数装置は、
      前記収容部を振動させる振動部と、
      前記振動部に振動される前記収容部内の前記部品を連続撮影する撮影部と、
      前記撮影部により順次撮影される撮影画像に基づいて、振動により移動する前記部品をトラッキングするとともに、前記収容部内の前記部品を計数する情報処理部と、
     を含む、ロボットシステム。
    a robot that transfers a component within a storage section or transfers the component into the storage section;
    a parts counting device that counts the parts in the storage section,
    The parts counting device includes:
    a vibrating section that vibrates the housing section;
    an imaging unit that continuously photographs the parts in the housing unit that are vibrated by the vibration unit;
    an information processing unit that tracks the parts moving due to vibration and counts the parts in the storage unit based on photographed images sequentially taken by the photographing unit;
    including robotic systems.
PCT/JP2022/029305 2022-07-29 2022-07-29 Component count device and robot system WO2024024090A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/029305 WO2024024090A1 (en) 2022-07-29 2022-07-29 Component count device and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/029305 WO2024024090A1 (en) 2022-07-29 2022-07-29 Component count device and robot system

Publications (1)

Publication Number Publication Date
WO2024024090A1 true WO2024024090A1 (en) 2024-02-01

Family

ID=89705906

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/029305 WO2024024090A1 (en) 2022-07-29 2022-07-29 Component count device and robot system

Country Status (1)

Country Link
WO (1) WO2024024090A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200770A (en) * 1993-12-28 1995-08-04 Sanyo Electric Co Ltd Tablet inspection system
JP2002173103A (en) * 2000-12-07 2002-06-18 Ajinomoto Co Inc Method and device for counting and filling solid food
JP2013015924A (en) * 2011-06-30 2013-01-24 Panasonic Corp Medicine counter and method therefor
JP2020016919A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Count apparatus, count method and program
WO2020183837A1 (en) * 2019-03-08 2020-09-17 三菱電機株式会社 Counting system, counting device, machine learning device, counting method, component arrangement method, and program
WO2021186494A1 (en) * 2020-03-16 2021-09-23 日本電気株式会社 Object tracking device, object tracking method, and recording medium
JP2022096438A (en) * 2020-12-17 2022-06-29 株式会社東芝 Object detection apparatus, object detection method, and object detection program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200770A (en) * 1993-12-28 1995-08-04 Sanyo Electric Co Ltd Tablet inspection system
JP2002173103A (en) * 2000-12-07 2002-06-18 Ajinomoto Co Inc Method and device for counting and filling solid food
JP2013015924A (en) * 2011-06-30 2013-01-24 Panasonic Corp Medicine counter and method therefor
JP2020016919A (en) * 2018-07-23 2020-01-30 Necソリューションイノベータ株式会社 Count apparatus, count method and program
WO2020183837A1 (en) * 2019-03-08 2020-09-17 三菱電機株式会社 Counting system, counting device, machine learning device, counting method, component arrangement method, and program
WO2021186494A1 (en) * 2020-03-16 2021-09-23 日本電気株式会社 Object tracking device, object tracking method, and recording medium
JP2022096438A (en) * 2020-12-17 2022-06-29 株式会社東芝 Object detection apparatus, object detection method, and object detection program

Similar Documents

Publication Publication Date Title
JP6700872B2 (en) Image blur correction apparatus and control method thereof, image pickup apparatus, program, storage medium
JP5538160B2 (en) Pupil detection device and pupil detection method
JP2008021092A (en) Simulation apparatus of robot system
JP2019028843A (en) Information processing apparatus for estimating person's line of sight and estimation method, and learning device and learning method
JP2015022027A5 (en)
US9704218B2 (en) Image processing device and method, and program
US10207409B2 (en) Image processing method, image processing device, and robot system
JP6758903B2 (en) Information processing equipment, information processing methods, programs, systems, and article manufacturing methods
JP2017504826A (en) Image device, method for automatic focusing in an image device, and corresponding computer program
JP2020087312A (en) Behavior recognition device, behavior recognition method, and program
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
JP2010184300A (en) Attitude changing device and attitude changing method
WO2024024090A1 (en) Component count device and robot system
JP2007010419A (en) Three-dimensional shape of object verifying system
JP2009276073A (en) Plane estimating method, curved surface estimating method, and plane estimating device
CN112566758A (en) Robot control device, robot control method, and robot control program
JP2021026599A (en) Image processing system
WO2021177245A1 (en) Image processing device, work instruction creating system, and work instruction creating method
JP2015230515A (en) Subject tracking device and camera
JP6602089B2 (en) Image processing apparatus and control method thereof
JP2011118767A (en) Facial expression monitoring method and facial expression monitoring apparatus
JPH08285526A (en) Image recognition system
JP2008014857A (en) Device, method, and program for acquiring coordinate for inspection of printed board
JPH11120351A (en) Image matching device and storage medium to store image matching program
US20240028781A1 (en) Imaging condition adjusting device and imaging condition adjusting method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22953178

Country of ref document: EP

Kind code of ref document: A1