JP7065343B2 - Tool control methods, programs, tool control systems, and tools - Google Patents

Tool control methods, programs, tool control systems, and tools Download PDF

Info

Publication number
JP7065343B2
JP7065343B2 JP2018030125A JP2018030125A JP7065343B2 JP 7065343 B2 JP7065343 B2 JP 7065343B2 JP 2018030125 A JP2018030125 A JP 2018030125A JP 2018030125 A JP2018030125 A JP 2018030125A JP 7065343 B2 JP7065343 B2 JP 7065343B2
Authority
JP
Japan
Prior art keywords
search
question
image
tool
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018030125A
Other languages
Japanese (ja)
Other versions
JP2019144965A (en
Inventor
勇佑 小熊
和生 土橋
幸夫 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018030125A priority Critical patent/JP7065343B2/en
Publication of JP2019144965A publication Critical patent/JP2019144965A/en
Application granted granted Critical
Publication of JP7065343B2 publication Critical patent/JP7065343B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • General Factory Administration (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、一般に工具制御方法、プログラム、工具制御システム、及び工具に関し、より詳細には、工具を制御する工具制御方法、プログラム、工具制御システム、及びこれらによって制御される工具に関する。 The present disclosure relates generally to tool control methods, programs, tool control systems, and tools, and more particularly to tool control methods, programs, tool control systems, and tools controlled by them.

従来、工具を用いた作業を管理する作業管理システムがある(例えば、特許文献1参照)。特許文献1に記載の作業管理システムは、工具と、作業管理装置と、を備えている。工具は、作業対象に対して作業を行うために使用される。作業管理装置は、作業情報取得部と、位置情報取得部と、作業対象情報取得部と、情報管理部と、を備えている。作業情報取得部は、作業対象に対して作業を行うために使用される工具から作業対象に行った作業の内容に関する作業情報を取得する。位置情報取得部は、工具を用いて作業対象に対する作業が行われた場所の位置情報を取得する。作業対象情報取得部は、作業対象から読み取った情報をもとに作業対象を特定する作業対象情報を取得する。情報管理部は、作業情報と位置情報と作業対象情報とを対応付けて記憶部に記憶させる。 Conventionally, there is a work management system that manages work using tools (see, for example, Patent Document 1). The work management system described in Patent Document 1 includes a tool and a work management device. Tools are used to perform work on the work object. The work management device includes a work information acquisition unit, a position information acquisition unit, a work target information acquisition unit, and an information management unit. The work information acquisition unit acquires work information regarding the content of the work performed on the work target from the tool used for performing the work on the work target. The position information acquisition unit acquires the position information of the place where the work was performed on the work target by using the tool. The work target information acquisition unit acquires work target information that identifies the work target based on the information read from the work target. The information management unit stores the work information, the position information, and the work target information in the storage unit in association with each other.

位置情報取得部は、例えばGPS(Global Positioning System)衛星から受信した電波をもとに現在位置を測定するGPS受信機から入力される測位データをもとに、作業場所の位置情報を取得する。 The position information acquisition unit acquires the position information of the work place based on the positioning data input from the GPS receiver that measures the current position based on the radio wave received from the GPS (Global Positioning System) satellite, for example.

また、特許文献1には、地上の複数の地点から放射されるビーコン電波を受信して現在位置を測位するような測位システムが記載されている。 Further, Patent Document 1 describes a positioning system that receives beacon radio waves radiated from a plurality of points on the ground and positions the current position.

特開2016-91316号公報Japanese Unexamined Patent Publication No. 2016-91316

電波の受信によって位置を測位するシステムでは、複数の作業対象の位置が互いに近い場合、これらの作業対象箇所の特定が困難であった。 In a system that positions positions by receiving radio waves, it is difficult to identify these work target locations when the positions of a plurality of work targets are close to each other.

本開示は、上記事由に鑑みてなされており、その目的は、作業対象の特定精度の向上を図ることができる工具制御方法、プログラム、工具制御システム、及び工具を提供することにある。 The present disclosure has been made in view of the above reasons, and an object thereof is to provide a tool control method, a program, a tool control system, and a tool capable of improving the specific accuracy of a work target.

本開示の一態様に係る工具制御方法は、工具が有する撮像部が作業対象を撮像した質問画像に類似した画像を、それぞれに制御値が対応付いた検索対象画像の集合から検索し、検索結果に対応する制御値を前記工具に設定する。前記工具制御方法は、抽出ステップと、検索ステップと、を含む。前記抽出ステップでは、前記質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する。前記検索ステップでは、前記質問側位置データと、前記検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、前記質問画像に類似した画像を前記検索対象画像の集合から検索する。前記作業対象は、前記工具によって対象箇所に取り付けられる。前記質問側特徴部は、前記質問画像における前記対象箇所に対応する部分に存在する。前記検索側特徴部は、前記検索対象画像における前記対象箇所に対応する部分に存在する。 In the tool control method according to one aspect of the present disclosure, an image similar to a question image in which the image pickup unit of the tool captures a work target is searched from a set of search target images having a control value corresponding to each, and the search result is obtained. The control value corresponding to is set in the tool. The tool control method includes an extraction step and a search step. In the extraction step, question-side position data indicating the positional relationship between the question-side reference point and the question-side feature portion in the question-side image is extracted. In the search step, the question image is similar to the question image based on the comparison result between the question side position data and the search side position data indicating the positional relationship between the search side reference point and the search side feature portion in the search target image. Images are searched from the set of search target images. The work target is attached to the target location by the tool. The question-side feature portion exists in a portion corresponding to the target portion in the question image. The search-side feature portion exists in a portion of the search target image corresponding to the target location.

本開示の一態様に係るプログラムは、コンピュータシステムに、前記工具制御方法を実行させる。 The program according to one aspect of the present disclosure causes a computer system to execute the tool control method.

本開示の一態様に係る工具制御システムは、工具が有する撮像部が作業対象を撮像した質問画像に類似した画像を、それぞれに制御値が対応付いた検索対象画像の集合から検索し、検索結果に対応する制御値を前記工具に設定する。前記工具制御システムは、抽出部と、検索部と、を備える。前記抽出部は、前記質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する。前記検索部は、前記質問側位置データと、前記検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、前記質問画像に類似した画像を前記検索対象画像の集合から検索する。前記作業対象は、前記工具によって対象箇所に取り付けられる。前記質問側特徴部は、前記質問画像における前記対象箇所に対応する部分に存在する。前記検索側特徴部は、前記検索対象画像における前記対象箇所に対応する部分に存在する。 The tool control system according to one aspect of the present disclosure searches for an image similar to a question image in which the image pickup unit of the tool captures a work target from a set of search target images to which a control value corresponds to each, and the search result. The control value corresponding to is set in the tool. The tool control system includes an extraction unit and a search unit. The extraction unit extracts question-side position data indicating the positional relationship between the question-side reference point and the question-side feature in the question image. The search unit resembles the question image based on a comparison result between the question side position data and the search side position data indicating the positional relationship between the search side reference point and the search side feature unit in the search target image. Images are searched from the set of search target images. The work target is attached to the target location by the tool. The question-side feature portion exists in a portion corresponding to the target portion in the question image. The search-side feature portion exists in a portion of the search target image corresponding to the target location.

本開示の一態様に係る工具は、前記工具制御システムによって制御され、前記作業対象を撮像する前記撮像部を有する。 The tool according to one aspect of the present disclosure is controlled by the tool control system and has the image pickup unit that images the work object.

本開示の工具制御方法、プログラム、工具制御システム、及び工具では、作業対象の特定精度の向上を図ることができるという効果がある。 The tool control method, program, tool control system, and tool of the present disclosure have an effect that the accuracy of specifying a work target can be improved.

図1は、本開示の一実施形態に係る工具制御システムのブロック図である。FIG. 1 is a block diagram of a tool control system according to an embodiment of the present disclosure. 図2Aは、本開示の一実施形態に係る工具の外観斜視図である。図2Bは、同上の工具の別方向からの外観斜視図である。FIG. 2A is an external perspective view of the tool according to the embodiment of the present disclosure. FIG. 2B is an external perspective view of the same tool from another direction. 図3は、本開示の一実施形態に係る工具制御方法のフローチャートである。FIG. 3 is a flowchart of the tool control method according to the embodiment of the present disclosure. 図4は、質問画像の概略図である。FIG. 4 is a schematic diagram of the question image. 図5Aは、第1検索対象画像の概略図である。図5Bは、第2検索対象画像の概略図である。FIG. 5A is a schematic diagram of the first search target image. FIG. 5B is a schematic diagram of the second search target image. 図6は、別の質問画像の概略図である。FIG. 6 is a schematic diagram of another question image. 図7は、さらに別の質問画像の概略図である。FIG. 7 is a schematic diagram of yet another question image. 図8は、本開示の実施形態の第1変形例に係る工具制御システムのブロック図である。FIG. 8 is a block diagram of a tool control system according to a first modification of the embodiment of the present disclosure. 図9は、本開示の実施形態の第1変形例に係る工具制御方法のフローチャートである。FIG. 9 is a flowchart of the tool control method according to the first modification of the embodiment of the present disclosure. 図10は、本開示の実施形態の第2変形例に係る工具制御システムのブロック図である。FIG. 10 is a block diagram of a tool control system according to a second modification of the embodiment of the present disclosure. 図11は、本開示の実施形態の第2変形例に係る工具制御方法のフローチャートである。FIG. 11 is a flowchart of the tool control method according to the second modification of the embodiment of the present disclosure. 図12は、共通領域を説明するための説明図である。FIG. 12 is an explanatory diagram for explaining a common area. 図13は、本開示の実施形態の第3変形例に係る工具制御方法のフローチャートである。FIG. 13 is a flowchart of the tool control method according to the third modification of the embodiment of the present disclosure. 図14Aは、別の共通領域を説明するための説明図である。図14Bは、検索対象領域を説明するための説明図である。図14Cは、別の検索対象領域を説明するための説明図である。FIG. 14A is an explanatory diagram for explaining another common area. FIG. 14B is an explanatory diagram for explaining a search target area. FIG. 14C is an explanatory diagram for explaining another search target area.

以下、本開示の実施の形態を図面に基づいて説明する。ただし、以下に説明する実施形態は、本開示の様々な実施形態の一つに過ぎない。下記の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. However, the embodiments described below are merely one of the various embodiments of the present disclosure. The following embodiments can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved.

実施形態1
(1)概要
本実施形態の工具制御システム1のブロック図を図1に示す。本実施形態の工具制御システム1は、例えば、工場における製品の組立作業を行う組立ラインに用いられる。本実施形態では、組立ラインにおいて、1つの製品に対して締付対象箇所が複数あり、作業者は、工具2を用いて同じ作業場所で複数の締付対象箇所の各々に締付部品(例えば、ボルト、ナット等)を取り付ける作業を行うことを想定している。「締付対象箇所」とは、締付部品が取り付けられるねじ孔を含むねじ孔周囲の部位である。本実施形態では、締付部品が工具2の作業対象である場合を例にして説明する。本実施形態の工具制御システム1は、複数の作業対象のうち工具2がセットされた作業対象を特定するように構成されている。「工具2がセットされた」とは、工具2が作業対象に対して作業が行えるように準備された状態を示す。ここでいう「準備された状態」とは、工具2が作業対象に当たっている状態だけでなく、工具2を作業対象に当てようとしている状態も含む。つまり、工具2が作業対象にセットされた状態では、工具2が作業対象に当たっていてもよいし、離れていてもよい。なお、工具制御システム1の使用用途は、上記の組立ラインに限らず、他の使用用途であってもよい。
Embodiment 1
(1) Overview A block diagram of the tool control system 1 of the present embodiment is shown in FIG. The tool control system 1 of the present embodiment is used, for example, in an assembly line for assembling products in a factory. In the present embodiment, in the assembly line, there are a plurality of tightening target points for one product, and the operator uses the tool 2 to tighten parts (for example, for example, each of the plurality of tightening target points in the same work place. , Bolts, nuts, etc.) are supposed to be installed. The “tightening target location” is a portion around the screw hole including the screw hole to which the tightening component is attached. In this embodiment, the case where the tightening part is the work target of the tool 2 will be described as an example. The tool control system 1 of the present embodiment is configured to specify a work target in which the tool 2 is set among a plurality of work targets. "The tool 2 is set" indicates a state in which the tool 2 is prepared so that the work can be performed on the work target. The "prepared state" here includes not only a state in which the tool 2 hits the work target but also a state in which the tool 2 is about to hit the work target. That is, in the state where the tool 2 is set on the work target, the tool 2 may hit the work target or may be separated from the work target. The usage of the tool control system 1 is not limited to the above assembly line, and may be other usage.

本実施形態の工具制御システム1及び工具制御方法は、工具2が有する撮像部26が作業対象(締付部品)を撮像した質問画像に類似した画像を、検索対象画像の集合から検索し、検索結果に応じて工具2を制御する。 In the tool control system 1 and the tool control method of the present embodiment, an image similar to a question image in which the image pickup unit 26 of the tool 2 captures a work target (tightening component) is searched from a set of search target images, and the search is performed. The tool 2 is controlled according to the result.

本実施形態の工具制御システム1は、処理装置4を備えている。処理装置4は、工具2と通信可能に構成されている。工具2は、セット作業対象を撮像する撮像部26を備えている。処理装置4は、撮像部26が撮像した画像(質問画像)に類似した画像を、検索対象画像の集合から検索する検索部52を備えている。処理装置4は、検索した検索対象画像に対応する目標トルク値(制御値)を工具2に出力する。工具2は、締付トルクが目標トルク値となるように動作する。つまり、本実施形態の工具制御システム1では、工具2の撮像部26が撮像した質問画像に類似した検索対象画像を検索することによって、工具2の作業対象を特定する。そして、工具制御システム1は、工具2のトルク設定値が、検索した検索対象画像に対応した目標トルク値となるように工具2を制御する。 The tool control system 1 of the present embodiment includes a processing device 4. The processing device 4 is configured to be able to communicate with the tool 2. The tool 2 includes an image pickup unit 26 that captures an image of a set work target. The processing device 4 includes a search unit 52 that searches an image similar to an image (question image) captured by the image pickup unit 26 from a set of search target images. The processing device 4 outputs the target torque value (control value) corresponding to the searched search target image to the tool 2. The tool 2 operates so that the tightening torque becomes the target torque value. That is, in the tool control system 1 of the present embodiment, the work target of the tool 2 is specified by searching for a search target image similar to the question image captured by the image pickup unit 26 of the tool 2. Then, the tool control system 1 controls the tool 2 so that the torque set value of the tool 2 becomes the target torque value corresponding to the searched search target image.

(2)構成
以下に、本実施形態の工具制御システム1の詳細な構成について図1を参照して説明する。
(2) Configuration The detailed configuration of the tool control system 1 of the present embodiment will be described below with reference to FIG.

(2.1)工具
まず、工具2の構成について説明する。工具2は、例えば電動のインパクトレンチ(図2A,2B参照)であり、締付部品を作業対象に取り付ける締付作業が可能である。なお、工具2は、インパクトレンチに限らず、インパクトレンチ等の他の電動工具であってもよい。また、工具2は、電動工具に限らず、エア工具等であってもよい。
(2.1) Tool First, the configuration of the tool 2 will be described. The tool 2 is, for example, an electric impact wrench (see FIGS. 2A and 2B), and can perform tightening work for attaching tightening parts to a work target. The tool 2 is not limited to the impact wrench, and may be another electric tool such as an impact wrench. Further, the tool 2 is not limited to a power tool, but may be an air tool or the like.

工具2は、駆動部24と、制御部3と、撮像部26と、通信部27と、電池パック201と、を有している。 The tool 2 has a drive unit 24, a control unit 3, an image pickup unit 26, a communication unit 27, and a battery pack 201.

図2A,2Bに示すように、工具2のボディ20は、筒形状の胴体部21と、胴体部21の周面から径方向に突出するグリップ22と、電池パック201が着脱自在に装着される装着部23と、を有している。 As shown in FIGS. 2A and 2B, the body 20 of the tool 2 is detachably attached with a tubular body portion 21, a grip 22 protruding radially from the peripheral surface of the body portion 21, and a battery pack 201. It has a mounting portion 23 and.

胴体部21には、駆動部24が収納されている。駆動部24は、モータを有しており、動力源である電池パック201から供給される電力を動力として回転動作するように構成されている。胴体部21の軸方向における一端側からは出力軸241が突出している(図2A,2B参照)。出力軸241は、駆動部24の回転動作によって回転するように構成されている。出力軸241には、締付部品(ボルト、ナット等)を締め付ける又は緩めるための円筒状のソケット242が着脱自在に取り付けられる。出力軸241に取り付けられるソケット242のサイズは、作業者によって締付部品のサイズに合わせて適宜選択される。工具2は、駆動部24の回転動作よって出力軸241が回転することにより、締付部品を締め付ける又は緩めるといった作業が可能となる。 The drive unit 24 is housed in the body unit 21. The drive unit 24 has a motor and is configured to rotate by using the electric power supplied from the battery pack 201, which is a power source, as a power source. The output shaft 241 protrudes from one end side of the body portion 21 in the axial direction (see FIGS. 2A and 2B). The output shaft 241 is configured to rotate by the rotational operation of the drive unit 24. A cylindrical socket 242 for tightening or loosening tightening parts (bolts, nuts, etc.) is detachably attached to the output shaft 241. The size of the socket 242 attached to the output shaft 241 is appropriately selected by the operator according to the size of the tightening component. The tool 2 can perform operations such as tightening or loosening the tightening parts by rotating the output shaft 241 by the rotational operation of the drive unit 24.

また、出力軸241には、ソケット242の代わりにソケットアンビルが着脱自在に取り付け可能であり、ソケットアンビルを介してビット(例えばドライバビット、ドリルビット等)の装着が可能となる。 Further, a socket anvil can be detachably attached to the output shaft 241 instead of the socket 242, and a bit (for example, a driver bit, a drill bit, etc.) can be attached via the socket anvil.

本実施形態の工具2は、インパクト機構25を更に備えている。インパクト機構25は、締付トルク(作業値)が所定レベルを超えると、出力軸241の回転方向に打撃力を加えるように構成されている。これにより、締付部品に対して、より大きな締付トルクを与えることが可能となる。 The tool 2 of the present embodiment further includes an impact mechanism 25. The impact mechanism 25 is configured to apply a striking force in the rotational direction of the output shaft 241 when the tightening torque (working value) exceeds a predetermined level. This makes it possible to apply a larger tightening torque to the tightening parts.

グリップ22は、作業者が作業を行う際に握る部分であり、トリガスイッチ221、及び正逆切替スイッチ222が設けられている。トリガスイッチ221は、駆動部24の回転動作のオン/オフを制御するためのスイッチであり、引込量に応じて駆動部24の回転数の調整が可能である。正逆切替スイッチ222は、出力軸241の回転方向を正転と逆転とに切り替えるスイッチである。グリップ22における胴体部21と反対側の端部には装着部23が設けられている。 The grip 22 is a portion to be gripped by an operator when performing work, and is provided with a trigger switch 221 and a forward / reverse changeover switch 222. The trigger switch 221 is a switch for controlling the on / off of the rotation operation of the drive unit 24, and the rotation speed of the drive unit 24 can be adjusted according to the pull-in amount. The forward / reverse changeover switch 222 is a switch that switches the rotation direction of the output shaft 241 between forward rotation and reverse rotation. A mounting portion 23 is provided at an end portion of the grip 22 opposite to the body portion 21.

装着部23は、扁平な矩形体状に形成されており、グリップ22と反対側の一面に電池パック201が着脱自在に装着される。電池パック201は、矩形体状に形成された樹脂製のケース202(図2A,2B参照)を有しており、ケース202の内部に充電池(例えば、リチウムイオン電池)を収納している。電池パック201は、駆動部24、制御部3、撮像部26、通信部27等に電力を供給する。 The mounting portion 23 is formed in a flat rectangular body shape, and the battery pack 201 is detachably mounted on one surface opposite to the grip 22. The battery pack 201 has a resin case 202 (see FIGS. 2A and 2B) formed in a rectangular shape, and a rechargeable battery (for example, a lithium ion battery) is housed inside the case 202. The battery pack 201 supplies electric power to the drive unit 24, the control unit 3, the image pickup unit 26, the communication unit 27, and the like.

また、装着部23には、操作パネル231が設けられている。操作パネル231は、例えば、複数の押ボタンスイッチ232、及び複数のLED233(Light Emitting Diode)を備えており、工具2の種々の設定、状態確認等を行うことができる。作業者は、例えば、操作パネル231(押ボタンスイッチ232)を操作することにより、工具2の動作モードの変更、電池パック201の残容量の確認等を行うことができる。また、装着部23には、発光部234が設けられている。発光部234は、例えばLEDで構成されている。発光部234は、作業時において作業対象に向けて光を照射するように配置されている。発光部234のオン/オフは、操作パネル231の操作で行うことができる。また、発光部234は、トリガスイッチ221がオンした際に点灯するように構成されていてもよい。 Further, the mounting portion 23 is provided with an operation panel 231. The operation panel 231 is provided with, for example, a plurality of pushbutton switches 232 and a plurality of LEDs 233 (Light Emitting Diodes), and can perform various settings, status confirmation, and the like of the tool 2. By operating the operation panel 231 (push button switch 232), for example, the operator can change the operation mode of the tool 2, check the remaining capacity of the battery pack 201, and the like. Further, the mounting unit 23 is provided with a light emitting unit 234. The light emitting unit 234 is composed of, for example, an LED. The light emitting unit 234 is arranged so as to irradiate the work target with light during work. The light emitting unit 234 can be turned on / off by operating the operation panel 231. Further, the light emitting unit 234 may be configured to light up when the trigger switch 221 is turned on.

通信部27は、例えば、Wi-Fi(登録商標)等の無線通信が可能な通信モジュールであり、ボディ20に収納されている。通信部27は、処理装置4との間で情報の送信及び受信を行う。なお、通信部27は、有線通信に対応した通信モジュールであってもよい。 The communication unit 27 is a communication module capable of wireless communication such as Wi-Fi (registered trademark), and is housed in the body 20. The communication unit 27 transmits and receives information to and from the processing device 4. The communication unit 27 may be a communication module compatible with wired communication.

また、装着部23には、制御部3が収納されている。制御部3は、例えばプロセッサとメモリとを有するマイクロコンピュータ(マイコン)を備えている。制御部3は、プロセッサがメモリに格納されているプログラムを実行することによって、駆動制御部31、撮像制御部32、抽出部33、通知制御部34、判定部35等の機能が実現される。プロセッサが実行するプログラムは、マイクロコンピュータのメモリに予め記憶されているが、メモリカード等の記録媒体に記録されて提供されてもよいし、電気通信回線を通じて提供されてもよい。なお、制御部3は、一定時間の間、トリガスイッチ221又は操作パネル231への操作入力が行われなかった場合、スリープ状態となる。制御部3は、スリープ状態中にトリガスイッチ221又は操作パネル231への操作入力が行わると起動する。 Further, the control unit 3 is housed in the mounting unit 23. The control unit 3 includes, for example, a microcomputer having a processor and a memory. The control unit 3 realizes the functions of the drive control unit 31, the image pickup control unit 32, the extraction unit 33, the notification control unit 34, the determination unit 35, and the like by executing the program stored in the memory by the processor. The program executed by the processor is stored in the memory of the microcomputer in advance, but may be recorded in a recording medium such as a memory card and provided, or may be provided through a telecommunication line. If the operation input to the trigger switch 221 or the operation panel 231 is not performed for a certain period of time, the control unit 3 goes into a sleep state. The control unit 3 is activated when an operation input is made to the trigger switch 221 or the operation panel 231 during the sleep state.

駆動制御部31は、駆動部24を制御するように構成されている。具体的には、駆動制御部31は、トリガスイッチ221の引込量に基づいた回転速度で、正逆切替スイッチ222によって設定された回転方向に駆動部24を回転させる。 The drive control unit 31 is configured to control the drive unit 24. Specifically, the drive control unit 31 rotates the drive unit 24 in the rotation direction set by the forward / reverse changeover switch 222 at a rotation speed based on the pull-in amount of the trigger switch 221.

また、駆動制御部31は、締付トルクがトルク設定値(作業用設定値)となるように駆動部24を制御するように構成されている。駆動制御部31は、通信部27を介して処理装置4から目標トルク値を取得し、取得した目標トルク値をトルク設定値に設定する。また、駆動制御部31は、締付トルクの大きさを推定するトルク推定機能を有している。駆動制御部31は、締付トルクの推定値が着座判定レベルに達するまでは、インパクト機構25の打撃間における駆動部24(モータ)の回転速度、回転量変化等に基づいて締付トルクの大きさを推定する。駆動制御部31は、締付トルクの推定値が着座判定レベルに達すると、インパクト機構25の打撃数に基づいて締付トルクの大きさを推定する。駆動制御部31は、インパクト機構25の打撃数が、トルク設定値に基づいた閾値回数に達すると、締付トルクがトルク設定値に達したと判断してモータを停止させる。これにより、締付部品を取り付ける際の締付トルクがトルク設定値となる。 Further, the drive control unit 31 is configured to control the drive unit 24 so that the tightening torque becomes a torque set value (working set value). The drive control unit 31 acquires a target torque value from the processing device 4 via the communication unit 27, and sets the acquired target torque value as the torque set value. Further, the drive control unit 31 has a torque estimation function for estimating the magnitude of the tightening torque. Until the estimated value of the tightening torque reaches the seating determination level, the drive control unit 31 has a large tightening torque based on the rotation speed of the drive unit 24 (motor) during the impact of the impact mechanism 25, changes in the amount of rotation, and the like. Estimate the torque. When the estimated value of the tightening torque reaches the seating determination level, the drive control unit 31 estimates the magnitude of the tightening torque based on the number of hits of the impact mechanism 25. When the number of hits of the impact mechanism 25 reaches the threshold number based on the torque set value, the drive control unit 31 determines that the tightening torque has reached the torque set value and stops the motor. As a result, the tightening torque when mounting the tightening component becomes the torque set value.

なお、工具2は、締付トルクを測定するトルクセンサを備えていてもよい。この場合、駆動制御部31は、トルクセンサが測定した締付トルクがトルク設定値となるように駆動部24を制御する。 The tool 2 may include a torque sensor for measuring the tightening torque. In this case, the drive control unit 31 controls the drive unit 24 so that the tightening torque measured by the torque sensor becomes the torque set value.

撮像制御部32は、撮像部26を制御するように構成されている。 The image pickup control unit 32 is configured to control the image pickup unit 26.

撮像部26は、例えば、撮像素子とレンズを有するカメラで構成されており、ボディ20の胴体部21に収納されている。撮像部26は、作業時に作業対象を撮像するように配置されている。本実施形態では、撮像部26は、出力軸241の先端側を撮像するように、出力軸241に沿って出力軸241から所定範囲内に配置されている。また、撮像部は、出力軸241に取り付けられたソケット242が撮像範囲に収まるように設けられている。撮像部26は、工具2のボディ20に固定されている。したがって、撮像した画像(質問画像)上の所定位置に、出力軸241の先端部が位置することとなる。また、撮像部26は、制御部3の起動中に撮像を継続して行うように構成されており、時系列で連続する撮像画像を動画形式に生成して抽出部33に出力する。 The image pickup unit 26 is composed of, for example, a camera having an image pickup element and a lens, and is housed in a body portion 21 of the body 20. The image pickup unit 26 is arranged so as to take an image of a work target during work. In the present embodiment, the imaging unit 26 is arranged within a predetermined range from the output shaft 241 along the output shaft 241 so as to image the tip end side of the output shaft 241. Further, the image pickup unit is provided so that the socket 242 attached to the output shaft 241 fits within the image pickup range. The image pickup unit 26 is fixed to the body 20 of the tool 2. Therefore, the tip end portion of the output shaft 241 is located at a predetermined position on the captured image (question image). Further, the imaging unit 26 is configured to continuously perform imaging while the control unit 3 is activated, and generates continuous captured images in a time series in a moving image format and outputs them to the extraction unit 33.

抽出部33は、質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する。抽出部33は、撮像部26が撮像した画像(質問画像)に画像処理を行うことにより、質問画像における質問側位置データを抽出する。 The extraction unit 33 extracts the question-side position data indicating the positional relationship between the question-side reference point and the question-side feature in the question image. The extraction unit 33 extracts the question side position data in the question image by performing image processing on the image (question image) captured by the image pickup unit 26.

質問側基準点とは、質問画像における所定の基準箇所であり、工具2の一部に対応する位置である。本実施形態では、質問側基準点は、工具2の出力軸241の先端部に対応する位置である。したがって、工具2が作業対象にセットされた状態では、質問基準点は、質問画像における締付部品又はねじ孔の位置に相当する。上述したように、撮像部26が工具2のボディ20に固定されているので、質問側基準点は、撮像部26が撮像した画像(質問画像)における所定位置となる。 The question-side reference point is a predetermined reference point in the question image, and is a position corresponding to a part of the tool 2. In the present embodiment, the reference point on the question side is a position corresponding to the tip of the output shaft 241 of the tool 2. Therefore, when the tool 2 is set as the work target, the question reference point corresponds to the position of the tightening part or the screw hole in the question image. As described above, since the image pickup unit 26 is fixed to the body 20 of the tool 2, the question side reference point is a predetermined position in the image (question image) captured by the image pickup unit 26.

質問側特徴部とは、質問画像における画像局所特徴箇所(点)である。画像局所特徴箇所とは、作業対象の凹凸、模様、マーク、文字等によって画像内において際立った点、エッジ等である。画像から画像局所特徴箇所(質問側特徴部)、及びその特徴量を抽出する方法として、例えばORB(Oriented FAST and Rotated BRIEF)等がある。作業対象が正常に撮像されている場合、1つの質問画像から複数(例えば数百)の画像局所特徴箇所(質問側特徴部)が抽出される。 The question-side feature portion is an image local feature location (point) in the question image. The local featured part of the image is a point, an edge, or the like that stands out in the image due to unevenness, a pattern, a mark, a character, or the like of the work target. As a method for extracting an image local feature portion (question-side feature portion) and a feature amount thereof from an image, for example, there is an ORB (Oriented FAST and Rotated BRIEF) or the like. When the work target is normally imaged, a plurality of (for example, several hundred) image local feature points (question side feature portions) are extracted from one question image.

抽出部33は、質問画像から質問側基準点と質問側特徴部とを抽出し、質問側基準点と質問側特徴部との位置関係を示すデータである質問側位置データを抽出する。質問側位置データには、質問側基準点と質問側特徴部との間の距離を示すデータ(質問側距離データ)が含まれている。上述したように、1つの質問画像から複数の質問側特徴部が抽出される。したがって、抽出部33は、1つの質問画像から複数の質問側距離データを抽出する。つまり、質問側位置データには、複数の質問側距離データが含まれている。また、抽出部33は、質問画像から複数の質問側特徴部それぞれの特徴量を、質問側特徴部に対応付けて抽出する。つまり、抽出部33は、質問画像から複数の質問側特徴部のそれぞれに対応する特徴量、及び質問側距離データを含む質問側位置データを抽出する。抽出部33は、抽出した質問側位置データを、通信部27を介して処理装置4に送信する。 The extraction unit 33 extracts the question-side reference point and the question-side feature unit from the question image, and extracts the question-side position data which is the data indicating the positional relationship between the question-side reference point and the question-side feature unit. The question-side position data includes data indicating the distance between the question-side reference point and the question-side feature portion (question-side distance data). As described above, a plurality of question-side feature portions are extracted from one question image. Therefore, the extraction unit 33 extracts a plurality of question-side distance data from one question image. That is, the question-side position data includes a plurality of question-side distance data. Further, the extraction unit 33 extracts the feature amount of each of the plurality of question-side feature units from the question image in association with the question-side feature unit. That is, the extraction unit 33 extracts the question side position data including the feature amount corresponding to each of the plurality of question side feature units and the question side distance data from the question image. The extraction unit 33 transmits the extracted question-side position data to the processing device 4 via the communication unit 27.

詳しくは後述するが、処理装置4は、工具2から送信された質問側位置データに基づいて、複数の検索対象画像から質問画像に類似した画像を検索し、検索した検索対象画像に対応する目標トルク値を工具2に出力する。駆動制御部31は、処理装置4から出力された目標トルク値をトルク設定値に設定し、締付トルクがトルク設定値(目標トルク値)となるように駆動部24を制御する。 As will be described in detail later, the processing device 4 searches for an image similar to the question image from a plurality of search target images based on the question side position data transmitted from the tool 2, and a target corresponding to the searched search target image. The torque value is output to the tool 2. The drive control unit 31 sets the target torque value output from the processing device 4 to the torque set value, and controls the drive unit 24 so that the tightening torque becomes the torque set value (target torque value).

通知制御部34は、工具2に設けられた通知部211を制御するように構成されている。通知部211は、例えば、LEDで構成されている。通知部211は、作業者が作業中に通知部211を目視しやすいように、ボディ20の胴体部21における出力軸241とは反対側の端部に設けられている(図2B参照)。通知制御部34は、処理装置4からの目標トルク値を受信すると、通知部211を点灯させる。作業者は、通知部211が点灯していることを目視することによって、トルク設定値が設定され、正常な締付作業が可能な状態であることを認識することができる。 The notification control unit 34 is configured to control the notification unit 211 provided on the tool 2. The notification unit 211 is composed of, for example, an LED. The notification unit 211 is provided at an end portion of the body unit 21 of the body 20 opposite to the output shaft 241 so that the operator can easily see the notification unit 211 during work (see FIG. 2B). When the notification control unit 34 receives the target torque value from the processing device 4, the notification control unit 34 turns on the notification unit 211. By visually observing that the notification unit 211 is lit, the operator can recognize that the torque set value is set and that normal tightening work is possible.

判定部35は、締付部品が締付対象箇所に取り付けられた際の締付トルクが正常であるか否かを判定するように構成されている。判定部35は、インパクト機構25の打撃数が閾値回数に達することによって駆動制御部31が駆動部24を停止させた場合、締付トルクが正常であると判定する。また、判定部35は、インパクト機構25の打撃数が閾値回数に達する前に、例えばトリガスイッチ221がオフされることによって駆動制御部31が駆動部24を停止させた場合、締付トルクが不十分(正常ではない)と判定する。判定部35は、判定結果を、通信部27を介して処理装置4に送信する。これにより、処理装置4で、工具2を用いた締付作業が正常に行われた否かを管理することができる。 The determination unit 35 is configured to determine whether or not the tightening torque is normal when the tightening component is attached to the tightening target portion. When the drive control unit 31 stops the drive unit 24 when the number of hits of the impact mechanism 25 reaches the threshold number, the determination unit 35 determines that the tightening torque is normal. Further, when the drive control unit 31 stops the drive unit 24 by turning off the trigger switch 221 before the number of hits of the impact mechanism 25 reaches the threshold value, the determination unit 35 does not have a tightening torque. Judged as sufficient (not normal). The determination unit 35 transmits the determination result to the processing device 4 via the communication unit 27. As a result, it is possible to control whether or not the tightening operation using the tool 2 is normally performed in the processing device 4.

なお、工具2が、締付トルクを測定するトルクセンサを備えている場合、判定部35は、トルクセンサの測定結果と目標トルク値とを比較することにより、締付トルクが正常であるか否かを判定するように構成されていてもよい。判定部35は、トルクセンサの測定結果が、目標トルク値を基準にした所定範囲内である場合、締付トルクが正常であると判定する。また、判定部35は、トルクセンサの測定結果が、目標トルク値を基準にした所定範囲外である場合、締付トルクが不十分(正常でない)と判定する。 When the tool 2 is provided with a torque sensor for measuring the tightening torque, the determination unit 35 compares the measurement result of the torque sensor with the target torque value to determine whether the tightening torque is normal or not. It may be configured to determine whether or not. When the measurement result of the torque sensor is within a predetermined range based on the target torque value, the determination unit 35 determines that the tightening torque is normal. Further, when the measurement result of the torque sensor is out of the predetermined range based on the target torque value, the determination unit 35 determines that the tightening torque is insufficient (not normal).

(2.2)処理装置
処理装置4は、例えば、サーバであり、通信部41と、制御部5と、記憶部6と、を備えている。
(2.2) Processing device The processing device 4 is, for example, a server, and includes a communication unit 41, a control unit 5, and a storage unit 6.

通信部41は、例えば、Wi-Fi(登録商標)等の無線通信が可能な通信モジュールである。通信部41は、工具2の通信部27との間で情報の送信及び受信を行う。なお、通信部41は、有線通信に対応した通信モジュールであってもよい。工具2の通信部27が無線通信にのみ対応している場合、通信部41は、無線通信と有線通信との相互変換を行う通信装置を介して、通信部27と通信を行うように構成されていてもよい。 The communication unit 41 is a communication module capable of wireless communication such as Wi-Fi (registered trademark). The communication unit 41 transmits and receives information to and from the communication unit 27 of the tool 2. The communication unit 41 may be a communication module compatible with wired communication. When the communication unit 27 of the tool 2 supports only wireless communication, the communication unit 41 is configured to communicate with the communication unit 27 via a communication device that performs mutual conversion between wireless communication and wired communication. You may be.

記憶部6は、例えばフラッシュメモリ等の半導体メモリで構成されており、画像記憶部61と、位置データ記憶部62と、目標トルク値記憶部63と、を有する。なお、本実施形態では、画像記憶部61と、位置データ記憶部62と、目標トルク値記憶部63と、が1つのメモリで構成されているが、複数のメモリで構成され、それぞれの記憶部が別々のメモリで構成されていてもよい。なお、記憶部6は、半導体メモリに限らず、メモリカード、ハードディスク等であってもよい。 The storage unit 6 is composed of a semiconductor memory such as a flash memory, and has an image storage unit 61, a position data storage unit 62, and a target torque value storage unit 63. In the present embodiment, the image storage unit 61, the position data storage unit 62, and the target torque value storage unit 63 are composed of one memory, but are composed of a plurality of memories, and each storage unit is composed of a plurality of memories. May consist of separate memories. The storage unit 6 is not limited to the semiconductor memory, but may be a memory card, a hard disk, or the like.

画像記憶部61は、複数の検索対象画像を記憶している。検索対象画像とは、作業対象を写した静止画像である。 The image storage unit 61 stores a plurality of search target images. The search target image is a still image showing the work target.

位置データ記憶部62は、複数の検索対象画像にそれぞれ対応する複数の検索側位置データを記憶している。検索側位置データとは、検索対象画像における検索側基準点と検索側特徴部との位置関係を示すデータである。 The position data storage unit 62 stores a plurality of search-side position data corresponding to each of the plurality of search target images. The search side position data is data showing the positional relationship between the search side reference point and the search side feature portion in the search target image.

検索側基準点とは、検索対象画像における所定の基準箇所である。本実施形態では、検索対象画像における締付部品又はねじ孔の位置に相当する。 The search side reference point is a predetermined reference point in the search target image. In this embodiment, it corresponds to the position of the tightening part or the screw hole in the image to be searched.

検索側特徴部とは、検索対象画像における画像局所特徴箇所(点)である。画像局所特徴箇所とは、作業対象の凹凸、模様、マーク、文字等によって画像内において際立った点、エッジ等である。画像から画像局所特徴箇所(質問側特徴部)、及びその特徴量を抽出する方法として、例えばORB等がある。1つの検索対象画像から複数(例えば数百)の画像局所特徴箇所(質問側特徴部)が抽出される。 The search-side feature portion is an image local feature location (point) in the search target image. The local featured part of the image is a point, an edge, or the like that stands out in the image due to unevenness, a pattern, a mark, a character, or the like of the work target. As a method of extracting an image local feature portion (question side feature portion) and a feature amount thereof from an image, for example, there is an ORB or the like. A plurality of (for example, several hundred) image local feature points (question-side feature portions) are extracted from one search target image.

目標トルク値記憶部63は、複数の検索対象画像と一対一に対応する複数の目標トルク値(制御値)を記憶している。 The target torque value storage unit 63 stores a plurality of target torque values (control values) corresponding to a plurality of search target images on a one-to-one basis.

画像記憶部61に記憶された複数の検索対象画像からの検索側基準点と検索側特徴部との抽出は、制御部5が有する抽出部51によって行われる。制御部5は、例えばプロセッサとメモリとを有するマイクロコンピュータ(マイコン)を備えている。制御部5は、プロセッサがメモリに格納されているプログラムを実行することによって、抽出部51、検索部52、トルク選択部53等の機能が実現される。プロセッサが実行するプログラムは、マイクロコンピュータのメモリに予め記憶されているが、メモリカード等の記録媒体に記録されて提供されてもよいし、電気通信回線を通じて提供されてもよい。 Extraction of the search side reference point and the search side feature unit from the plurality of search target images stored in the image storage unit 61 is performed by the extraction unit 51 possessed by the control unit 5. The control unit 5 includes, for example, a microcomputer having a processor and a memory. The control unit 5 realizes the functions of the extraction unit 51, the search unit 52, the torque selection unit 53, and the like by executing the program stored in the memory by the processor. The program executed by the processor is stored in the memory of the microcomputer in advance, but may be recorded in a recording medium such as a memory card and provided, or may be provided through a telecommunication line.

抽出部51は、複数の検索対象画像の各々に対して、検索側基準点と検索側特徴部とを抽出し、検索側基準点と検索側特徴部との位置関係を示すデータである検索側位置データを抽出する。検索側位置データには、検索側基準点と検索側特徴部との間の距離を示す検索側距離データが含まれている。上述したように、1つの検索対象画像から複数の検索側特徴部が抽出される。したがって、抽出部51は、1つの検索対象画像から複数の検索側距離データを抽出する。つまり、検索側位置データには、複数の検索側距離データが含まれている。また、抽出部51は、検索対象画像から複数の検索側特徴部それぞれの特徴量を、検索側特徴部に対応付けて抽出する。つまり、抽出部51は、検索対象画像から複数の検索側特徴部それぞれに対応する特徴量、及び検索側距離データを含む検索側位置データを抽出する。抽出部51は、複数の検索対象画像の各々から抽出した複数の検索側位置データを、検索対象画像に対応付けて位置データ記憶部62に記憶する。 The extraction unit 51 extracts the search side reference point and the search side feature unit for each of the plurality of search target images, and is data indicating the positional relationship between the search side reference point and the search side feature unit. Extract position data. The search-side position data includes search-side distance data indicating the distance between the search-side reference point and the search-side feature unit. As described above, a plurality of search-side feature portions are extracted from one search target image. Therefore, the extraction unit 51 extracts a plurality of search side distance data from one search target image. That is, the search side position data includes a plurality of search side distance data. Further, the extraction unit 51 extracts the feature amounts of each of the plurality of search-side feature units from the search target image in association with the search-side feature unit. That is, the extraction unit 51 extracts the search side position data including the feature amount corresponding to each of the plurality of search side feature units and the search side distance data from the search target image. The extraction unit 51 stores a plurality of search-side position data extracted from each of the plurality of search target images in the position data storage unit 62 in association with the search target image.

検索部52は、質問側位置データと、検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、質問画像に類似した画像を検索対象画像の集合から検索する。具体的には、検索部52は、工具2から送信された質問側位置データと、位置データ記憶部62に記憶された複数の検索側位置データとを比較することにより、質問画像に類似した画像を検索対象画像の集合から検索する。検索部52は、質問側位置データと複数の検索側位置データの各々と比較し、複数の検索側位置データの各々に対して質問側位置データとの一致点数を求める。一致点数とは、検索側位置データにおける検索側特徴部の特徴量及び検索側距離データと、質問側位置データにおける質問側特徴部の特徴量及び質問側距離データとが一致又は近似している場合に加算される点数である。近似した特徴量を探す手法として、最近傍探索がある。最近傍探索では、全探索又はFLANN(Fast Library for Approximate Nearest Neighbors)などの近似手法を用いる。検索部52は、複数の検索側位置データから一致点数が最も高い検索側位置データを検索する。検索部52は、検索した検索側位置データに対応する検索対象画像が、質問画像に類似した画像であると判断する。 The search unit 52 searches for an image similar to the question image based on the comparison result between the question side position data and the search side position data indicating the positional relationship between the search side reference point and the search side feature unit in the search target image. Search from a set of target images. Specifically, the search unit 52 compares the question-side position data transmitted from the tool 2 with the plurality of search-side position data stored in the position data storage unit 62 to obtain an image similar to the question image. Is searched from the set of search target images. The search unit 52 compares the question-side position data with each of the plurality of search-side position data, and obtains the number of matching points with the question-side position data for each of the plurality of search-side position data. The number of matching points is when the feature amount and the search side distance data of the search side feature part in the search side position data match or are close to the feature amount and the question side distance data of the question side feature part in the question side position data. It is a score to be added to. Nearest neighbor search is a method for finding approximate features. In the nearest neighbor search, an approximation method such as full search or FLAN (Fast Library for Approximate Nearest Neighbors) is used. The search unit 52 searches for the search side position data having the highest number of matching points from the plurality of search side position data. The search unit 52 determines that the search target image corresponding to the searched side position data is an image similar to the question image.

トルク選択部53は、目標トルク値記憶部63を参照し、検索部52が検索した検索対象画像に対応する目標トルク値を選択する。トルク選択部53は、選択した目標トルク値を、通信部41を介して工具2に送信する。工具2において、駆動制御部31は、処理装置4から送信された目標トルク値をトルク設定値に設定する。 The torque selection unit 53 refers to the target torque value storage unit 63, and selects the target torque value corresponding to the search target image searched by the search unit 52. The torque selection unit 53 transmits the selected target torque value to the tool 2 via the communication unit 41. In the tool 2, the drive control unit 31 sets the target torque value transmitted from the processing device 4 as the torque set value.

なお、処理装置4は、クラウドコンピューティングにより実現されていてもよいし、抽出部51、検索部52、トルク選択部53、画像記憶部61、位置データ記憶部62、及び目標トルク値記憶部63が、複数の装置に分散して設けられていてもよい。 The processing device 4 may be realized by cloud computing, and the extraction unit 51, the search unit 52, the torque selection unit 53, the image storage unit 61, the position data storage unit 62, and the target torque value storage unit 63. However, it may be distributed in a plurality of devices.

(3)動作例
次に、本実施形態の工具制御システム1の動作例について図3を用いて説明する。工具制御システム1による工具制御方法には、撮像ステップS1、抽出ステップS2、検索ステップS3、制御値選択ステップS4、及び制御値設定ステップS5が含まれている。
(3) Operation Example Next, an operation example of the tool control system 1 of the present embodiment will be described with reference to FIG. The tool control method by the tool control system 1 includes an imaging step S1, an extraction step S2, a search step S3, a control value selection step S4, and a control value setting step S5.

撮像ステップS1では、撮像部26が作業対象を撮像し質問画像を生成する。 In the imaging step S1, the imaging unit 26 images the work target and generates a question image.

抽出ステップS2では、質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する。ここでは、抽出部33が、質問画像から質問側位置データを抽出する。図4に、質問画像P11の一例を示す。質問画像P11には、2つの締付部品B1,B2が写っている。質問画像P11における中央付近の締付部品B1の位置が、質問側基準点C11である。また、図4において、特徴部(質問側特徴部)T1,T2,…,Tnを、概略的に示している。複数の質問側特徴部のうち、特徴量が同一の質問側特徴部には同一の符号を付している。抽出部33は、質問画像P11から質問側基準点C11、及び質問側特徴部T1,T2,…,Tnを抽出する。抽出部33は、質問側基準点C11と、質問側特徴部T1,T2,…,Tnそれぞれとの間の距離を示す質問側距離データを含む質問側位置データを抽出する。抽出部33は、抽出した質問側位置データを処理装置4に送信する。 In the extraction step S2, the question side position data indicating the positional relationship between the question side reference point and the question side feature portion in the question image is extracted. Here, the extraction unit 33 extracts the question side position data from the question image. FIG. 4 shows an example of the question image P11. Question image P11 shows two tightening parts B1 and B2. The position of the tightening component B1 near the center in the question image P11 is the question side reference point C11. Further, in FIG. 4, the feature portions (question side feature portions) T1, T2, ..., Tn are schematically shown. Of the plurality of question-side feature parts, the question-side feature parts having the same feature amount are designated by the same reference numerals. The extraction unit 33 extracts the question side reference point C11 and the question side feature units T1, T2, ..., Tn from the question image P11. The extraction unit 33 extracts the question-side position data including the question-side distance data indicating the distance between the question-side reference point C11 and each of the question-side feature units T1, T2, ..., Tn. The extraction unit 33 transmits the extracted question-side position data to the processing device 4.

検索ステップS3では、質問側位置データと、検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、質問画像に類似した画像を検索対象画像の集合から検索する。ここでは、検索部52が、質問側位置データと、複数の検索側位置データとを比較することより、質問画像に類似した画像を検索対象画像の集合から検索する。図5Aに、複数の検索対象画像に含まれている第1検索対象画像P21の一例を示し、図5Bに、複数の検索対象画像に含まれている第2検索対象画像P22の一例を示す。第1検索対象画像P21及び第2検索対象画像P22には、2つの締付部品B1,B2が写っている。第1検索対象画像P21は、締付部品B1の位置を検索側基準点C21とした検索対象画像であり、締付部品B1に対応する目標トルク値が対応付けられている。第2検索対象画像P22は、締付部品B2の位置を検索側基準点C22とした検索対象画像であり、締付部品B2に対応する目標トルク値が対応付けられている。また、図5A,5Bにおいて、特徴部(検索側特徴部)T1,T2,…,Tnを、概略的に示している。 In the search step S3, an image similar to the question image is searched based on the comparison result between the question side position data and the search side position data indicating the positional relationship between the search side reference point and the search side feature portion in the search target image. Search from a set of target images. Here, the search unit 52 searches for an image similar to the question image from the set of search target images by comparing the question side position data with the plurality of search side position data. FIG. 5A shows an example of the first search target image P21 included in the plurality of search target images, and FIG. 5B shows an example of the second search target image P22 included in the plurality of search target images. Two tightening parts B1 and B2 are shown in the first search target image P21 and the second search target image P22. The first search target image P21 is a search target image in which the position of the tightening component B1 is set as the search side reference point C21, and a target torque value corresponding to the tightening component B1 is associated with the first search target image P21. The second search target image P22 is a search target image in which the position of the tightening component B2 is set as the search side reference point C22, and a target torque value corresponding to the tightening component B2 is associated with the second search target image P22. Further, in FIGS. 5A and 5B, the feature portions (search side feature portions) T1, T2, ..., Tn are schematically shown.

位置データ記憶部62には、抽出部51によって複数の検索対象画像(第1検索対象画像P21及び第2検索対象画像P22を含む)の各々から抽出された検索側位置データが記憶される。つまり、位置データ記憶部62には、第1検索対象画像P21における検索側基準点C21と、検索側特徴部T1,T2,…,Tnそれぞれとの間の距離を示す検索側距離データを含む検索側位置データが記憶されている。また、位置データ記憶部62には、第2検索対象画像P22における検索側基準点C22と、検索側特徴部T1,T2,…,Tnそれぞれとの間の距離を示す検索側距離データを含む検索側位置データが記憶されている。 The position data storage unit 62 stores the search-side position data extracted from each of the plurality of search target images (including the first search target image P21 and the second search target image P22) by the extraction unit 51. That is, the position data storage unit 62 includes the search side distance data indicating the distance between the search side reference point C21 in the first search target image P21 and each of the search side feature units T1, T2, ..., Tn. Side position data is stored. Further, the position data storage unit 62 includes a search side distance data indicating a distance between the search side reference point C22 in the second search target image P22 and each of the search side feature units T1, T2, ..., Tn. Side position data is stored.

検索部52は、質問側位置データと、複数の検索側位置データとを比較する。具体的には、検索部52は、複数の検索側位置データの各々に対して質問側位置データとの一致点数を求める。図5A,5Bに示すように、締付部品B1と締付部品B2との間の距離が相対的に近いため、第1検索対象画像P21と第2検索対象画像P22とで、共通の検索側特徴部が含まれている。しかしながら、第1検索対象画像P21の検索側基準点C21が締付部品B1の位置であるのに対し、第2検索対象画像P22の検索側基準点C22が締付部品B2の位置である。したがって、第1検索対象画像P21の検索側距離データと、第2検索対象画像P22の検索側距離データとが異なる。図4に示すように、質問画像P11の質問側基準点C11は、締付部品B1の位置である。そのため、第1検索対象画像P21における検索側位置データと質問側位置データとの一致点数が、第2検索対象画像P22における検索側位置データと質問側位置データとの一致点数よりも高くなる。ここでは、複数の検索対象画像のうち第1検索対象画像P21における検索側位置データと質問側位置データとの一致点数が最も高いとする。検索部52は、第1検索対象画像P21が、質問画像P11に類似した画像であると判断する。 The search unit 52 compares the question-side position data with the plurality of search-side position data. Specifically, the search unit 52 obtains the number of matching points with the question-side position data for each of the plurality of search-side position data. As shown in FIGS. 5A and 5B, since the distance between the tightening component B1 and the tightening component B2 is relatively short, the first search target image P21 and the second search target image P22 have a common search side. The feature part is included. However, the search side reference point C21 of the first search target image P21 is the position of the tightening part B1, while the search side reference point C22 of the second search target image P22 is the position of the tightening part B2. Therefore, the search side distance data of the first search target image P21 and the search side distance data of the second search target image P22 are different. As shown in FIG. 4, the question-side reference point C11 of the question image P11 is the position of the tightening component B1. Therefore, the number of matching points between the search-side position data and the question-side position data in the first search target image P21 is higher than the number of matching points between the search-side position data and the question-side position data in the second search-target image P22. Here, it is assumed that the number of matching points between the search side position data and the question side position data in the first search target image P21 is the highest among the plurality of search target images. The search unit 52 determines that the first search target image P21 is an image similar to the question image P11.

制御値選択ステップS4では、トルク選択部53が、目標トルク値記憶部63から、検索部52が検索した検索対象画像(第1検索対象画像P21)に対応した目標トルク値(制御値)を選択する。トルク選択部53は、選択した目標トルク値(制御値)を工具2に送信する。 In the control value selection step S4, the torque selection unit 53 selects a target torque value (control value) corresponding to the search target image (first search target image P21) searched by the search unit 52 from the target torque value storage unit 63. do. The torque selection unit 53 transmits the selected target torque value (control value) to the tool 2.

制御値設定ステップS5では、工具2の駆動制御部31が、処理装置4から送信された目標トルク値(制御値)をトルク設定値に設定する。これにより、締付トルクが、工具2の撮像部26が撮像した画像(質問画像)に応じた目標トルク値となる。 In the control value setting step S5, the drive control unit 31 of the tool 2 sets the target torque value (control value) transmitted from the processing device 4 as the torque set value. As a result, the tightening torque becomes a target torque value corresponding to the image (questionnaire image) captured by the image pickup unit 26 of the tool 2.

このように、本実施形態の工具制御方法では、検索ステップS3において、抽出ステップS2で抽出された質問側位置データと、検索側位置データとを比較することによって、質問画像に類似した検索対象画像を検索している。したがって、質問画像に複数の作業対象(締付部品)が写っている場合であっても、工具2がセットされた作業対象(締付部品)を特定することができ、特定した作業対象に応じた制御値(目標トルク値)で作業を行うことができる。 As described above, in the tool control method of the present embodiment, in the search step S3, the question side position data extracted in the extraction step S2 is compared with the search side position data, so that the search target image similar to the question image is obtained. You are searching for. Therefore, even when a plurality of work targets (tightening parts) are shown in the question image, the work target (tightening parts) in which the tool 2 is set can be specified, and the specified work target can be specified. Work can be performed with the control value (target torque value).

ここで、撮像部26が撮像した質問画像は、撮像部26に対してグリップ22(図2参照)側が下となるように生成される。したがって、グリップ22の向きが変化した場合、質問画像において、質問側基準点の位置は変化しないが、質問側基準点に対する質問側特徴部の方向が変化することとなる(図6参照)。図6は、質問画像P11(図4参照)の撮像時に対して、グリップ22の向きを180度回転させて撮像した質問画像P11aの一例である。つまり、図6の質問画像P11aは、図4の質問画像P11を180度回転させた画像である。したがって、質問画像と検索対象画像とで向きが一致しない場合がある(図5A、図6参照)。 Here, the question image captured by the image pickup unit 26 is generated so that the grip 22 (see FIG. 2) side faces the image pickup unit 26. Therefore, when the direction of the grip 22 changes, the position of the question-side reference point does not change in the question image, but the direction of the question-side feature portion with respect to the question-side reference point changes (see FIG. 6). FIG. 6 is an example of the question image P11a taken by rotating the direction of the grip 22 by 180 degrees with respect to the time of taking the question image P11 (see FIG. 4). That is, the question image P11a in FIG. 6 is an image obtained by rotating the question image P11 in FIG. 4 by 180 degrees. Therefore, the orientation of the question image and the search target image may not match (see FIGS. 5A and 6).

本実施形態では、質問側位置データには質問側距離データが含まれている。質問側距離データは、質問側基準点と質問側特徴部との間の距離を示している。したがって、質問画像の向きに関わらず、質問側距離データは一定である。そのため、撮像部26が撮像した画像が、第1検索対象画像P21と向きが異なる質問画像P11aであっても、検索部52は、第1検索対象画像P21が質問画像P11aに類似した画像であると判断することができる。 In the present embodiment, the question side position data includes the question side distance data. The question-side distance data shows the distance between the question-side reference point and the question-side feature. Therefore, the question-side distance data is constant regardless of the orientation of the question image. Therefore, even if the image captured by the imaging unit 26 is the question image P11a whose orientation is different from that of the first search target image P21, the search unit 52 is an image in which the first search target image P21 is similar to the question image P11a. Can be judged.

また、本実施形態では、工具2が、質問画像から質問側位置データを抽出する抽出部33を備えており、工具2から処理装置4へ質問側位置データが送信される。つまり、質問画像自体は処理装置4へ送信されない。これにより、工具2と処理装置4との通信容量の低減を図ることができる。 Further, in the present embodiment, the tool 2 includes an extraction unit 33 for extracting the question side position data from the question image, and the question side position data is transmitted from the tool 2 to the processing device 4. That is, the question image itself is not transmitted to the processing device 4. As a result, the communication capacity between the tool 2 and the processing device 4 can be reduced.

(4)変形例
以下に、工具制御システム1、工具制御方法の変形例について説明する。以下に説明する変形例は、適宜組み合わせて適用可能である。
(4) Modification example The modification of the tool control system 1 and the tool control method will be described below. The modifications described below can be applied in combination as appropriate.

(4.1)第1変形例
質問側位置データに含まれるデータは、質問側距離データのみに限らず、質問側方向データが含まれていてもよい。質問側方向データとは、質問側基準点に対する質問側特徴部の方向を示すデータである。質問側方向データは、例えば、質問画像上において質問側基準点を中心とし上方向を0度とした360度の範囲内の角度で示される。
(4.1) First Modification Example The data included in the question-side position data is not limited to the question-side distance data, but may include question-side direction data. The question-side direction data is data indicating the direction of the question-side feature portion with respect to the question-side reference point. The question-side direction data is shown, for example, at an angle within the range of 360 degrees centered on the question-side reference point and 0 degrees in the upward direction on the question image.

抽出部33は、質問画像から複数の質問側特徴部のそれぞれに対応する特徴量、質問側距離データ、及び質問側方向データを含む質問側位置データを抽出する。 The extraction unit 33 extracts the question side position data including the feature amount corresponding to each of the plurality of question side feature units, the question side distance data, and the question side direction data from the question image.

また、質問側位置データに質問側方向データが含まれている場合、同様に検索側位置データに検索側方向データが含まれる。検索側方向データとは、検索側基準点に対する検索側特徴部の方向示すデータである。検索側方向データは、例えば、検索対象画像上において検索側基準点を中心とし上方向を0度とした360度の範囲内の角度で示される。 Further, when the question side position data includes the question side direction data, the search side position data also includes the search side direction data. The search-side direction data is data indicating the direction of the search-side feature unit with respect to the search-side reference point. The search-side direction data is shown, for example, at an angle within a range of 360 degrees with the search-side reference point as the center and the upward direction as 0 degrees on the search target image.

検索部52は、複数の検索側位置データの各々に対して質問側位置データとの一致点数を求める。 The search unit 52 obtains the number of points of agreement with the question-side position data for each of the plurality of search-side position data.

質問側位置データ、及び検索側位置データに、それぞれ質問側距離データ及び検索側距離データが含まれている場合における検索処理について、図5A,5Bを用いて説明する。 The search process when the question side position data and the search side position data include the question side distance data and the search side distance data will be described with reference to FIGS. 5A and 5B.

例えば、図5A,5Bに示すように、2つの締付部品B1,B2の各々に対して、同じ距離で同じ特徴量の2つの検索側特徴部T1が存在する場合がある。質問側位置データ及び検索側位置データに、それぞれ質問側方向データ及び検索側方向データが含まれていない場合、第1検索対象画像P21と第2検索対象画像P22との両方で、2つの検索側特徴部T1が一致点数としてカウントされてしまう。しかしながら、本変形例では、質問側位置データ及び検索側位置データに、それぞれ質問側方向データ及び検索側方向データが含まれているので、第2検索対象画像P22では、2つの検索側特徴部T1が一致点数としてカウントされない。これにより、質問画像に類似した検索対象画像の検索精度が向上する。 For example, as shown in FIGS. 5A and 5B, there may be two search-side feature portions T1 having the same feature amount at the same distance for each of the two tightening parts B1 and B2. When the question side position data and the search side position data do not include the question side direction data and the search side direction data, respectively, both the first search target image P21 and the second search target image P22 have two search sides. The feature portion T1 is counted as the number of matching points. However, in this modification, since the question-side position data and the search-side position data include the question-side direction data and the search-side direction data, respectively, in the second search target image P22, the two search-side feature portions T1 Is not counted as a match score. This improves the search accuracy of the search target image similar to the question image.

ここで、グリップ22の向きが変化した場合、質問画像の向きが変化するので質問側方向データも変化してしまう。また、作業対象に対して撮像部26が傾いた状態で質問画像が撮像された場合、図7に示すように質問画像P11b上の作業対象等が傾いてしまい、正確な質問側距離データの抽出が困難となる。図7の質問画像P11bは、質問画像P11(図4参照)の撮像時に対して、グリップ22の向きを180度回転させ、かつ作業対象の垂直方向に対して工具2をグリップ22側に傾けて撮像した画像である。 Here, when the orientation of the grip 22 changes, the orientation of the question image changes, so that the question-side direction data also changes. Further, when the question image is captured with the image pickup unit 26 tilted with respect to the work target, the work target or the like on the question image P11b is tilted as shown in FIG. 7, and accurate question side distance data is extracted. Becomes difficult. In the question image P11b of FIG. 7, the direction of the grip 22 is rotated 180 degrees with respect to the time of imaging of the question image P11 (see FIG. 4), and the tool 2 is tilted toward the grip 22 with respect to the vertical direction of the work target. It is an image taken.

本変形例の工具制御システム1Aは、図8に示すように、補正部36を更に備えている。なお、上記実施形態と同様の構成には同一符号を付して説明を省略する。 As shown in FIG. 8, the tool control system 1A of this modification further includes a correction unit 36. The same reference numerals are given to the same configurations as those in the above embodiment, and the description thereof will be omitted.

補正部36は、工具2の制御部3が有している。制御部3は、プロセッサがメモリに格納されているプログラムを実行することによって、補正部36の機能が実現される。 The correction unit 36 is included in the control unit 3 of the tool 2. The control unit 3 realizes the function of the correction unit 36 when the processor executes a program stored in the memory.

補正部36は、撮像部26が撮像した質問画像に対して補正処理を行う。補正部36は、質問画像に対して、質問画像が基準方向となるように回転させる補正を行う。基準方向とは、検索対象画像の向きに対応した方向である。また、補正部36は、質問画像に対して、質問画像が作業対象の垂直方向から撮像した画像となるように傾きを補正する。補正部36は、例えばオプティカルフロー計算を用いて質問画像の回転及び傾きの補正を行う。補正部36による補正処理によって、例えば図7の質問画像P11bが図4の質問画像P11のように補正される。なお、工具2がジャイロセンサ(加速度センサ)等を備え、補正部36は、ジャイロセンサの検知結果を用いて質問画像を補正してもよい。 The correction unit 36 performs correction processing on the question image captured by the image pickup unit 26. The correction unit 36 corrects the question image by rotating it so that the question image is in the reference direction. The reference direction is a direction corresponding to the direction of the image to be searched. Further, the correction unit 36 corrects the inclination of the question image so that the question image becomes an image captured from the vertical direction of the work target. The correction unit 36 corrects the rotation and inclination of the question image by using, for example, optical flow calculation. By the correction process by the correction unit 36, for example, the question image P11b in FIG. 7 is corrected as in the question image P11 in FIG. The tool 2 may include a gyro sensor (accelerometer) or the like, and the correction unit 36 may correct the question image using the detection result of the gyro sensor.

これにより、抽出部33は、補正後の質問画像から質問側方向データ及び質問側距離データをより正確に抽出することができる。したがって、質問画像に類似した検索対象画像の検索精度が向上する。 As a result, the extraction unit 33 can more accurately extract the question-side direction data and the question-side distance data from the corrected question image. Therefore, the search accuracy of the search target image similar to the question image is improved.

また、本変形例の工具制御システム1Aによる工具制御方法には、図9に示すように、撮像ステップS1、補正ステップS11、抽出ステップS2、検索ステップS3、制御値選択ステップS4、及び制御値設定ステップS5が含まれている。なお、上記実施形態と同様のステップには、同一符号を付して説明を省略する。 Further, as shown in FIG. 9, the tool control method by the tool control system 1A of this modification includes the imaging step S1, the correction step S11, the extraction step S2, the search step S3, the control value selection step S4, and the control value setting. Step S5 is included. The same steps as those in the above embodiment are designated by the same reference numerals and the description thereof will be omitted.

補正ステップS11では、補正部36によって、質問画像を回転させるような補正が行われる。また、補正ステップS11では、補正部36によって、質問画像の傾きの補正が行われる。つまり、補正ステップS11では、補正部36によって、撮像部26が撮像した質問画像に対して回転及び傾きの補正が行われる。抽出ステップS2では、補正後の質問画像から質問側位置データを抽出する。 In the correction step S11, the correction unit 36 makes a correction so as to rotate the question image. Further, in the correction step S11, the correction unit 36 corrects the inclination of the question image. That is, in the correction step S11, the correction unit 36 corrects the rotation and the inclination of the question image captured by the image pickup unit 26. In the extraction step S2, the question side position data is extracted from the corrected question image.

(4.2)第2変形例
本変形例の工具制御システム1Bは、図10に示すように、画角変更部37を更に備えている。画角変更部37は、工具2の制御部3が有している。制御部3は、プロセッサがメモリに格納されているプログラムを実行することによって、画角変更部37の機能が実現される。
(4.2) Second Modification Example The tool control system 1B of this modification further includes an angle of view changing portion 37 as shown in FIG. The angle of view changing unit 37 is included in the control unit 3 of the tool 2. The control unit 3 realizes the function of the angle of view changing unit 37 by executing a program stored in the memory by the processor.

画角変更部37は、質問画像の画角の大きさを変更するように構成されている。本変形例では、撮像部26はズーム機能を有しており、画角の大きさが調整可能に構成されている。画角変更部37は、抽出部33が質問画像から抽出した質問側特徴部の数である特徴点数に基づいて、質問画像の画角の大きさを変更する。具体的には、画角変更部37は、抽出部33が質問画像から抽出した質問側特徴部の特徴点数が、下限値未満である場合、質問画像の画角が大きくなるように撮像部26の画角の大きさを調整する。抽出部33は、画角変更後の質問画像から質問側特徴部を再度抽出する。抽出部33が質問画像から抽出した質問特徴部の特徴点数が下限値以上であれば、抽出部33が抽出した質問側位置データが処理装置4に送信される。 The angle of view changing unit 37 is configured to change the size of the angle of view of the question image. In this modification, the image pickup unit 26 has a zoom function, and the size of the angle of view can be adjusted. The angle of view changing unit 37 changes the size of the angle of view of the question image based on the number of feature points, which is the number of feature units on the question side extracted from the question image by the extraction unit 33. Specifically, the angle of view changing unit 37 is an imaging unit 26 so that the angle of view of the question image becomes larger when the number of feature points of the question side feature unit extracted from the question image by the extraction unit 33 is less than the lower limit value. Adjust the size of the angle of view. The extraction unit 33 extracts the question-side feature unit again from the question image after the angle of view is changed. If the number of feature points of the question feature unit extracted from the question image by the extraction unit 33 is equal to or greater than the lower limit, the question side position data extracted by the extraction unit 33 is transmitted to the processing device 4.

これにより、検索部52は、より多くの質問側特徴部に対応した質問側位置データを用いて、質問画像に類似した検索対象画像を検索することができる。したがって、質問画像に類似した検索対象画像の検索精度が向上する。 As a result, the search unit 52 can search for a search target image similar to the question image by using the question side position data corresponding to more question side feature units. Therefore, the search accuracy of the search target image similar to the question image is improved.

また、本変形例の工具制御方法には、図11に示すように、撮像ステップS1、抽出ステップS2、特徴点数比較ステップS21、画角変更ステップS22、検索ステップS3、制御値選択ステップS4、及び制御値設定ステップS5が含まれている。なお、上記実施形態と同様のステップには、同一符号を付して説明を省略する。 Further, as shown in FIG. 11, the tool control method of this modification includes an imaging step S1, an extraction step S2, a feature score comparison step S21, an angle of view changing step S22, a search step S3, a control value selection step S4, and a control value selection step S4. The control value setting step S5 is included. The same steps as those in the above embodiment are designated by the same reference numerals and the description thereof will be omitted.

特徴点数比較ステップS21では、画角変更部37が、抽出部33が質問画像から抽出した質問側特徴部の特徴点数と、下限値とを比較する。特徴点数が下限値未満である場合(S21:No)、画角変更部37は、画角変更ステップS22を行う。 In the feature score comparison step S21, the angle of view changing section 37 compares the feature score of the question-side feature section extracted from the question image by the extraction section 33 with the lower limit value. When the number of feature points is less than the lower limit (S21: No), the angle of view changing unit 37 performs the angle of view changing step S22.

画角変更ステップS22では、質問画像の画角の大きさを変更する。ここでは、画角変更部37が、質問画像の画角が大きくなるように撮像部26の画角の大きさを調整する。そして、抽出ステップS2において、抽出部33が、画角変更後の質問画像から質問側特徴部を再度抽出する。また、特徴点数が下限値以上である場合、抽出部33が抽出した質問側位置データが処理装置4に送信され、検索ステップS3が行われる。 In the angle of view change step S22, the size of the angle of view of the question image is changed. Here, the angle of view changing unit 37 adjusts the size of the angle of view of the imaging unit 26 so that the angle of view of the question image becomes large. Then, in the extraction step S2, the extraction unit 33 extracts the question side feature unit again from the question image after the angle of view is changed. When the number of feature points is equal to or greater than the lower limit, the question-side position data extracted by the extraction unit 33 is transmitted to the processing device 4, and the search step S3 is performed.

なお、上記では、特徴点数が下限値未満である場合に、質問画像の画角が大きくなるように撮像部26の画角の大きさを調整しているが、これに限らない。画角変更部37は、特徴点数と上限値とを比較し、特徴点数が上限値より多い場合、質問画像の画角が小さくなるように撮像部26の画角の大きさを調整してもよい。これにより、特徴点数が制限されるので、検索ステップS3での検索部52の処理負荷が低減され、検索時間の短縮を図ることができる。なお、質問画像の画角を小さくする方法は、撮像部26のズーム機能を用いてもよいし、質問画像をトリミングしてもよい。 In the above, the size of the angle of view of the imaging unit 26 is adjusted so that the angle of view of the question image becomes large when the number of feature points is less than the lower limit, but the present invention is not limited to this. The angle of view changing unit 37 compares the number of feature points with the upper limit value, and if the number of feature points is larger than the upper limit value, even if the size of the angle of view of the image pickup unit 26 is adjusted so that the angle of view of the question image becomes smaller. good. As a result, the number of feature points is limited, so that the processing load of the search unit 52 in the search step S3 can be reduced, and the search time can be shortened. As a method of reducing the angle of view of the question image, the zoom function of the imaging unit 26 may be used, or the question image may be trimmed.

また、画角変更部37は、特徴点数と、上限値及び下限値と比較し、比較結果に基づいて質問画像の画角を変更するように構成されていてもよい。 Further, the angle of view changing unit 37 may be configured to compare the number of feature points with the upper limit value and the lower limit value and change the angle of view of the question image based on the comparison result.

(4.3)第3変形例
本変形例の工具制御システム1では、処理装置4の抽出部51は、除外部としての機能を有している。
(4.3) Third Modification Example In the tool control system 1 of this modification, the extraction unit 51 of the processing device 4 has a function as an exclusion unit.

抽出部51(除外部)は、検索対象画像の集合のうち、共通領域が含まれる複数の重複画像において、複数の重複画像のうち少なくとも1つの重複画像に対して、共通領域に含まれる検索側特徴部を除外する。共通領域とは、複数の検索対象画に共通(オーバーラップ)して写っている領域である。重複画像とは、共通領域が写っている検索対象画像である。 The extraction unit 51 (exclusion unit) is a search side included in the common area for at least one duplicate image among the plurality of duplicate images in a plurality of duplicate images including the common area in the set of search target images. Exclude the feature part. The common area is an area that is common (overlapped) to a plurality of search target images. The duplicate image is a search target image in which a common area is shown.

複数の作業対象同士の位置が近接している場合、共通領域が発生しやすくなる。例えば、図12に示すように、締付部品B1と締付部品B2との位置が近接していることによって、第1検索対象画像P21と第2検索対象画像P22とに共通領域A1が写ることとなる。図12は、第1検索対象画像P21の範囲と第2検索対象画像P22の範囲とを概念的に示した製品M1の外観図である。図12において、ドットハッチングを付した領域が共通領域A1である。また、図12において、特徴部(検索側特徴部)をT1,T2,…,Tnで概略的に示している。 When the positions of a plurality of work targets are close to each other, a common area is likely to occur. For example, as shown in FIG. 12, when the tightening parts B1 and the tightening parts B2 are close to each other, the common area A1 is captured in the first search target image P21 and the second search target image P22. It becomes. FIG. 12 is an external view of the product M1 conceptually showing the range of the first search target image P21 and the range of the second search target image P22. In FIG. 12, the area with dot hatching is the common area A1. Further, in FIG. 12, the feature portion (search side feature portion) is schematically shown by T1, T2, ..., Tn.

抽出部51は、共通領域A1内に含まれる検索側特徴部(図12では検索側特徴部T1,T1,T2,T3,T4,Tn)を、抽出対象から外す。つまり、第1検索対象画像P21及び第2検索対象画像P22のそれぞれから、共通領域A1内に含まれる検索側特徴部が除外される。 The extraction unit 51 excludes the search-side feature unit (search-side feature unit T1, T1, T2, T3, T4, Tn in FIG. 12) included in the common area A1 from the extraction target. That is, the search-side feature portion included in the common area A1 is excluded from each of the first search target image P21 and the second search target image P22.

これにより、複数の重複画像において、共通領域A1に含まれる検索側特徴部の混同が抑制され、質問画像に類似した検索対象画像の検索精度が向上する。 As a result, in the plurality of duplicate images, confusion of the search-side feature portion included in the common area A1 is suppressed, and the search accuracy of the search target image similar to the question image is improved.

また、本変形例の工具制御方法には、図13に示すように、除外ステップS6、抽出ステップS7、記憶ステップS8、撮像ステップS1、抽出ステップS2、検索ステップS3、制御値選択ステップS4、及び制御値設定ステップS5が含まれる。なお、上記実施形態と同様のステップには、同一符号を付して説明を省略する。 Further, as shown in FIG. 13, the tool control method of this modification includes the exclusion step S6, the extraction step S7, the storage step S8, the imaging step S1, the extraction step S2, the search step S3, the control value selection step S4, and the control value selection step S4. The control value setting step S5 is included. The same steps as those in the above embodiment are designated by the same reference numerals and the description thereof will be omitted.

除外ステップS6では、検索対象画像の集合のうち、共通領域が含まれる複数の重複画像において、複数の重複画像のうち少なくとも1つの重複画像に対して、共通領域に含まれる検索側特徴部を除外する。ここでは、抽出部51(除外部)が、重複画像から共通領域A1に含まれる検索側特徴部を除外する。 In the exclusion step S6, in a plurality of duplicate images including a common area in the set of search target images, the search side feature portion included in the common area is excluded for at least one of the plurality of duplicate images. do. Here, the extraction unit 51 (exclusion unit) excludes the search-side feature unit included in the common area A1 from the duplicate image.

抽出ステップS7では、抽出部51が、重複画像を含む複数の検索対象画像の各々から、検索側位置データを抽出する。 In the extraction step S7, the extraction unit 51 extracts the search side position data from each of the plurality of search target images including the duplicate image.

記憶ステップS8では、抽出部51が抽出した検索側位置データを検索対象画像に対応付けて位置データ記憶部62に記憶する。 In the storage step S8, the search-side position data extracted by the extraction unit 51 is associated with the search target image and stored in the position data storage unit 62.

なお、上記では、重複画像(第1検索対象画像P21、第2検索対象画像P22)の両方から、共通領域A1に含まれる検索側特徴部を除外しているが、これに限らない。抽出部51(除外部)は、検索対象画像の集合のうち、共通領域が含まれる複数の重複画像において、複数の重複画像のうち少なくとも1つの重複画像に対して、共通領域に含まれる検索側特徴部を除外する構成であればよい。 In the above, the search-side feature portion included in the common area A1 is excluded from both the duplicate images (first search target image P21 and second search target image P22), but the present invention is not limited to this. The extraction unit 51 (exclusion unit) is a search side included in the common area for at least one duplicate image among the plurality of duplicate images in a plurality of duplicate images including the common area in the set of search target images. Any configuration may be used as long as the feature portion is excluded.

複数の作業対象が近接している場合、重複画像において、全領域が共通領域となる場合がある。図14Aに、5つの検索対象画像P23~P27の範囲を概念的に示した製品M2の外観図である。検索対象画像P23は、締付部品B3,B7が含まれており、締付部品B3の位置を検索側基準点C23とする画像である。検索対象画像P24は、締付部品B4,B7が含まれており、締付部品B4の位置を検索側基準点C24とする画像である。検索対象画像P25は、締付部品B5,B7が含まれており、締付部品B5の位置を検索側基準点C25とする画像である。検索対象画像P26は、締付部品B6,B7が含まれており、締付部品B6の位置を検索側基準点C26とする画像である。検索対象画像P27は、締付部品B3~B7が含まれており、締付部品B7の位置を検索側基準点C27とする画像である。 When a plurality of work targets are close to each other, all the areas may be common areas in the duplicate image. FIG. 14A is an external view of the product M2 conceptually showing the range of the five search target images P23 to P27. The search target image P23 is an image in which the tightening parts B3 and B7 are included and the position of the tightening part B3 is set as the search side reference point C23. The search target image P24 is an image in which the tightening parts B4 and B7 are included and the position of the tightening parts B4 is set as the search side reference point C24. The search target image P25 is an image in which the tightening parts B5 and B7 are included and the position of the tightening parts B5 is set as the search side reference point C25. The search target image P26 is an image in which the tightening parts B6 and B7 are included and the position of the tightening parts B6 is set as the search side reference point C26. The search target image P27 is an image in which the tightening parts B3 to B7 are included and the position of the tightening parts B7 is set as the search side reference point C27.

検索対象画像P23~P26は、一部の領域が共通領域である。検索対象画像P27は、全領域が共通領域である。そのため、検索対象画像P27の共通領域から検索側特徴部を除外してしまうと、検索対象画像P27に含まれる検索側特徴部がなくなってしまう。そこで、抽出部51(除外部)は、共通領域に含まれる検索側特徴部に対して、1つの重複画像にのみ残し、他の重複画像から除外する。図14Bは、検索対象画像P23~P27において、検索側特徴部を含める検索対象領域A23a~A27aを概念的に示した図である。 Some areas of the search target images P23 to P26 are common areas. The entire area of the search target image P27 is a common area. Therefore, if the search-side feature portion is excluded from the common area of the search target image P27, the search-side feature portion included in the search target image P27 disappears. Therefore, the extraction unit 51 (exclusion unit) leaves only one duplicate image for the search-side feature unit included in the common area, and excludes it from the other duplicate images. FIG. 14B is a diagram conceptually showing the search target areas A23a to A27a including the search side feature portion in the search target images P23 to P27.

図14Bに示すように、検索対象画像P27の全領域が、検索対象領域A27aに相当する。つまり、全領域が共通領域である検索対象画像P27からは、検索側特徴部が除外されない。また、検索対象画像P23に対応する検索対象領域A23aは、検索対象画像P23の領域から検索対象画像P26,P27との共通領域を省き、検索対象画像P24との共通領域を含めた領域である。検索対象画像P24に対応する検索対象領域A24aは、検索対象画像P24の領域から検索対象画像P23,P27との共通領域を省き、検索対象画像P25との共通領域を含めた領域である。検索対象画像P25に対応する検索対象領域A25aは、検索対象画像P25の領域から検索対象画像P24,P27との共通領域を省き、検索対象画像P26との共通領域を含めた領域である。検索対象画像P26に対応する検索対象領域A26aは、検索対象画像P26の領域から検索対象画像P25,P27との共通領域を省き、検索対象画像P23との共通領域を含めた領域である。 As shown in FIG. 14B, the entire area of the search target image P27 corresponds to the search target area A27a. That is, the search-side feature portion is not excluded from the search target image P27 in which the entire area is a common area. Further, the search target area A23a corresponding to the search target image P23 is an area in which the common area with the search target images P26 and P27 is omitted from the area of the search target image P23 and the common area with the search target image P24 is included. The search target area A24a corresponding to the search target image P24 is an area in which the common area with the search target images P23 and P27 is omitted from the search target image P24 area and the common area with the search target image P25 is included. The search target area A25a corresponding to the search target image P25 is an area in which the common area with the search target images P24 and P27 is omitted from the search target image P25 area and the common area with the search target image P26 is included. The search target area A26a corresponding to the search target image P26 is an area in which the common area with the search target images P25 and P27 is omitted from the area of the search target image P26 and the common area with the search target image P23 is included.

これにより、検索対象画像P23~P27の各々は、検索側特徴部が含まれる検索対象領域A23a~A27aを確保することができる。 As a result, each of the search target images P23 to P27 can secure the search target areas A23a to A27a including the search side feature portion.

また、検索側特徴部を含める検索対象領域は、共通領域を分割することにより決定されてもよい(図14C参照)。図14Cでは、検索対象画像P23~P27の各々において、検索側特徴部を含める検索対象領域A23b~A27bを概念的に示している。 Further, the search target area including the search side feature portion may be determined by dividing the common area (see FIG. 14C). In FIG. 14C, in each of the search target images P23 to P27, the search target areas A23b to A27b including the search side feature portion are conceptually shown.

図14に示す例では、共通領域を重複画像の数で等分している。検索対象画像P23~P27に対応する検索対象領域A23b~A27bは、検索対象画像P23~P27の領域のうち共通領域を、当該共通領域が含まれる検索対象画像(重複画像)の数で等分して一部省いた領域に相当する。 In the example shown in FIG. 14, the common area is equally divided by the number of overlapping images. In the search target areas A23b to A27b corresponding to the search target images P23 to P27, the common area among the areas of the search target images P23 to P27 is equally divided by the number of search target images (overlapping images) including the common area. It corresponds to the area partially omitted.

なお、上記では、共通領域を重複画像の数で等分しているが、これに限らない。検索対象領域の大きさ(面積)、含まれる検索側特徴部の数等に基づいて、共通領域を分割する割合が決定されてもよい。 In the above, the common area is equally divided by the number of overlapping images, but the present invention is not limited to this. The ratio of dividing the common area may be determined based on the size (area) of the search target area, the number of search-side feature portions included, and the like.

(4.4)その他の変形例
以下に、その他の変形例を列挙する。
(4.4) Other variants The other variants are listed below.

上述した例では、工具2が、質問画像から質問側位置データを抽出する抽出部を備えているが、この構成に限らない。工具2から処理装置4へ質問画像を送信し、処理装置4の抽出部51が質問画像から質問側位置データを抽出するように構成されていてもよい。これにより、工具2の構成の簡略化を図ることができる。 In the above-mentioned example, the tool 2 includes an extraction unit that extracts question-side position data from the question image, but the configuration is not limited to this. The question image may be transmitted from the tool 2 to the processing device 4, and the extraction unit 51 of the processing device 4 may be configured to extract the question side position data from the question image. This makes it possible to simplify the configuration of the tool 2.

また、工具2が、検索部52、トルク選択部53、位置データ記憶部62、及び目標トルク値記憶部63を備えていてもよい。この場合、工具2において質問画像に類似した検索対象画像を検索し、検索結果に応じた目標トルク値をトルク設定値に設定することができる。 Further, the tool 2 may include a search unit 52, a torque selection unit 53, a position data storage unit 62, and a target torque value storage unit 63. In this case, the tool 2 can search for a search target image similar to the question image and set a target torque value according to the search result as the torque set value.

また、実施形態及び各変形例の工具制御システム1,1A,1Bと同様の機能は、工具制御方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。プログラムは、コンピュータシステムに、実施形態又は各変形例の工具制御方法を実行させるためのプログラムである。 Further, the same functions as those of the tool control systems 1, 1A and 1B of the embodiment and each modification may be embodied by a tool control method, a (computer) program, a non-temporary recording medium on which the program is recorded, or the like. .. The program is a program for causing a computer system to execute a tool control method according to an embodiment or each modification.

また、工具制御システム1,1A,1Bは、制御部3及び制御部5等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、制御部3の抽出部33、補正部36、画角変更部37、及び制御部5の抽出部51、検索部52等の機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。 Further, the tool control systems 1, 1A, 1B include a computer system in the control unit 3, the control unit 5, and the like. The computer system mainly consists of a processor and a memory as hardware. By executing the program recorded in the memory of the computer system by the processor, the functions of the extraction unit 33, the correction unit 36, the angle of view changing unit 37 of the control unit 3, the extraction unit 51 of the control unit 5, the search unit 52, and the like are performed. Is realized. The program may be pre-recorded in the memory of the computer system, may be provided through a telecommunication line, and may be recorded on a non-temporary recording medium such as a memory card, optical disk, hard disk drive, etc. that can be read by the computer system. May be provided. The processor of a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). A plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. A plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.

(まとめ)
第1態様に係る工具制御方法は、工具(2)が有する撮像部(26)が作業対象(B1~B7)を撮像した質問画像(P11,P11a,P11b)に類似した画像を、検索対象画像(P21~P27)の集合から検索し、検索結果に応じて工具(2)を制御する。工具制御方法は、抽出ステップ(S2)と、検索ステップ(S3)と、を含む。抽出ステップ(S2)では、質問画像(P11,P11a,P11b)における質問側基準点(C11)と質問側特徴部(T1~Tn)との位置関係を示す質問側位置データを抽出する。検索ステップ(S3)では、質問側位置データと、検索対象画像(P21~P27)における検索側基準点(C21~C27)と検索側特徴部(T1~Tn)との位置関係を示す検索側位置データとの比較結果に基づいて、質問画像(P11,P11a,P11b)に類似した画像を検索対象画像(P21~P27)の集合から検索する。
(summary)
In the tool control method according to the first aspect, an image similar to the question image (P11, P11a, P11b) in which the image pickup unit (26) of the tool (2) captures the work target (B1 to B7) is searched for as a search target image. A search is performed from the set of (P21 to P27), and the tool (2) is controlled according to the search result. The tool control method includes an extraction step (S2) and a search step (S3). In the extraction step (S2), the question-side position data indicating the positional relationship between the question-side reference point (C11) and the question-side feature portions (T1 to Tn) in the question-side image (P11, P11a, P11b) is extracted. In the search step (S3), the search side position indicating the positional relationship between the question side position data, the search side reference points (C21 to C27) in the search target images (P21 to P27), and the search side feature units (T1 to Tn). Based on the comparison result with the data, an image similar to the question image (P11, P11a, P11b) is searched from the set of search target images (P21 to P27).

この態様によれば、検索ステップ(S3)において、抽出ステップ(S2)で抽出された質問側位置データを用いて、質問画像(P11,P11a,P11b)に類似した画像を検索対象画像(P21~P27)の集合から検索している。したがって、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, in the search step (S3), using the question side position data extracted in the extraction step (S2), an image similar to the question image (P11, P11a, P11b) is searched for the search target image (P21 to P11b). Searching from the set of P27). Therefore, the search accuracy of the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) can be improved, and the specific accuracy of the work target (B1 to B7) can be improved.

第2態様に係る工具制御方法では、第1態様において、質問側基準点(C11)は、工具(2)の一部に対応する位置である。 In the tool control method according to the second aspect, in the first aspect, the question side reference point (C11) is a position corresponding to a part of the tool (2).

この態様によれば、質問画像(P11,P11a,P11b)において質問側基準点(C11)の位置が固定される。したがって、質問側基準点(C11)の特定が容易となる。 According to this aspect, the position of the question side reference point (C11) is fixed in the question image (P11, P11a, P11b). Therefore, it becomes easy to specify the reference point (C11) on the question side.

第3態様に係る工具制御方法では、第1又は第2態様において、質問側位置データは、質問側基準点(C11)と質問側特徴部(T1~Tn)との間の距離を示す質問側距離データを含む。検索側位置データは、検索側基準点(C21~C27)と検索側特徴部(T1~Tn)との間の距離を示す検索側距離データを含む。 In the tool control method according to the third aspect, in the first or second aspect, the question side position data indicates the distance between the question side reference point (C11) and the question side feature portion (T1 to Tn). Includes distance data. The search-side position data includes search-side distance data indicating the distance between the search-side reference points (C21 to C27) and the search-side feature units (T1 to Tn).

この態様によれば、質問画像(P11,P11a,P11b)の向きに関わらず質問側距離データが一定となるので、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, since the question side distance data is constant regardless of the orientation of the question images (P11, P11a, P11b), the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) It is possible to improve the search accuracy of the work target (B1 to B7) and improve the specific accuracy of the work target (B1 to B7).

第4態様に係る工具制御方法では、第1~第3態様のいずれかにおいて、質問側位置データは、質問側基準点(C11)に対する質問側特徴部(T1~Tn)の方向を示す質問側方向データを含む。検索側位置データは、検索側基準点(C21~C27)に対する検索側特徴部(T1~Tn)の方向を示す検索側方向データを含む。 In the tool control method according to the fourth aspect, in any one of the first to third aspects, the question side position data indicates the direction of the question side feature unit (T1 to Tn) with respect to the question side reference point (C11). Includes directional data. The search-side position data includes search-side direction data indicating the direction of the search-side feature units (T1 to Tn) with respect to the search-side reference points (C21 to C27).

この態様によれば、質問側特徴部(T1~Tn)に対応する検索側特徴部(T1~Tn)の特定精度が向上するので、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, since the identification accuracy of the search side feature unit (T1 to Tn) corresponding to the question side feature unit (T1 to Tn) is improved, the search target image similar to the question image (P11, P11a, P11b) is improved. The search accuracy of (P21 to P27) can be improved, and the specific accuracy of the work target (B1 to B7) can be improved.

第5態様に係る工具制御方法は、第1~第4態様のいずれかにおいて、質問画像(P11,P11a,P11b)を回転させるような補正を行う補正ステップ(S11)を含む。 The tool control method according to the fifth aspect includes a correction step (S11) in which a correction is performed so as to rotate the question image (P11, P11a, P11b) in any one of the first to fourth aspects.

この態様によれば、基準方向に対する質問画像(P11,P11a,P11b)の方向のずれを補正することができるので、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, since the deviation of the direction of the question image (P11, P11a, P11b) with respect to the reference direction can be corrected, the search target images (P21 to P27) similar to the question image (P11, P11a, P11b) can be corrected. It is possible to improve the search accuracy of the work target (B1 to B7) and improve the specific accuracy of the work target (B1 to B7).

第6態様に係る工具制御方法は、第1~第5態様のいずれかにおいて、質問画像(P11,P11a,P11b)の画角の大きさを変更する画角変更ステップ(S22)を含む。 The tool control method according to the sixth aspect includes an angle of view changing step (S22) for changing the size of the angle of view of the question image (P11, P11a, P11b) in any one of the first to fifth aspects.

この態様によれば、より多くの質問側特徴部(T1~Tn)に対応した質問側位置データを用いて、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)を検索することができるので、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) are obtained by using the question side position data corresponding to more question side feature units (T1 to Tn). Since the search can be performed, the search accuracy of the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) can be improved, and the specific accuracy of the work target (B1 to B7) can be improved. Can be planned.

第7態様に係る工具制御方法は、第1~第6態様のいずれかにおいて、除外ステップ(S6)を含む。除外ステップ(S6)では、検索対象画像(P21~P27)の集合のうち、共通領域(A1)が含まれる複数の重複画像において、複数の重複画像のうち少なくとも1つの重複画像に対して、共通領域(A1)に含まれる検索側特徴部(T1~Tn)を除外する。 The tool control method according to the seventh aspect includes the exclusion step (S6) in any one of the first to sixth aspects. In the exclusion step (S6), in a plurality of duplicate images including the common area (A1) in the set of search target images (P21 to P27), it is common to at least one duplicate image among the plurality of duplicate images. The search side feature portion (T1 to Tn) included in the region (A1) is excluded.

この態様によれば、共通領域(A1)に含まれる検索側特徴部(T1~Tn)の混同が抑制されるので、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, since the confusion of the search side feature portions (T1 to Tn) included in the common region (A1) is suppressed, the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) are suppressed. ) Can be improved, and the specific accuracy of the work target (B1 to B7) can be improved.

第8態様に係るプログラムは、コンピュータシステムに、第1~第7態様のいずれかの工具制御方法を実行させる。 The program according to the eighth aspect causes a computer system to execute the tool control method according to any one of the first to seventh aspects.

この態様によれば、検索ステップ(S3)において、抽出ステップ(S2)で抽出された質問側位置データを用いて、質問画像(P11,P11a,P11b)に類似した画像を検索対象画像(P21~P27)の集合から検索している。したがって、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, in the search step (S3), using the question side position data extracted in the extraction step (S2), an image similar to the question image (P11, P11a, P11b) is searched for the search target image (P21 to P11b). Searching from the set of P27). Therefore, the search accuracy of the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) can be improved, and the specific accuracy of the work target (B1 to B7) can be improved.

第9態様に係る工具制御システム(1,1A,1B)は、工具(2)が有する撮像部(26)が作業対象(B1~B7)を撮像した質問画像(P11,P11a,P11b)に類似した画像を、検索対象画像(P21~P27)の集合から検索し、検索結果に応じて工具(2)を制御する。工具制御システム(1,1A,1B)は、抽出部(33)と、検索部(52)と、を備える。抽出部(33)は、質問画像(P11,P11a,P11b)における質問側基準点(C11)と質問側特徴部(T1~Tn)との位置関係を示す質問側位置データを抽出する。検索部(52)は、質問側位置データと、検索対象画像(P21~P27)における検索側基準点(C21~C27)と検索側特徴部(T1~Tn)との位置関係を示す検索側位置データとの比較結果に基づいて、質問画像(P11,P11a,P11b)に類似した画像を検索対象画像(P21~P27)の集合から検索する。 The tool control system (1,1A, 1B) according to the ninth aspect is similar to the question image (P11, P11a, P11b) in which the image pickup unit (26) of the tool (2) captures the work target (B1 to B7). The resulting image is searched from the set of search target images (P21 to P27), and the tool (2) is controlled according to the search result. The tool control system (1,1A, 1B) includes an extraction unit (33) and a search unit (52). The extraction unit (33) extracts question-side position data indicating the positional relationship between the question-side reference point (C11) and the question-side feature units (T1 to Tn) in the question-side image (P11, P11a, P11b). The search unit (52) is a search side position indicating the positional relationship between the question side position data, the search side reference points (C21 to C27) in the search target images (P21 to P27), and the search side feature units (T1 to Tn). Based on the comparison result with the data, an image similar to the question image (P11, P11a, P11b) is searched from the set of search target images (P21 to P27).

この態様によれば、検索部(52)は、抽出部(33)で抽出された質問側位置データを用いて、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, the search unit (52) uses the question side position data extracted by the extraction unit (33) to search target images (P21 to P27) similar to the question images (P11, P11a, P11b). It is possible to improve the search accuracy of the work target (B1 to B7) and improve the specific accuracy of the work target (B1 to B7).

第10態様に係る工具(2)は、第9態様の工具制御システム(1,1A,1B)によって制御され、作業対象(B1~B7)を撮像する撮像部(26)を有する。 The tool (2) according to the tenth aspect is controlled by the tool control system (1,1A, 1B) of the ninth aspect, and has an image pickup unit (26) for imaging a work object (B1 to B7).

この態様によれば、工具制御システム(1,1A,1B)において、質問画像(P11,P11a,P11b)に類似した検索対象画像(P21~P27)の検索精度を向上させることができ、作業対象(B1~B7)の特定精度の向上を図ることができる。 According to this aspect, in the tool control system (1,1A, 1B), the search accuracy of the search target images (P21 to P27) similar to the question images (P11, P11a, P11b) can be improved, and the work target can be improved. It is possible to improve the specific accuracy of (B1 to B7).

1,1A,1B 工具制御システム
2 工具
26 撮像部
33 抽出部
52 検索部
S2 抽出ステップ
S3 検索ステップ
S6 除外ステップ
S11 補正ステップ
S22 画角変更ステップ
B1~B7 作業対象
P11,P11a,P11b 質問画像
P21~P27 検索対象画像
C11 質問側基準点
T1~Tn 質問側特徴部,検索側特徴部
C21~C27 検索側基準点
A1 共通領域
1,1A, 1B Tool control system 2 Tool 26 Imaging unit 33 Extraction unit 52 Search unit S2 Extraction step S3 Search step S6 Exclusion step S11 Correction step S22 Angle of view change step B1 to B7 Work target P11, P11a, P11b Question image P21 to P27 Search target image C11 Question side reference point T1 to Tn Question side feature part, Search side feature part C21 to C27 Search side reference point A1 Common area

Claims (11)

工具が有する撮像部が作業対象を撮像した質問画像に類似した画像を、それぞれに制御値が対応付いた検索対象画像の集合から検索し、検索結果に対応する制御値を前記工具に設定する工具制御方法であって、
前記質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する抽出ステップと、
前記質問側位置データと、前記検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、前記質問画像に類似した画像を前記検索対象画像の集合から検索する検索ステップと、を含み、
前記作業対象は、前記工具によって対象箇所に取り付けられ、
前記質問側特徴部は、前記質問画像における前記対象箇所に対応する部分に存在し、
前記検索側特徴部は、前記検索対象画像における前記対象箇所に対応する部分に存在する
工具制御方法。
A tool that searches an image similar to a question image obtained by an image pickup unit of a tool from a set of search target images to which a control value corresponds to each, and sets a control value corresponding to the search result to the tool. It ’s a control method,
An extraction step for extracting question-side position data indicating the positional relationship between the question-side reference point and the question-side feature in the question image, and
Based on the comparison result between the question-side position data and the search-side position data indicating the positional relationship between the search-side reference point and the search-side feature in the search-target image, the search target is an image similar to the question-side image. Including search steps to search from a set of images,
The work target is attached to the target location by the tool, and the work target is attached to the target location.
The question-side feature portion exists in a portion corresponding to the target portion in the question image.
The search-side feature portion exists in a portion of the search target image corresponding to the target location.
Tool control method.
前記質問側基準点は、前記工具の一部に対応する位置である
請求項1に記載の工具制御方法。
The tool control method according to claim 1, wherein the question-side reference point is a position corresponding to a part of the tool.
前記質問側位置データは、前記質問側基準点と前記質問側特徴部との間の距離を示す質問側距離データを含み、
前記検索側位置データは、前記検索側基準点と前記検索側特徴部との間の距離を示す検索側距離データを含む
請求項1又は2に記載の工具制御方法。
The question-side position data includes question-side distance data indicating a distance between the question-side reference point and the question-side feature portion.
The tool control method according to claim 1 or 2, wherein the search-side position data includes search-side distance data indicating a distance between the search-side reference point and the search-side feature unit.
前記質問側位置データは、前記質問側基準点に対する前記質問側特徴部の方向を示す質問側方向データを含み、
前記検索側位置データは、前記検索側基準点に対する前記検索側特徴部の方向を示す検索側方向データを含む
請求項1~3のいずれか1項に記載の工具制御方法。
The question-side position data includes question-side direction data indicating the direction of the question-side feature portion with respect to the question-side reference point.
The tool control method according to any one of claims 1 to 3, wherein the search-side position data includes search-side direction data indicating the direction of the search-side feature portion with respect to the search-side reference point.
前記質問画像を回転させるような補正を行う補正ステップを含む
請求項1~4のいずれか1項に記載の工具制御方法。
The tool control method according to any one of claims 1 to 4, which includes a correction step of performing correction such as rotating the question image.
前記質問画像の画角の大きさを変更する画角変更ステップを含む
請求項1~5のいずれか1項に記載の工具制御方法。
The tool control method according to any one of claims 1 to 5, further comprising an angle of view changing step of changing the size of the angle of view of the question image.
前記検索対象画像の集合のうち、共通領域が含まれる複数の重複画像において、前記複数の重複画像のうち少なくとも1つの重複画像に対して、前記共通領域に含まれる前記検索側特徴部を除外する除外ステップを含む
請求項1~6のいずれか1項に記載の工具制御方法。
In a plurality of duplicate images including a common area in the set of search target images, the search-side feature portion included in the common area is excluded from at least one of the plurality of duplicate images. The tool control method according to any one of claims 1 to 6, which includes an exclusion step.
コンピュータシステムに、請求項1~7のいずれか1項に記載の工具制御方法を実行させるプログラム。 A program for causing a computer system to execute the tool control method according to any one of claims 1 to 7. 工具が有する撮像部が作業対象を撮像した質問画像に類似した画像を、それぞれに制御値が対応付いた検索対象画像の集合から検索し、検索結果に対応する制御値を前記工具に設定する工具制御システムであって、
前記質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する抽出部と、
前記質問側位置データと、前記検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、前記質問画像に類似した画像を前記検索対象画像の集合から検索する検索部と、を備え
前記作業対象は、前記工具によって対象箇所に取り付けられ、
前記質問側特徴部は、前記質問画像における前記対象箇所に対応する部分に存在し、
前記検索側特徴部は、前記検索対象画像における前記対象箇所に対応する部分に存在する
工具制御システム。
A tool that searches an image similar to a question image obtained by an image pickup unit of a tool from a set of search target images to which a control value corresponds to each, and sets a control value corresponding to the search result to the tool. It ’s a control system,
An extraction unit that extracts question-side position data indicating the positional relationship between the question-side reference point and the question-side feature portion in the question image, and an extraction unit.
Based on the comparison result between the question-side position data and the search-side position data indicating the positional relationship between the search-side reference point and the search-side feature in the search-target image, the search target is an image similar to the question-side image. Equipped with a search unit that searches from a set of images ,
The work target is attached to the target location by the tool, and the work target is attached to the target location.
The question-side feature portion exists in a portion corresponding to the target portion in the question image.
The search-side feature portion exists in a portion of the search target image corresponding to the target location.
Tool control system.
請求項9に記載の工具制御システムによって制御される工具であって、
前記作業対象を撮像する前記撮像部を有する
工具。
A tool controlled by the tool control system according to claim 9.
A tool having the image pickup unit for imaging the work object.
工具が有する撮像部が作業対象を撮像した質問画像に類似した画像を、それぞれに制御値が対応付いた検索対象画像の集合から検索し、検索結果に対応する制御値を前記工具に設定する工具制御方法であって、 A tool that searches an image similar to a question image obtained by an image pickup unit of a tool from a set of search target images to which a control value corresponds to each, and sets a control value corresponding to the search result to the tool. It ’s a control method,
前記質問画像における質問側基準点と質問側特徴部との位置関係を示す質問側位置データを抽出する抽出ステップと、 An extraction step for extracting question-side position data indicating the positional relationship between the question-side reference point and the question-side feature in the question image, and
前記質問側位置データと、前記検索対象画像における検索側基準点と検索側特徴部との位置関係を示す検索側位置データとの比較結果に基づいて、前記質問画像に類似した画像を前記検索対象画像の集合から検索する検索ステップと、 Based on the comparison result between the question-side position data and the search-side position data indicating the positional relationship between the search-side reference point and the search-side feature in the search-target image, the search target is an image similar to the question-side image. Search steps to search from a set of images and
前記検索対象画像の集合のうち、共通領域が含まれる複数の重複画像において、前記複数の重複画像のうち少なくとも1つの重複画像に対して、前記共通領域に含まれる前記検索側特徴部を除外する除外ステップと、を含む In a plurality of duplicate images including a common area in the set of search target images, the search-side feature portion included in the common area is excluded from at least one of the plurality of duplicate images. Exclude steps and include
工具制御方法。 Tool control method.
JP2018030125A 2018-02-22 2018-02-22 Tool control methods, programs, tool control systems, and tools Active JP7065343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018030125A JP7065343B2 (en) 2018-02-22 2018-02-22 Tool control methods, programs, tool control systems, and tools

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030125A JP7065343B2 (en) 2018-02-22 2018-02-22 Tool control methods, programs, tool control systems, and tools

Publications (2)

Publication Number Publication Date
JP2019144965A JP2019144965A (en) 2019-08-29
JP7065343B2 true JP7065343B2 (en) 2022-05-12

Family

ID=67773862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030125A Active JP7065343B2 (en) 2018-02-22 2018-02-22 Tool control methods, programs, tool control systems, and tools

Country Status (1)

Country Link
JP (1) JP7065343B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102335356B1 (en) 2019-10-07 2021-12-03 현대자동차 주식회사 Fastening tool system and control method thereof
JP7458018B2 (en) 2019-11-06 2024-03-29 パナソニックIpマネジメント株式会社 Tool system, tool management method and program
JP7486071B2 (en) * 2020-05-15 2024-05-17 パナソニックIpマネジメント株式会社 Tool system, tool, reference image generating method and program
JP7142247B2 (en) * 2020-06-30 2022-09-27 パナソニックIpマネジメント株式会社 Tool system, tool, work object identification system, work object identification method and program
JP7336669B2 (en) * 2020-07-14 2023-09-01 パナソニックIpマネジメント株式会社 Tool system, tool, work object identification system, work object identification method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003305676A (en) 2002-04-11 2003-10-28 Denso Wave Inc Control method and control device for mobile robot
JP2010224749A (en) 2009-03-23 2010-10-07 Daihen Corp Work process management system
WO2016158690A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Attachment tool, work management method, system, verification apparatus, and program
JP2016213387A (en) 2015-05-12 2016-12-15 株式会社Pfu Assembly support system, assembly support method and control program
JP2017140681A (en) 2016-02-12 2017-08-17 株式会社東日製作所 Management device and management system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003305676A (en) 2002-04-11 2003-10-28 Denso Wave Inc Control method and control device for mobile robot
JP2010224749A (en) 2009-03-23 2010-10-07 Daihen Corp Work process management system
WO2016158690A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Attachment tool, work management method, system, verification apparatus, and program
JP2016213387A (en) 2015-05-12 2016-12-15 株式会社Pfu Assembly support system, assembly support method and control program
JP2017140681A (en) 2016-02-12 2017-08-17 株式会社東日製作所 Management device and management system

Also Published As

Publication number Publication date
JP2019144965A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP7065343B2 (en) Tool control methods, programs, tool control systems, and tools
JP7496562B2 (en) Tool System
JP7008204B2 (en) Tool system, image processing method, and program
JP7142247B2 (en) Tool system, tool, work object identification system, work object identification method and program
US11989909B2 (en) Determination of toolpiece position
WO2018123433A1 (en) Tool system
US20230121849A1 (en) Tool system, tool management method, and program
WO2021229972A1 (en) Tool system, tool, reference image generation method, and program
WO2022014228A1 (en) Tool system, tool, work target identification system, work target identification method, and program
JP7458018B2 (en) Tool system, tool management method and program
WO2022004133A1 (en) Tool system, tool, work target identification system, work target identification method, and program
US20230315058A1 (en) Decision system, decision method, and non-transitory storage medium
WO2021090649A1 (en) Tool system, tool management method, and program
WO2024034302A1 (en) Tool system, work target identification method, and program
WO2024009639A1 (en) Electric tool system
JP2024075313A (en) Tool system, control method and program
JP2023113486A (en) Imaging system, tool system, setting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220325

R151 Written notification of patent or utility model registration

Ref document number: 7065343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151