JP2022037856A - Program, method and system - Google Patents
Program, method and system Download PDFInfo
- Publication number
- JP2022037856A JP2022037856A JP2021007023A JP2021007023A JP2022037856A JP 2022037856 A JP2022037856 A JP 2022037856A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2022037856 A JP2022037856 A JP 2022037856A
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- abnormality
- dimensional position
- program
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000005856 abnormality Effects 0.000 claims abstract description 107
- 230000002159 abnormal effect Effects 0.000 claims description 43
- 230000001678 irradiating effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 11
- 238000011179 visual inspection Methods 0.000 abstract description 6
- 230000003213 activating effect Effects 0.000 abstract 1
- 239000012636 effector Substances 0.000 description 30
- 238000012986 modification Methods 0.000 description 28
- 230000004048 modification Effects 0.000 description 28
- 238000001514 detection method Methods 0.000 description 20
- 239000011248 coating agent Substances 0.000 description 12
- 238000000576 coating method Methods 0.000 description 12
- 238000005286 illumination Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000010422 painting Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000002845 discoloration Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000007591 painting process Methods 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/30—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
Abstract
Description
本開示は、プログラム、方法、及びシステムに関する。 This disclosure relates to programs, methods, and systems.
従来、製造現場における製造工程の中には、物体を組み立てる工程、物体のボディを塗装する工程など様々な工程が含まれる。
塗装する工程では、例えば、ロボットアーム等を利用した複数の手順を経て物体の塗装を進める。そして、塗装が完了すると、製造物としての物体の最終確認が行われ、製造された物体に異常がないことが確認される。物体の外観検査中に、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等の異常が発見された場合、その異常が解消される補修がなされる。例えば、塗装ムラが発見された場合、塗装ムラのある領域をポリッシャーで磨くことで、その領域の塗装を均一にする。
Conventionally, the manufacturing process at a manufacturing site includes various processes such as a process of assembling an object and a process of painting the body of an object.
In the painting process, for example, painting of an object is advanced through a plurality of procedures using a robot arm or the like. Then, when the painting is completed, the final confirmation of the object as a manufactured object is performed, and it is confirmed that there is no abnormality in the manufactured object. If, for example, an abnormality such as discoloration, cracks, adhesion of dust, or uneven coating is found during the visual inspection of the object, repair is performed to eliminate the abnormality. For example, when uneven coating is found, the area with uneven coating is polished with a polisher to make the area painted uniform.
外観検査における、異常の検出、及び発見された異常の解消は、作業員の手により行われている。しかしながら、異常の検出、及び発見された異常の解消は、高い集中力を求められ、作業員の大きな負担となっている。
特許文献1では、光学的に塗装ムラを検出する検査方法・装置が開示されているが、塗装ムラ以外の検出については記載されていない。
In the visual inspection, the detection of the abnormality and the elimination of the found abnormality are performed by the workers. However, the detection of anomalies and the elimination of the discovered anomalies require high concentration, which is a heavy burden on the workers.
本開示の目的は、外観検査において、作業員の負担を軽減させることである。 An object of the present disclosure is to reduce the burden on workers in visual inspection.
本開示の一態様は、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップと、センシングデータに基づき、物体の異常を検出するステップと、検出した異常の3次元位置を特定するステップと、異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップと、デバイスを3次元位置に到達させると、デバイスを稼働させるステップと、を実行させる。 One aspect of the present disclosure is a program for causing a computer including a processor and a memory to execute. The program has a step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves to the object, a step of detecting the abnormality of the object based on the sensing data, and a step of detecting the detected abnormality. A step to specify a 3D position, a step to move a robot arm equipped with a device capable of eliminating an abnormality so that the device reaches the specified 3D position, and a step to move the device to the 3D position. , Steps to get the device up and running.
本発明のプログラムによれば、作業員の負担を軽減させることができる。 According to the program of the present invention, the burden on the worker can be reduced.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the drawings for explaining the embodiments, the same components are designated by the same reference numerals in principle, and the repeated description thereof will be omitted.
<概要>
本実施形態に係るシステム1は、例えば、塗装された物体の塗装面を検査し、塗装面に異常が生じている場合に、異常を解消するための作業を行うシステムである。システム1は、例えば、自動車の製造ラインで用いられる。
<Overview>
The
<全体構成>
図1は、本実施形態に係るシステム1の全体構成を示す図である。図1に示すシステム1は、物体100の塗装面を検査する。物体100は、図示を簡略化しているが、例えば自動車のボディの外板等のように、塗装工程を終え、外観検査を控えたワークである。なお、物体100は、自動車のボディの外板に限られず、外観検査を控える様々なワークが想定される。
<Overall configuration>
FIG. 1 is a diagram showing an overall configuration of the
システム1は、センシングユニット10、産業用ロボット20、制御装置30、及び表示装置40を備えている。センシングユニット10、産業用ロボット20、及び制御装置30は、相互に通信可能にネットワーク50に接続されている。センシングユニット10、産業用ロボット20、及び制御装置30のネットワーク50との接続は、有線であっても無線であっても構わない。また、センシングユニット10、及び産業用ロボット20が、ネットワーク50を介さずに制御装置30と接続されていてもよい。制御装置30は、表示装置40と有線又は無線により接続されている。なお、制御装置30と、表示装置40とはネットワーク50を介して接続されていてもよい。
The
センシングユニット10は、物体100に対して電磁波を用いたセンシングを行う。センシングユニット10は、センシングを行うセンシングモジュール(センシング手段)11と、センシングモジュール11の位置を制御するアクチュエータ(図示せず)と、を備えている。
The
センシングモジュール11は、予め設定された帯域の電磁波を用いて物体100をセンシングする。センシングモジュール11には、例えば、予め設定された帯域の電磁波を用いて実現される、以下のいずれかのデバイスが想定される。
・可視光カメラ
・赤外線カメラ
・紫外線カメラ
・超音波センサ
・RGB-Dカメラ
・LiDAR(Light Detection and Ranging)
The
・ Visible light camera ・ Infrared camera ・ Ultraviolet camera ・ Ultrasonic sensor ・ RGB-D camera ・ LiDAR (Light Detection and Ranging)
センシングモジュール11は、物体100の塗装面に発生し得る異常の3次元位置を取得可能なように、物体100の周囲に複数配置されている。例えば、センシングモジュール11は、物体100の所定の面を、異なる方向から同時にセンシング可能な位置に配置されている。図1に示す例では、2台のセンシングモジュール11が、物体100の周囲に配置されているが、物体100の周囲に配置されるセンシングモジュール11の数は、3台以上であってもよい。
A plurality of
センシングユニット10は、センシングモジュール11により取得したセンシングデータを制御装置30へ送信する。
センシングユニット10のアクチュエータとしては、例えばセンシングモジュール11の位置をXY軸に沿って移動可能な直交ロボットが用いられる。直交ロボットの挙動は、制御装置30により制御される。なお、アクチュエータは、例えば、センシングモジュール11を一軸に沿って移動可能な単軸ロボットであってもよい。
The
As the actuator of the
産業用ロボット20は、例えば、垂直多関節ロボットである。産業用ロボット20は、例えば、多関節のロボットアーム21と、ロボットアーム21の先端に搭載されたエンドエフェクタ22と、を備えている。産業用ロボット20は、制御装置30と通信接続されている。
The
ロボットアーム21は、制御装置30からの制御に従って駆動する。具体的には、ロボットアーム21は、関節にモーターが設けられ、モーターの力で関節を稼働させることで腕部分を移動させる。
The
エンドエフェクタ22は、所定の処理を実施するデバイスである。本実施形態においては、物体100の塗装面に生じた異常を解消するためのデバイスである。エンドエフェクタ22は、ロボットアーム21により、所望の位置へ移動される。エンドエフェクタ22としては、例えば、塗装後の外板に生じた塗装ムラ(異常)を磨くことで解消する電動ポリッシャーが挙げられる。なお、エンドエフェクタ22は、物体100の塗装面に生じた異常を解消できるデバイスであれば、電動ポリッシャーに限定されない。
The
制御装置30は、システム1における各装置の動作を制御する。
The
表示装置40は、制御装置30が処理した情報をユーザに提示する。
The
<制御装置の構成>
次に制御装置30の構成について説明する。
図2は、制御装置30の構成を示すブロック図である。図2に示す制御装置30は、プロセッサ31と、記憶装置32と、通信インタフェース33と、入出力インタフェース34とを備えている。
<Control device configuration>
Next, the configuration of the
FIG. 2 is a block diagram showing the configuration of the
記憶装置32は、種々の情報を記憶するHDD(hard disk drive)、又はSSD(solid state drive)等の不揮発性の記憶回路により実現される。記憶装置32は、プロセッサ31で実行される各種のプログラム、及び、プログラム等で処理されるデータ等を記憶している。例えば、記憶装置32は、後述する3次元位置情報を記憶する。
The
また、記憶装置32は、例えば、機械学習により生成された複数の学習済みモデルを記憶している。第1学習済みモデルは、例えば、物体100の塗装面の異常を検出するためのモデルである。第2学習済みモデルは、例えば、産業用ロボット20の動作を制御するためのモデルである。第1学習済みモデル、第2学習済みモデルは、制御装置30の出荷時に予め記憶されていてもよいし、出荷後にネットワーク50を介して、又は記憶媒体を介してインストールされても構わない。
Further, the
第1学習済みモデル、第2学習済みモデルは、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。 The first trained model and the second trained model are obtained by causing a machine learning model to perform machine learning according to a model learning program based on training data.
例えば、本実施形態において、第1学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。 For example, in the present embodiment, the first trained model is trained to output an abnormality on the painted surface with respect to the input sensing data. At this time, for the learning data, for example, a plurality of sensing data about the object are used as input data, and a judgment about an abnormality that can be included in the input data is used as correct output data.
また、例えば、第2学習済みモデルは、入力される3次元位置情報に対し、産業用ロボット20の制御パラメータを出力するように学習されている。このとき、学習用データは、例えば、所定の3次元形状を有する物体についての位置情報を入力データとし、この入力データに対してエンドエフェクタ22がアクセス可能なロボットアーム21の制御パラメータを正解出力データとする。これにより、ロボットアーム21の形状と、物体100の3次元形状とを考慮して、入力された3次元位置へエンドエフェクタ22が到達可能なパラメータが設定されることになる。つまり、エンドエフェクタ22が3次元位置へ到達する過程において、ロボットアーム21と物体100とが接触せずに、ロボットアーム21を駆動させるパラメータが設定されることになる。
Further, for example, the second trained model is trained to output the control parameters of the
通信インタフェース33は、例えば、ネットワーク50と接続する回路により実現される。具体的には、例えば、通信インタフェース33は、5G、4G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ等の通信機器と接続する回路により実現される。制御装置30がセンシングユニット10、又は産業用ロボット20と直接通信接続する場合には、センシングユニット10、又は産業用ロボット20と通信接続可能な回路により実現される。
The
入出力インタフェース34は、ユーザからの入力を受け付ける入力装置、及び表示装置40と接続するためのインタフェースである。入力装置は、例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等により実現される。
The input /
プロセッサ31は、制御装置30の中枢として機能する。プロセッサ31は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。プロセッサ31は、記憶装置32に記憶されているプログラムを読み出して実行することで、プログラムに対応する種々の機能を実現する。例えば、プロセッサ31は、記憶装置32に記憶されるプログラムを実行することで、第1制御部31A、取得部31B、検出部31C、位置特定部31D、第2制御部31Eとしての機能を実現する。
The
第1制御部31Aは、センシングユニット10を制御する。例えば、第1制御部31Aは、センシングモジュール11を適切な位置へ移動させるように、センシングユニット10のアクチュエータへ駆動信号を送信する。
The
第1制御部31Aは、例えば、センシングモジュール11へ駆動信号を送信し、センシングモジュール11によるセンシングを開始させる。第1制御部31Aは、センシングモジュール11により物体100のセンシングを行い、センシングデータを取得させる。
The
具体的には、例えば、第1制御部31Aは、図1において2台のセンシングモジュール11を略同時に駆動させ、物体100の塗装面を異なる方向からセンシングさせる。この際、第1制御部31Aは、アクチュエータを駆動させながら、センシングモジュール11にセンシングさせてもよい。つまり、第1制御部31Aは、動画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。また、第1制御部31Aは、アクチュエータを駆動させるときにはセンシングを停止させ、センシングしているときにはアクチュエータを停止させるようにしてもよい。つまり、第1制御部31Aは、複数の静止画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。
Specifically, for example, the
取得部31Bは、センシングデータに基づき、物体100の3次元形状を取得する。具体的には、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した複数のセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。図1に示す例では、センシングモジュール11が2台配置されるため、センシングモジュール11及び物体100を動かさずに複数方向からのセンシングデータを取得することが可能である。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。
The
検出部31Cは、センシングデータに基づき、物体100の塗装面に発生している異常を検出する。本実施形態において、異常とは、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等を表す。以下の説明において、物体100の塗装面において異常が発生した部位を異常部と称する。
The
具体的には、検出部31Cは、例えば、第1学習済みモデルを利用して異常を検出する。検出部31Cは、センシングユニット10により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。
Specifically, the
位置特定部31Dは、検出した異常部の3次元空間における位置を特定する。具体的には、例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。異常部の3次元位置は、例えば、物体100の所定位置を基準とした所定の座標系における座標で表される。所定の座標系は、例えば、直交座標系、又は極座標系統である。異常部の3次元位置は、例えば、工場内の所定位置、又は、産業用ロボット20の所定位置等を基準として特定されてもよい。位置特定部31Dは、特定した3次元位置についての情報を記憶装置32に記憶させる。
The
第2制御部31Eは、産業用ロボット20を制御する。例えば、第2制御部31Eは、エンドエフェクタ22が所定の位置へ到達するように、ロボットアーム21のサーボモーターへ駆動信号を送信する。また、第2制御部31Eは、例えば、エンドエフェクタ22へ駆動信号を送信し、エンドエフェクタ22による処理を開始させる。
The
具体的には、第2制御部31Eは、位置特定部31Dで特定した異常部の3次元位置へエンドエフェクタ22を到達させるためにロボットアーム21に入力するパラメータを設定する。
Specifically, the
このとき、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、産業用ロボット20の制御パラメータを出力させる。第2制御部31Eは、第2学習済みモデルから出力されたパラメータをロボットアーム21へ送信する。第2制御部31Eは、エンドエフェクタ22が特定した3次元位置に到達すると、エンドエフェクタ22を稼働させる。
At this time, the
例えば、異常が塗装ムラであり、エンドエフェクタ22が電動ポリッシャーである場合、電動ポリッシャーが回転しながら異常部に接触することで、塗装ムラが存在している領域が研磨され、塗装ムラが解消される。
For example, when the abnormality is coating unevenness and the
<データ構造>
次に、記憶装置32で記憶される情報のデータ構造について説明する。
図3は、異常部の3次元位置情報のデータ構造を示す図である。なお、図3は一例であり、記載されていないデータを除外するものではない。
<Data structure>
Next, the data structure of the information stored in the
FIG. 3 is a diagram showing a data structure of three-dimensional position information of an abnormal portion. Note that FIG. 3 is an example and does not exclude data not described.
図3に示すように、位置情報DBのレコードの各々は、項目「異常ID」、項目「物体ID」、項目「年月日」、項目「位置情報」等を含む。 As shown in FIG. 3, each of the records in the position information DB includes an item "abnormal ID", an item "object ID", an item "date", an item "position information", and the like.
項目「異常ID」は、発生した異常を識別するためのIDを記憶する。 The item "abnormal ID" stores an ID for identifying an abnormality that has occurred.
項目「物体ID」は、異常が発生した物体100を識別するためのIDを記憶する。
The item "object ID" stores an ID for identifying the
項目「年月日」は、異常が発生した年月日を記憶する。 The item "date" stores the date when the abnormality occurred.
項目「位置情報」は、発生した異常の3次元位置を記憶する。図3では、直交座標系における3次元位置が記憶される例が示されているが、位置情報DBに記憶される位置情報は直交座標系によるものに限定されない。 The item "position information" stores the three-dimensional position of the generated abnormality. FIG. 3 shows an example in which a three-dimensional position in a Cartesian coordinate system is stored, but the position information stored in the position information DB is not limited to that in the Cartesian coordinate system.
<動作>
次に、システム1の処理について説明する。
図4は、システム1により、物体100の塗装面における異常を検知し、検知した異常を解消する流れの一例を説明するための図である。
<Operation>
Next, the processing of the
FIG. 4 is a diagram for explaining an example of a flow in which an abnormality on a painted surface of an
図4に示すように、まず、制御装置30の第1制御部31Aは、センシングユニット10を制御する(ステップS301)。例えば、第1制御部31Aは、センシングユニット10のアクチュエータ、及びセンシングモジュール11へ駆動信号を送信する。
As shown in FIG. 4, first, the
センシングユニット10のアクチュエータは、制御装置30からの駆動信号に従い、センシングモジュール11を適切な位置へ移動させる。センシングモジュール11は、センシングユニット10からの駆動信号に従い、センシングを開始する(ステップS101)。図1で示す2台のセンシングモジュール11は、それぞれ別の方向から物体100をセンシングする。センシングユニット10は、センシングモジュール11のセンシングにより取得したセンシングデータを制御装置30へ送信する(ステップS102)。
The actuator of the
センシングユニット10からセンシングデータを受信すると、制御装置30の取得部31Bは、物体100の3次元形状を取得する(ステップS302)。具体的には、取得部31Bは、センシングモジュール11により取得されたセンシングデータと、センシングモジュール11がセンシングデータを取得した位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。
Upon receiving the sensing data from the
ステップS302の後に、検出部31Cが物体100の塗装面における異常を検出する(ステップS303)。具体的には、検出部31Cは、センシングモジュール11により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。
After step S302, the
検出部31Cで異常部を検出すると、位置特定部31Dは、異常部の位置を特定する(ステップS304)。例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。このとき、位置特定部31Dは、例えば、異常部の3次元位置を、物体100の所定位置を基準とした直交座標系における座標で表す。
When the
位置特定部31Dで異常部の位置を特定すると、第2制御部31Eは、産業用ロボット20を制御する(ステップS305)。例えば、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、異常部へ産業用ロボット20のエンドエフェクタ22を到達させるための制御パラメータを出力させる。第2制御部31Eは、制御パラメータを指示するための駆動信号を産業用ロボット20のロボットアーム21へ送信する。また、第2制御部31Eは、エンドエフェクタ22の処理を開始させるための駆動信号をエンドエフェクタ22へ送信する。
When the position of the abnormal portion is specified by the
ロボットアーム21は、制御装置30からの駆動信号に従った位置へエンドエフェクタ22を到達させる(ステップS201)。エンドエフェクタ22は、センシングユニット10からの駆動信号に従い、到達した位置での処理を開始する(ステップS202)。
The
図5は、物体100の塗装面における異常部の例を表す模式図である。図6は、産業用ロボット20の動作を説明するための模式図である。図5に示すように物体100の塗装面に異常部Bが検出された場合、位置特定部31Dは、異常部Bの3次元位置を特定する。第2制御部31Eは、特定した3次元位置に基づいてロボットアーム21の制御パラメータを算出し、算出した制御パラメータに基づいてロボットアーム21を制御することで、図6に示すように、エンドエフェクタ22を異常部Bへ到達させる。第2制御部31Eは、エンドエフェクタ22を異常部Bへ到達させると、エンドエフェクタ22である電動ポリッシャーを稼働させ、異常部Bを研磨する。これにより、エンドエフェクタ22である電動ポリッシャーによる研磨により、塗りムラは解消される。
FIG. 5 is a schematic view showing an example of an abnormal portion on the painted surface of the
エンドエフェクタ22により異常部Bへの処理が終了すると、制御装置30は、図4に示すステップS301、S303の処理を実施し、物体100の塗装面の異常が解消されたか否かを確認する。異常が解消されていない場合、制御装置30は、図4に示すステップS304、S305の処理を実施し、異常の解消を図る。ステップS301、S303~S305の処理は、例えば、適切な修復作業が確認されるまで、繰り返し実施されてもよい。
When the processing to the abnormal portion B is completed by the
なお、上記の処理に限られず、各処理のステップは、各処理の流れが矛盾しない範囲で任意に変更可能である。 Not limited to the above processing, the steps of each processing can be arbitrarily changed as long as the flow of each processing does not contradict.
例えば、図4に示す例では、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とが一連のフローの中で実施される場合を説明した。しかしながら、制御装置30は、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とを別々のフローで実施してもよい。
For example, in the example shown in FIG. 4, the case where the acquisition of the three-dimensional shape of the
以上説明したように、本実施形態では、制御装置30は、センシングモジュール11により物体100の外観のセンシングを行い、物体100の3次元形状を取得する。また、制御装置30は、センシングデータに基づいて異常を検出し、検出した異常の3次元位置を特定する。そして、制御装置30は、異常が発生した位置にエンドエフェクタ22を到達させて駆動させることにより、物体100の外観に生じた異常を修復するようにしている。これにより、制御装置30は、物体100における異常を自動的に検出し、検出した異常を自動的に補修することが可能となる。
As described above, in the present embodiment, the
したがって、本実施形態に係るシステム1によれば、外観検査において、作業員の負担を軽減させることができる。
Therefore, according to the
また、本実施形態では、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータに基づいて物体100の3次元形状を取得するようにしている。これにより、制御装置30は、物体100の3次元形状を正確に取得することが可能となる。
Further, in the present embodiment, the
また、本実施形態では、検出部31Cは、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出するようにしている。これにより、作業員によらずに、精度の高い異常の検出を行うことが可能となる。
Further, in the present embodiment, the
また、本実施形態では、第2制御部31Eは、異常の3次元位置を入力とし、3次元位置に対するエンドエフェクタ22の位置を出力するように学習された学習済みモデルを利用して、ロボットアーム21を移動させるようにしている。これにより、作業員によらずに、エンドエフェクタ22を異常の発生した位置に高精度に到達させることが可能となる。
Further, in the present embodiment, the
また、本実施形態では、エンドエフェクタ22を稼働させた後に、適切な修復作業が行われたかどうかの確認作業を行うので、発生した異常を高精度に解消することが可能となる。
Further, in the present embodiment, after the
<変形例1>
次に、システム1の変形例1について説明する。上記実施形態では、センシングモジュール11が2台配置される場合を説明した。変形例1では、センシングモジュール11が1台の場合について説明する。
<
Next, a
図7は、変形例1に係るシステム1の構成を示す図である。なお図7では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。図7に示すシステム1は、センシングユニット10を1つ備えている。また、物体100は、例えば、回転自在なステージ60に載置されている。
FIG. 7 is a diagram showing the configuration of the
変形例1において第1制御部31Aは、センシングユニット10、及びステージ60を制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、センシングユニット10のアクチュエータを制御するか、ステージ60を回転させる。
In the first modification, the
第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させる前と、後とで物体100の塗装面をセンシングモジュール11にセンシングさせる。このとき、第1制御部31Aは、物体100の3次元形状を取得するため、第1制御部31Aは、最初のセンシングと、2回目のセンシングとの間で、物体100に対して所定の角度だけ間隔が開くようにしている。これにより、物体100の塗装面に関する、異なる方向についてのセンシングデータが取得される。
The
取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した際の物体100に対するセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。
The
変形例1における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。ただし、ステップS301において、第1制御部31Aは、センシン
グユニット10のアクチュエータの制御に代えて、ステージ60を回転させてもよい。これにより、ステップS101において、2方向からのセンシングデータが取得されることになる。
The
以上のように、変形例1に係る制御装置30は、1台のセンシングモジュール11を用い、物体100に対してセンシングモジュール11を移動させることで、物体100の塗装面について異なる方向からセンシングデータを取得する。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、センシングモジュール11が1台である場合であっても、物体100の異常を正確に検出し、異常を解消することが可能となる。
As described above, the
<変形例2>
次に、システム1の変形例2について説明する。上記実施形態では、特別な照明を用いずに物体100を検査する場合を例に説明した。変形例2では、所定の波長の光を発する照明を利用する場合について説明する。
<Modification 2>
Next, a modification 2 of the
図8は、変形例2に係るシステム1の構成を示す図である。なお図8では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。
FIG. 8 is a diagram showing the configuration of the
図8に示すシステム1は、光源である照明70を備えている。照明70は、所定の波長の光を発生させる。照明70から発せられる光は、例えば、全ての波長の光が含まれた白色光である。照明70は、物体100の表面で反射した反射光の乱反射が発生しにくい光量で光を発生させる。照明70で発せられた光は、物体100に照射される。
The
変形例2において、センシングモジュール11は、照明70から発せられる波長の光をセンシングする。照明70から発せられる光が白色光である場合、センシングモジュール11は、例えば、可視光をセンシングする。
In the second modification, the
変形例2における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。
The
以上のように、変形例2に係るシステム1では、照明70が所定の波長の光を照射し、物体100での反射光をセンシングモジュール11がセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、軽微な塗装ムラのように、自然光におけるセンシングでは差異が確認しづらい異常も精度よく検出可能となる。
As described above, in the
なお、変形例2では、光を照射する際に、照明70を、物体100に対して相対的に移動させてもよい。このとき、センシングモジュール11を、物体100に対して相対的に移動させてもよいし、移動させなくてもよい。照明70を物体100に対して相対的に移動させることにより、光の反射が変化するため、異常を検出する精度がさらに向上する。
In the second modification, the
また、変形例2では、照明70は、光を物体100へ照射する際、照射する光の波長を切り替えてもよい。このとき、センシングユニット10は、光の波長と対応する複数のセンシングモジュール11を備えていてもよい。
Further, in the second modification, the
これにより、発せられる光の波長に合わせてセンシングモジュール11も切り替えることが可能となるため、多様なセンシングを行うことが可能となる。
As a result, the
<変形例3>
次に、システム1の変形例3について説明する。変形例3では、特定された異常部の3次元位置が、ユーザにより所有される端末で共有される場合について説明する。
<Modification 3>
Next, a modification 3 of the
図9は、変形例3に係るシステム1の構成を示す図である。図9に示すシステム1は、端末装置80を有している。端末装置80は、例えば、ヘッドマウントディスプレイ、スマートフォン、又はタブレット端末等の携行性を備えたコンピュータにより実現される。端末装置80は、現実の画像、又は風景に、所望の映像を重畳することで、知覚可能な現実環境を拡張する機能を有する。ヘッドマウントディスプレイとしての端末装置80は、一般にAR(Augmented Reality)グラスと称される。端末装置80は、通信機能と、通信機能により取得した情報を現実の画像、又は風景に重畳表示する表示機能を備えている。
FIG. 9 is a diagram showing the configuration of the
制御装置30は、記憶装置32に記憶される、物体100の異常部の3次元位置に関する情報を、ネットワーク50を介して端末装置80に送信する。すなわち、制御装置30は、図4に示すステップS301~S304の処理により特定した異常の3次元位置に関する情報を、端末装置80へ送信する。
The
端末装置80は、取得した3次元位置に関する情報に基づき、端末装置80を介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、ディスプレイにおける異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。なお、異常部が直視できない状況、つまり、異常部が所定の構造体の陰に隠れている場合であっても、方向が捉えられていれば、異常発生を表す情報が重畳される。異常が発生していることを表す情報とは、異常部の位置を表す情報、検出された日時を表す情報、異常の程度を表す情報、異常が発生したラインを表す情報、異常が発生した物体を表す情報等を含む。
The
具体的には、例えば、端末装置80がARグラスである場合、端末装置80は、レンズを介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、レンズ上において異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。これにより、端末装置80のユーザは、端末装置80を介して物体100を視認した際に、物体100の異常が生じている部分に、その旨の表示が示された映像が拡張現実として視認できるようになる。
Specifically, for example, when the
以上のように、変形例3に係る制御装置30は、特定した異常部の3次元位置に関する情報を、端末装置80に拡張現実として表示させるようにしている。これにより、物体100における異常部の位置を即座に把握することが可能になり、異常の程度の確認、修復作業の検討、又は工数の見積等を効率的に行うことが可能となる。
As described above, the
<変形例4>
次に、システム1の変形例4について説明する。変形例4では、センシングユニット10のアクチュエータがロボットアーム12である場合について説明する。
<Modification example 4>
Next, a modification 4 of the
図10は、変形例4に係るシステム1の構成を示す図である。図10に示すシステム1は、ロボットアーム12の先端にセンシングモジュール11が配置されたセンシングユニット10aを2台有している。なお、システム1が有するセンシングユニット10aは1台でもよいし、3台以上であってもよい。
FIG. 10 is a diagram showing the configuration of the
変形例4において第1制御部31Aは、センシングユニット10aを制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、ロボットアーム12のサーボモーターを制御する。より具体的には、第1制御部31Aは、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12を制御する。
In the modified example 4, the
なお、物体100が配置されるステージ61は、停止と移動とを繰り返しながら、物体100を所定の方向へ搬送するようにしてもよい。第1制御部31Aは、ステージ61が停止と移動とを繰り返す場合であっても、センシングモジュール11が、物体100の運動を規則的な運動として捉えられるように、ロボットアーム12を制御してセンシングモジュール11を移動させる。
The
変形例4における制御装置30は、図4に示す動作と同様にステップS301~S304の動作を実施する。
The
以上のように、変形例4に係る制御装置30は、ロボットアーム12に取り付けられたセンシングモジュール11により物体100の塗装面をセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出するようにしている。ロボットアーム12にセンシングモジュール11を取り付けることで、センシングモジュール11の位置を精緻に制御することが可能となる。これにより、物体100の異常を検出する精度が向上することになる。
As described above, the
また、変形例4では、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12の動きを制御するようにしている。これにより、物体100の異常も規則的に運動するようになるため、誤検出を抑えられ、異常の検出精度が向上することになる。
Further, in the modification 4, the
<その他の変形例>
次に、その他の変形例について説明する。
<Other variants>
Next, other modification examples will be described.
上記実施形態では、制御装置30に検出部31Cが含まれ、検出部31Cにより、センシングデータに基づいて物体100の異常が検出される場合を例に説明した。しかしながら、物体100の異常は、センシングユニット10で検出されてもよい。センシングユニット10は、物体100の塗装面の異常を検出するための学習済みモデルを記憶している。学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。
In the above embodiment, the case where the
センシングユニット10は、センシングモジュール11によりセンシングデータが取得されると、取得されたセンシングデータを学習済みモデルに入力し、センシングデータに含まれている異常の判断を出力させる。センシングユニット10は、センシングデータと、異常の判断とを制御装置30へ送信する。
When the sensing data is acquired by the
上記実施形態では、センシングモジュール11に、例えば、予め設定された帯域の電磁波を用いて実現されるデバイスが採用される場合を例に説明したが、センシングモジュール11に、それぞれ異なる帯域の電磁波を用いて実現されるデバイスが複数種類採用されてもよい。このとき、制御装置30の検出部31Cは、例えば、センシングモジュール11のそれぞれの帯域の電磁波を利用したセンシングデータに基づいて、物体100の異常を検出する。これにより、異常の検出精度を高めることが可能となる。
In the above embodiment, for example, a case where a device realized by using electromagnetic waves of a preset band is adopted for the
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。
また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
Although the preferred embodiments of the present disclosure have been described above, the present disclosure is not limited to such specific embodiments, and the present disclosure includes the inventions described in the claims and the equivalent scope thereof. Is done.
Further, the configurations of the devices described in the above-described embodiments and modifications can be appropriately combined as long as there is no technical contradiction.
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
<Additional Notes>
The matters described in each of the above embodiments will be added below.
(付記1)
プロセッサ31と、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアーム21を、特定した3次元位置にデバイス22が到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、を実行させる、プログラム。
(Appendix 1)
A program for causing a computer having a
The step (S302) of acquiring the three-dimensional shape of an object based on the sensing data obtained by sensing the object using electromagnetic waves, and
Step (S303) to detect anomalies in an object based on sensing data,
Step (S304) to identify the three-dimensional position of the detected anomaly,
A step (S305) of moving the
A program that executes the step (S202) of operating the device when the device reaches a three-dimensional position.
(付記2)
物体の3次元形状を取得するステップ(S302)では、物体を複数の方向からセンシングしたセンシングデータに基づいて3次元形状を取得する、(付記1)に記載の外観検査プラグラム。
(Appendix 2)
The visual inspection program according to (Appendix 1), wherein in the step (S302) of acquiring a three-dimensional shape of an object, the three-dimensional shape is acquired based on sensing data obtained by sensing the object from a plurality of directions.
(付記3)
物体を複数の方向からセンシングしたセンシングデータを取得するように、センシング手段11を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(Appendix 3)
The program according to (Appendix 2), wherein the sensing means 11 is moved so as to acquire the sensing data obtained by sensing the object from a plurality of directions, and the processor is made to execute the step (S301) of causing the sensing means to sense the object.
(付記4)
物体を複数の方向からセンシングしたセンシングデータを取得するように、物体を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)又は(付記3)に記載のプログラム。
(Appendix 4)
Described in (Appendix 2) or (Appendix 3), wherein the processor executes the step (S301) of moving the object and causing the sensing means to sense the object so as to acquire sensing data obtained by sensing the object from a plurality of directions. Program.
(付記5)
物体を複数の方向からセンシングしたセンシングデータを取得するように、複数のセンシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(Appendix 5)
The program according to (Appendix 2), which causes a processor to execute a step (S301) of causing a plurality of sensing means to sense an object so as to acquire sensing data obtained by sensing the object from a plurality of directions.
(付記6)
複数の帯域の電磁波を利用するセンシング手段に、物体をセンシングさせるステップ(S101)を、プロセッサに実行させる、(付記1)から(付記5)のいずれかに記載のプログラム。
(Appendix 6)
The program according to any one of (Appendix 1) to (Appendix 5), which causes a processor to execute a step (S101) of sensing an object by a sensing means using electromagnetic waves in a plurality of bands.
(付記7)
異常を検出するステップ(S303)では、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出する(付記1)から(付記6)のいずれかに記載のプログラム。
(Appendix 7)
In the step of detecting anomalies (S303), anomalies are detected from (Appendix 1) to (Appendix 6) by using a trained model trained to input sensing data for an object and output the presence or absence of anomalies. The program described in any of.
(付記8)
ロボットアームを移動させるステップ(S305)では、異常の3次元位置を入力とし、3次元位置に対するデバイスの位置を出力するように学習された学習済みモデルを利用して、ロボットアームを移動させる(付記1)から(付記7)のいずれかに記載のプログラム。
(Appendix 8)
In the step of moving the robot arm (S305), the robot arm is moved by using a trained model trained to input the abnormal 3D position and output the position of the device with respect to the 3D position (Appendix). The program described in any of 1) to (Appendix 7).
(付記9)
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段11を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、プログラム。
(Appendix 9)
A program to be executed by a computer equipped with a processor and a memory, and the program is a program to be executed by the processor.
A step of moving the sensing means 11 with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
The step (S303) of detecting an abnormality of an object based on the sensing data obtained by sensing, and
Step (S304) to identify the three-dimensional position of the detected anomaly,
A program that runs.
(付記10)
物体に対して光を照射するステップと、
光を検出するセンシング手段に、物体をセンシングさせるステップと
をプロセッサに実行させる、(付記1)から(付記9)のいずれかに記載のプログラム。
(Appendix 10)
The step of irradiating an object with light,
The program according to any one of (Appendix 1) to (Appendix 9), which causes a processor to execute a step of sensing an object by a sensing means for detecting light.
(付記11)
光を照射するステップでは、光の光源70を、物体に対して相対的に移動させる、(付記10)に記載のプログラム。
(Appendix 11)
The program according to (Appendix 10), wherein in the step of irradiating light, the
(付記12)
光を照射するステップでは、複数種類の波長の光を切り替えて照射する、(付記10)又は(付記11)に記載のプログラム。
(Appendix 12)
The program according to (Appendix 10) or (Appendix 11), wherein in the step of irradiating light, light of a plurality of wavelengths is switched and irradiated.
(付記13)
特定した3次元位置を、端末装置80へ送信するステップを、プロセッサに実行させる、(付記1)から(付記12)のいずれかに記載のプログラム。
(Appendix 13)
The program according to any one of (Appendix 1) to (Appendix 12), which causes a processor to execute a step of transmitting the specified three-dimensional position to the
(付記14)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、
を実行する、方法。
(Appendix 14)
A method performed by a computer equipped with a processor and memory, wherein the processor
The step (S302) of acquiring the three-dimensional shape of an object based on the sensing data obtained by sensing the object using electromagnetic waves, and
The step (S303) of detecting an abnormality of an object based on the sensing data,
Step (S304) to identify the three-dimensional position of the detected anomaly,
A step (S305) of moving a robot arm equipped with a device capable of resolving an abnormality so that the device reaches a specified three-dimensional position.
When the device reaches the three-dimensional position, the step (S202) of operating the device and
How to do it.
(付記15)
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得する手段と、
センシングデータに基づき、物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させ、デバイスを3次元位置に到達させると、デバイスを稼働させる手段と、
を具備するシステム。
(Appendix 15)
A means for acquiring a three-dimensional shape of an object based on sensing data obtained by sensing the object using electromagnetic waves, and
A means of detecting anomalies in an object based on sensing data,
A means to identify the three-dimensional position of the detected anomaly,
A robot arm equipped with a device capable of resolving an abnormality is moved so that the device reaches a specified three-dimensional position, and when the device reaches the three-dimensional position, a means for operating the device is used.
A system equipped with.
(付記16)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、方法。
(Appendix 16)
A method performed by a computer equipped with a processor and memory, wherein the processor
A step of moving a sensing means to an object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
The step (S303) of detecting an abnormality of an object based on the sensing data obtained by sensing, and
Step (S304) to identify the three-dimensional position of the detected anomaly,
How to get it done.
(付記17)
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせる手段と、
センシングにより得られるセンシングデータに基づいて物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
を具備するシステム。
(Appendix 17)
A means of moving a sensing means with respect to an object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A means to detect anomalies in an object based on the sensing data obtained by sensing,
A means to identify the three-dimensional position of the detected anomaly,
A system equipped with.
1…システム
10,10a…センシングユニット
100…物体
11…センシングモジュール
12…ロボットアーム
20…産業用ロボット
21…ロボットアーム
22…エンドエフェクタ
30…制御装置
31…プロセッサ
31A…第1制御部
31B…取得部
31C…検出部
31D…位置特定部
31E…第2制御部
32…記憶装置
33…通信インタフェース
34…入出力インタフェース
40…表示装置
50…ネットワーク
60…ステージ
61…ステージ
70…照明
80…端末装置
1 ...
Claims (17)
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
前記センシングデータに基づき、前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、を実行させる、プログラム。 A program for causing a computer having a processor and a memory to execute the program, wherein the program causes the processor to execute the program.
A step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves, and
A step of detecting an abnormality of the object based on the sensing data,
The step of identifying the three-dimensional position of the detected abnormality and
A step of moving a robot arm equipped with a device capable of resolving the abnormality so that the device reaches the specified three-dimensional position.
A program that executes a step of operating the device when the device reaches the three-dimensional position.
物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
を実行させる、プログラム。 A program for causing a computer having a processor and a memory to execute the program, wherein the program causes the processor to execute the program.
A step of moving the sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A step of detecting an abnormality of the object based on the sensing data obtained by the sensing, and
The step of identifying the three-dimensional position of the detected abnormality and
A program that runs.
前記光を検出するセンシング手段に、前記物体をセンシングさせるステップと
を前記プロセッサに実行させる、請求項1から9のいずれか1項に記載のプログラム。 The step of irradiating the object with light and
The program according to any one of claims 1 to 9, wherein the processor performs a step of causing the sensing means for detecting light to sense the object.
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
前記センシングデータに基づき、前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、
を実行する、方法。 A method performed by a computer comprising a processor and memory, wherein the processor is:
A step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves, and
A step of detecting an abnormality of the object based on the sensing data,
The step of identifying the three-dimensional position of the detected abnormality and
A step of moving a robot arm equipped with a device capable of resolving the abnormality so that the device reaches the specified three-dimensional position.
When the device reaches the three-dimensional position, the step of operating the device and
How to do it.
前記センシングデータに基づき、前記物体の異常を検出する手段と、
前記検出した異常の3次元位置を特定する手段と、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させ、前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させる手段と、
を具備するシステム。 A means for acquiring a three-dimensional shape of an object based on sensing data obtained by sensing the object using electromagnetic waves, and
A means for detecting an abnormality in the object based on the sensing data,
A means for identifying the three-dimensional position of the detected abnormality and
A robot arm equipped with a device capable of resolving the abnormality is moved so that the device reaches the specified three-dimensional position, and when the device reaches the three-dimensional position, the device is operated. Means and
A system equipped with.
物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
を実行させる、方法。 A method performed by a computer comprising a processor and memory, wherein the processor is:
A step of moving the sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A step of detecting an abnormality of the object based on the sensing data obtained by the sensing, and
The step of identifying the three-dimensional position of the detected abnormality and
How to get it done.
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出する手段と、
前記検出した異常の3次元位置を特定する手段と、
を具備するシステム。
A means for moving a sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A means for detecting an abnormality of the object based on the sensing data obtained by the sensing, and
A means for identifying the three-dimensional position of the detected abnormality and
A system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007023A JP2022037856A (en) | 2020-08-25 | 2021-01-20 | Program, method and system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020141403A JP2022037326A (en) | 2020-08-25 | 2020-08-25 | Program, method and system |
JP2021007023A JP2022037856A (en) | 2020-08-25 | 2021-01-20 | Program, method and system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020141403A Division JP2022037326A (en) | 2020-08-25 | 2020-08-25 | Program, method and system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022037856A true JP2022037856A (en) | 2022-03-09 |
Family
ID=80354772
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020141403A Pending JP2022037326A (en) | 2020-08-25 | 2020-08-25 | Program, method and system |
JP2021007023A Pending JP2022037856A (en) | 2020-08-25 | 2021-01-20 | Program, method and system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020141403A Pending JP2022037326A (en) | 2020-08-25 | 2020-08-25 | Program, method and system |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP2022037326A (en) |
WO (1) | WO2022043979A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024024234A (en) * | 2022-08-09 | 2024-02-22 | 株式会社日立製作所 | Measurement system and method and parts remanufacturing system and method |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11351841A (en) * | 1998-06-09 | 1999-12-24 | Mitsutoyo Corp | Noncontact type three-dimensional measuring method |
JP2000009659A (en) * | 1998-06-19 | 2000-01-14 | Fuji Photo Film Co Ltd | Surface inspection method and device |
JP2002508071A (en) * | 1997-07-18 | 2002-03-12 | アウディ アーゲー | Method for automatically recognizing body shell surface defects and apparatus for implementing the method |
JP2008046103A (en) * | 2006-07-19 | 2008-02-28 | Shimatec:Kk | Surface inspection apparatus |
JP2011163823A (en) * | 2010-02-05 | 2011-08-25 | Aisin Seiki Co Ltd | Object-shape evaluating device |
JP2013234951A (en) * | 2012-05-10 | 2013-11-21 | Mitsutoyo Corp | Three-dimensional measuring apparatus |
JP2015102466A (en) * | 2013-11-26 | 2015-06-04 | セントラル硝子株式会社 | Curved plate shape inspection device |
JP2017009383A (en) * | 2015-06-19 | 2017-01-12 | アスモ株式会社 | Device and method for imaging exterior appearance |
JP2017116404A (en) * | 2015-12-24 | 2017-06-29 | ダイハツ工業株式会社 | Shape recognition device and shape recognition method |
JP2018163125A (en) * | 2017-03-27 | 2018-10-18 | 株式会社ミツトヨ | Measurement head |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0666732A (en) * | 1992-08-19 | 1994-03-11 | Mitsubishi Motors Corp | Inspecting and finishing method for painting |
JPH06241737A (en) * | 1992-12-25 | 1994-09-02 | Toyota Central Res & Dev Lab Inc | Cross sectional area and volume measuring device |
JPH0829143A (en) * | 1994-07-13 | 1996-02-02 | Mazda Motor Corp | Method and apparatus for inspecting surface state |
JP6737503B2 (en) * | 2016-09-13 | 2020-08-12 | 株式会社Vrc | 3D scanner |
JP6845072B2 (en) * | 2017-04-21 | 2021-03-17 | ファナック株式会社 | Factory equipment maintenance support equipment and maintenance support system |
JP7228951B2 (en) * | 2017-12-05 | 2023-02-27 | あいおいニッセイ同和損害保険株式会社 | Loss price evaluation system |
IT201800006253A1 (en) * | 2018-06-12 | 2019-12-12 | Method and system for the localization of points on a complex surface in space |
-
2020
- 2020-08-25 JP JP2020141403A patent/JP2022037326A/en active Pending
-
2021
- 2021-01-20 JP JP2021007023A patent/JP2022037856A/en active Pending
- 2021-10-15 WO PCT/IB2021/059489 patent/WO2022043979A1/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002508071A (en) * | 1997-07-18 | 2002-03-12 | アウディ アーゲー | Method for automatically recognizing body shell surface defects and apparatus for implementing the method |
JPH11351841A (en) * | 1998-06-09 | 1999-12-24 | Mitsutoyo Corp | Noncontact type three-dimensional measuring method |
JP2000009659A (en) * | 1998-06-19 | 2000-01-14 | Fuji Photo Film Co Ltd | Surface inspection method and device |
JP2008046103A (en) * | 2006-07-19 | 2008-02-28 | Shimatec:Kk | Surface inspection apparatus |
JP2011163823A (en) * | 2010-02-05 | 2011-08-25 | Aisin Seiki Co Ltd | Object-shape evaluating device |
JP2013234951A (en) * | 2012-05-10 | 2013-11-21 | Mitsutoyo Corp | Three-dimensional measuring apparatus |
JP2015102466A (en) * | 2013-11-26 | 2015-06-04 | セントラル硝子株式会社 | Curved plate shape inspection device |
JP2017009383A (en) * | 2015-06-19 | 2017-01-12 | アスモ株式会社 | Device and method for imaging exterior appearance |
JP2017116404A (en) * | 2015-12-24 | 2017-06-29 | ダイハツ工業株式会社 | Shape recognition device and shape recognition method |
JP2018163125A (en) * | 2017-03-27 | 2018-10-18 | 株式会社ミツトヨ | Measurement head |
Also Published As
Publication number | Publication date |
---|---|
JP2022037326A (en) | 2022-03-09 |
WO2022043979A1 (en) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11331803B2 (en) | Mixed reality assisted spatial programming of robotic systems | |
US11185985B2 (en) | Inspecting components using mobile robotic inspection systems | |
EP1769891B1 (en) | Offline teaching apparatus for robot | |
US20180004188A1 (en) | Robot, robot control apparatus and robot system | |
US20080013825A1 (en) | Simulation device of robot system | |
US20160354927A1 (en) | Controlling a robot in the presence of a moving object | |
CN103770112A (en) | Robot system and processed product producing method | |
JP6856590B2 (en) | Sensing systems, work systems, augmented reality image display methods, and programs | |
JP2008254150A (en) | Teaching method and teaching device of robot | |
JP7396872B2 (en) | Simulation device and robot system using augmented reality | |
EP3257026B1 (en) | Generating three dimensional models | |
JP2015506480A (en) | Automatic system and method for tracking and detecting defects on a target | |
CN107422686B (en) | Apparatus for enabling remote control of one or more devices | |
JP6677706B2 (en) | Link information generation device, link information generation method, and link information generation program | |
JP2010276447A (en) | Position measuring apparatus, position measuring method and robot system | |
WO2022043979A1 (en) | Program, method and system | |
CN112894798A (en) | Method for controlling a robot in the presence of a human operator | |
KR101535801B1 (en) | Process inspection device, method and system for assembling process in product manufacturing using depth map sensors | |
US20200026478A1 (en) | Control Apparatus, Head Mounted Display And Robot System | |
JP7173048B2 (en) | Abnormal noise inspection device, abnormal noise inspection method, program and work manufacturing method | |
JP2010149225A (en) | Robot system, device and method for controlling robot system | |
CN114746207B (en) | Repair welding equipment and repair welding method | |
JP2015058488A (en) | Robot control system, robot, robot control method, and program | |
US20230409149A1 (en) | Virtual buttons for augmented reality light guided assembly system and calibration method | |
US20240070910A1 (en) | Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210126 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210126 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220111 |