JP2022037856A - Program, method and system - Google Patents

Program, method and system Download PDF

Info

Publication number
JP2022037856A
JP2022037856A JP2021007023A JP2021007023A JP2022037856A JP 2022037856 A JP2022037856 A JP 2022037856A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2022037856 A JP2022037856 A JP 2022037856A
Authority
JP
Japan
Prior art keywords
sensing
abnormality
dimensional position
program
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007023A
Other languages
Japanese (ja)
Inventor
俊二 菅谷
Shunji Sugaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2021007023A priority Critical patent/JP2022037856A/en
Publication of JP2022037856A publication Critical patent/JP2022037856A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces

Abstract

PROBLEM TO BE SOLVED: To reduce the burden of a worker in visual inspection.
SOLUTION: A program causes a computer including a processor and a memory to execute processing. The program causes the processor to execute the steps of: acquiring a three-dimensional shape of an object based on sensing data obtained by sensing using electromagnetic waves to the object; detecting abnormality of the object based on the sensing data; specifying a three-dimensional position of the detected abnormality; moving a robot arm including a device capable of resolving the abnormality, mounted thereon, in order to deliver the device to the specified three-dimensional position; and when delivering the device to the three-dimensional position, activating the device.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本開示は、プログラム、方法、及びシステムに関する。 This disclosure relates to programs, methods, and systems.

従来、製造現場における製造工程の中には、物体を組み立てる工程、物体のボディを塗装する工程など様々な工程が含まれる。
塗装する工程では、例えば、ロボットアーム等を利用した複数の手順を経て物体の塗装を進める。そして、塗装が完了すると、製造物としての物体の最終確認が行われ、製造された物体に異常がないことが確認される。物体の外観検査中に、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等の異常が発見された場合、その異常が解消される補修がなされる。例えば、塗装ムラが発見された場合、塗装ムラのある領域をポリッシャーで磨くことで、その領域の塗装を均一にする。
Conventionally, the manufacturing process at a manufacturing site includes various processes such as a process of assembling an object and a process of painting the body of an object.
In the painting process, for example, painting of an object is advanced through a plurality of procedures using a robot arm or the like. Then, when the painting is completed, the final confirmation of the object as a manufactured object is performed, and it is confirmed that there is no abnormality in the manufactured object. If, for example, an abnormality such as discoloration, cracks, adhesion of dust, or uneven coating is found during the visual inspection of the object, repair is performed to eliminate the abnormality. For example, when uneven coating is found, the area with uneven coating is polished with a polisher to make the area painted uniform.

特開2000-205846号公報Japanese Unexamined Patent Publication No. 2000-205846

外観検査における、異常の検出、及び発見された異常の解消は、作業員の手により行われている。しかしながら、異常の検出、及び発見された異常の解消は、高い集中力を求められ、作業員の大きな負担となっている。
特許文献1では、光学的に塗装ムラを検出する検査方法・装置が開示されているが、塗装ムラ以外の検出については記載されていない。
In the visual inspection, the detection of the abnormality and the elimination of the found abnormality are performed by the workers. However, the detection of anomalies and the elimination of the discovered anomalies require high concentration, which is a heavy burden on the workers.
Patent Document 1 discloses an inspection method / apparatus for optically detecting coating unevenness, but does not describe detection other than coating unevenness.

本開示の目的は、外観検査において、作業員の負担を軽減させることである。 An object of the present disclosure is to reduce the burden on workers in visual inspection.

本開示の一態様は、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップと、センシングデータに基づき、物体の異常を検出するステップと、検出した異常の3次元位置を特定するステップと、異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップと、デバイスを3次元位置に到達させると、デバイスを稼働させるステップと、を実行させる。 One aspect of the present disclosure is a program for causing a computer including a processor and a memory to execute. The program has a step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves to the object, a step of detecting the abnormality of the object based on the sensing data, and a step of detecting the detected abnormality. A step to specify a 3D position, a step to move a robot arm equipped with a device capable of eliminating an abnormality so that the device reaches the specified 3D position, and a step to move the device to the 3D position. , Steps to get the device up and running.

本発明のプログラムによれば、作業員の負担を軽減させることができる。 According to the program of the present invention, the burden on the worker can be reduced.

本実施形態に係るシステムの全体構成を示す図である。It is a figure which shows the whole structure of the system which concerns on this embodiment. 制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of a control device. 異常部の3次元位置情報のデータ構造を示す図である。It is a figure which shows the data structure of the 3D position information of an abnormality part. システムにより、物体の塗装面における異常を検知し、検知した異常を解消する流れを説明するための図である。It is a figure for demonstrating the flow of detecting an abnormality on a painted surface of an object by a system, and eliminating the detected abnormality. 物体の塗装面における異常部を表す模式図である。It is a schematic diagram which shows the abnormal part in the painted surface of an object. 産業用ロボットの動作を説明するための図である。It is a figure for demonstrating the operation of an industrial robot. 変形例1に係るシステムの構成を示す図である。It is a figure which shows the structure of the system which concerns on the modification 1. 変形例2に係るシステムの構成を示す図である。It is a figure which shows the structure of the system which concerns on the modification 2. 変形例3に係るシステムの構成を示す図である。It is a figure which shows the structure of the system which concerns on the modification 3. 変形例4に係るシステムの構成を示す図である。It is a figure which shows the structure of the system which concerns on the modification 4.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the drawings for explaining the embodiments, the same components are designated by the same reference numerals in principle, and the repeated description thereof will be omitted.

<概要>
本実施形態に係るシステム1は、例えば、塗装された物体の塗装面を検査し、塗装面に異常が生じている場合に、異常を解消するための作業を行うシステムである。システム1は、例えば、自動車の製造ラインで用いられる。
<Overview>
The system 1 according to the present embodiment is, for example, a system for inspecting a painted surface of a painted object and performing work for eliminating the abnormality when an abnormality occurs on the painted surface. The system 1 is used, for example, in an automobile production line.

<全体構成>
図1は、本実施形態に係るシステム1の全体構成を示す図である。図1に示すシステム1は、物体100の塗装面を検査する。物体100は、図示を簡略化しているが、例えば自動車のボディの外板等のように、塗装工程を終え、外観検査を控えたワークである。なお、物体100は、自動車のボディの外板に限られず、外観検査を控える様々なワークが想定される。
<Overall configuration>
FIG. 1 is a diagram showing an overall configuration of the system 1 according to the present embodiment. The system 1 shown in FIG. 1 inspects the painted surface of the object 100. Although the illustration of the object 100 is simplified, it is a work such as an outer panel of an automobile body, which has finished the painting process and is not to be visually inspected. The object 100 is not limited to the outer panel of the body of an automobile, and various workpieces that refrain from visual inspection are assumed.

システム1は、センシングユニット10、産業用ロボット20、制御装置30、及び表示装置40を備えている。センシングユニット10、産業用ロボット20、及び制御装置30は、相互に通信可能にネットワーク50に接続されている。センシングユニット10、産業用ロボット20、及び制御装置30のネットワーク50との接続は、有線であっても無線であっても構わない。また、センシングユニット10、及び産業用ロボット20が、ネットワーク50を介さずに制御装置30と接続されていてもよい。制御装置30は、表示装置40と有線又は無線により接続されている。なお、制御装置30と、表示装置40とはネットワーク50を介して接続されていてもよい。 The system 1 includes a sensing unit 10, an industrial robot 20, a control device 30, and a display device 40. The sensing unit 10, the industrial robot 20, and the control device 30 are connected to the network 50 so as to be able to communicate with each other. The connection of the sensing unit 10, the industrial robot 20, and the control device 30 to the network 50 may be wired or wireless. Further, the sensing unit 10 and the industrial robot 20 may be connected to the control device 30 without going through the network 50. The control device 30 is connected to the display device 40 by wire or wirelessly. The control device 30 and the display device 40 may be connected via the network 50.

センシングユニット10は、物体100に対して電磁波を用いたセンシングを行う。センシングユニット10は、センシングを行うセンシングモジュール(センシング手段)11と、センシングモジュール11の位置を制御するアクチュエータ(図示せず)と、を備えている。 The sensing unit 10 senses the object 100 using electromagnetic waves. The sensing unit 10 includes a sensing module (sensing means) 11 for sensing and an actuator (not shown) for controlling the position of the sensing module 11.

センシングモジュール11は、予め設定された帯域の電磁波を用いて物体100をセンシングする。センシングモジュール11には、例えば、予め設定された帯域の電磁波を用いて実現される、以下のいずれかのデバイスが想定される。
・可視光カメラ
・赤外線カメラ
・紫外線カメラ
・超音波センサ
・RGB-Dカメラ
・LiDAR(Light Detection and Ranging)
The sensing module 11 senses the object 100 using electromagnetic waves in a preset band. For the sensing module 11, for example, any of the following devices realized by using electromagnetic waves in a preset band is assumed.
・ Visible light camera ・ Infrared camera ・ Ultraviolet camera ・ Ultrasonic sensor ・ RGB-D camera ・ LiDAR (Light Detection and Ranging)

センシングモジュール11は、物体100の塗装面に発生し得る異常の3次元位置を取得可能なように、物体100の周囲に複数配置されている。例えば、センシングモジュール11は、物体100の所定の面を、異なる方向から同時にセンシング可能な位置に配置されている。図1に示す例では、2台のセンシングモジュール11が、物体100の周囲に配置されているが、物体100の周囲に配置されるセンシングモジュール11の数は、3台以上であってもよい。 A plurality of sensing modules 11 are arranged around the object 100 so that the three-dimensional positions of abnormalities that may occur on the painted surface of the object 100 can be acquired. For example, the sensing module 11 is arranged at a position where a predetermined surface of the object 100 can be simultaneously sensed from different directions. In the example shown in FIG. 1, two sensing modules 11 are arranged around the object 100, but the number of sensing modules 11 arranged around the object 100 may be three or more.

センシングユニット10は、センシングモジュール11により取得したセンシングデータを制御装置30へ送信する。
センシングユニット10のアクチュエータとしては、例えばセンシングモジュール11の位置をXY軸に沿って移動可能な直交ロボットが用いられる。直交ロボットの挙動は、制御装置30により制御される。なお、アクチュエータは、例えば、センシングモジュール11を一軸に沿って移動可能な単軸ロボットであってもよい。
The sensing unit 10 transmits the sensing data acquired by the sensing module 11 to the control device 30.
As the actuator of the sensing unit 10, for example, a Cartesian robot capable of moving the position of the sensing module 11 along the XY axis is used. The behavior of the orthogonal robot is controlled by the control device 30. The actuator may be, for example, a single-axis robot capable of moving the sensing module 11 along one axis.

産業用ロボット20は、例えば、垂直多関節ロボットである。産業用ロボット20は、例えば、多関節のロボットアーム21と、ロボットアーム21の先端に搭載されたエンドエフェクタ22と、を備えている。産業用ロボット20は、制御装置30と通信接続されている。 The industrial robot 20 is, for example, a vertical articulated robot. The industrial robot 20 includes, for example, an articulated robot arm 21 and an end effector 22 mounted on the tip of the robot arm 21. The industrial robot 20 is communicatively connected to the control device 30.

ロボットアーム21は、制御装置30からの制御に従って駆動する。具体的には、ロボットアーム21は、関節にモーターが設けられ、モーターの力で関節を稼働させることで腕部分を移動させる。 The robot arm 21 is driven according to the control from the control device 30. Specifically, in the robot arm 21, a motor is provided in the joint, and the arm portion is moved by operating the joint by the force of the motor.

エンドエフェクタ22は、所定の処理を実施するデバイスである。本実施形態においては、物体100の塗装面に生じた異常を解消するためのデバイスである。エンドエフェクタ22は、ロボットアーム21により、所望の位置へ移動される。エンドエフェクタ22としては、例えば、塗装後の外板に生じた塗装ムラ(異常)を磨くことで解消する電動ポリッシャーが挙げられる。なお、エンドエフェクタ22は、物体100の塗装面に生じた異常を解消できるデバイスであれば、電動ポリッシャーに限定されない。 The end effector 22 is a device that performs a predetermined process. In the present embodiment, it is a device for eliminating an abnormality that has occurred on the painted surface of the object 100. The end effector 22 is moved to a desired position by the robot arm 21. Examples of the end effector 22 include an electric polisher that eliminates coating unevenness (abnormality) generated on the outer panel after painting by polishing. The end effector 22 is not limited to the electric polisher as long as it is a device that can eliminate the abnormality generated on the painted surface of the object 100.

制御装置30は、システム1における各装置の動作を制御する。 The control device 30 controls the operation of each device in the system 1.

表示装置40は、制御装置30が処理した情報をユーザに提示する。 The display device 40 presents the information processed by the control device 30 to the user.

<制御装置の構成>
次に制御装置30の構成について説明する。
図2は、制御装置30の構成を示すブロック図である。図2に示す制御装置30は、プロセッサ31と、記憶装置32と、通信インタフェース33と、入出力インタフェース34とを備えている。
<Control device configuration>
Next, the configuration of the control device 30 will be described.
FIG. 2 is a block diagram showing the configuration of the control device 30. The control device 30 shown in FIG. 2 includes a processor 31, a storage device 32, a communication interface 33, and an input / output interface 34.

記憶装置32は、種々の情報を記憶するHDD(hard disk drive)、又はSSD(solid state drive)等の不揮発性の記憶回路により実現される。記憶装置32は、プロセッサ31で実行される各種のプログラム、及び、プログラム等で処理されるデータ等を記憶している。例えば、記憶装置32は、後述する3次元位置情報を記憶する。 The storage device 32 is realized by a non-volatile storage circuit such as an HDD (hard disk drive) or SSD (solid state drive) that stores various information. The storage device 32 stores various programs executed by the processor 31, data processed by the programs, and the like. For example, the storage device 32 stores three-dimensional position information described later.

また、記憶装置32は、例えば、機械学習により生成された複数の学習済みモデルを記憶している。第1学習済みモデルは、例えば、物体100の塗装面の異常を検出するためのモデルである。第2学習済みモデルは、例えば、産業用ロボット20の動作を制御するためのモデルである。第1学習済みモデル、第2学習済みモデルは、制御装置30の出荷時に予め記憶されていてもよいし、出荷後にネットワーク50を介して、又は記憶媒体を介してインストールされても構わない。 Further, the storage device 32 stores, for example, a plurality of trained models generated by machine learning. The first trained model is, for example, a model for detecting an abnormality in the painted surface of the object 100. The second trained model is, for example, a model for controlling the operation of the industrial robot 20. The first trained model and the second trained model may be stored in advance at the time of shipment of the control device 30, and may be installed via the network 50 or via a storage medium after shipment.

第1学習済みモデル、第2学習済みモデルは、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。 The first trained model and the second trained model are obtained by causing a machine learning model to perform machine learning according to a model learning program based on training data.

例えば、本実施形態において、第1学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。 For example, in the present embodiment, the first trained model is trained to output an abnormality on the painted surface with respect to the input sensing data. At this time, for the learning data, for example, a plurality of sensing data about the object are used as input data, and a judgment about an abnormality that can be included in the input data is used as correct output data.

また、例えば、第2学習済みモデルは、入力される3次元位置情報に対し、産業用ロボット20の制御パラメータを出力するように学習されている。このとき、学習用データは、例えば、所定の3次元形状を有する物体についての位置情報を入力データとし、この入力データに対してエンドエフェクタ22がアクセス可能なロボットアーム21の制御パラメータを正解出力データとする。これにより、ロボットアーム21の形状と、物体100の3次元形状とを考慮して、入力された3次元位置へエンドエフェクタ22が到達可能なパラメータが設定されることになる。つまり、エンドエフェクタ22が3次元位置へ到達する過程において、ロボットアーム21と物体100とが接触せずに、ロボットアーム21を駆動させるパラメータが設定されることになる。 Further, for example, the second trained model is trained to output the control parameters of the industrial robot 20 with respect to the input three-dimensional position information. At this time, for the learning data, for example, the position information about the object having a predetermined three-dimensional shape is used as the input data, and the control parameter of the robot arm 21 that the end effector 22 can access to the input data is the correct output data. And. As a result, the parameters that the end effector 22 can reach the input three-dimensional position are set in consideration of the shape of the robot arm 21 and the three-dimensional shape of the object 100. That is, in the process of reaching the three-dimensional position of the end effector 22, the parameter for driving the robot arm 21 is set without the robot arm 21 and the object 100 coming into contact with each other.

通信インタフェース33は、例えば、ネットワーク50と接続する回路により実現される。具体的には、例えば、通信インタフェース33は、5G、4G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ等の通信機器と接続する回路により実現される。制御装置30がセンシングユニット10、又は産業用ロボット20と直接通信接続する場合には、センシングユニット10、又は産業用ロボット20と通信接続可能な回路により実現される。 The communication interface 33 is realized by, for example, a circuit connected to the network 50. Specifically, for example, the communication interface 33 is a wireless base station compatible with communication standards such as 5G, 4G, and LTE (Long Term Evolution), and a wireless LAN such as IEEE (Institute of Electrical and Electronics Engineers) 802.11 ( It is realized by a circuit that connects to a communication device such as a wireless LAN router that supports the Local Area Network) standard. When the control device 30 directly communicates with the sensing unit 10 or the industrial robot 20, it is realized by a circuit capable of communicating with the sensing unit 10 or the industrial robot 20.

入出力インタフェース34は、ユーザからの入力を受け付ける入力装置、及び表示装置40と接続するためのインタフェースである。入力装置は、例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等により実現される。 The input / output interface 34 is an interface for connecting to an input device that receives input from a user and a display device 40. The input device is realized by, for example, a touch panel, a touch pad, a pointing device such as a mouse, a keyboard, or the like.

プロセッサ31は、制御装置30の中枢として機能する。プロセッサ31は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。プロセッサ31は、記憶装置32に記憶されているプログラムを読み出して実行することで、プログラムに対応する種々の機能を実現する。例えば、プロセッサ31は、記憶装置32に記憶されるプログラムを実行することで、第1制御部31A、取得部31B、検出部31C、位置特定部31D、第2制御部31Eとしての機能を実現する。 The processor 31 functions as the center of the control device 30. The processor 31 is hardware for executing an instruction set described in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like. The processor 31 realizes various functions corresponding to the program by reading and executing the program stored in the storage device 32. For example, the processor 31 realizes the functions as the first control unit 31A, the acquisition unit 31B, the detection unit 31C, the position identification unit 31D, and the second control unit 31E by executing the program stored in the storage device 32. ..

第1制御部31Aは、センシングユニット10を制御する。例えば、第1制御部31Aは、センシングモジュール11を適切な位置へ移動させるように、センシングユニット10のアクチュエータへ駆動信号を送信する。 The first control unit 31A controls the sensing unit 10. For example, the first control unit 31A transmits a drive signal to the actuator of the sensing unit 10 so as to move the sensing module 11 to an appropriate position.

第1制御部31Aは、例えば、センシングモジュール11へ駆動信号を送信し、センシングモジュール11によるセンシングを開始させる。第1制御部31Aは、センシングモジュール11により物体100のセンシングを行い、センシングデータを取得させる。 The first control unit 31A transmits, for example, a drive signal to the sensing module 11 to start sensing by the sensing module 11. The first control unit 31A senses the object 100 by the sensing module 11 and acquires the sensing data.

具体的には、例えば、第1制御部31Aは、図1において2台のセンシングモジュール11を略同時に駆動させ、物体100の塗装面を異なる方向からセンシングさせる。この際、第1制御部31Aは、アクチュエータを駆動させながら、センシングモジュール11にセンシングさせてもよい。つまり、第1制御部31Aは、動画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。また、第1制御部31Aは、アクチュエータを駆動させるときにはセンシングを停止させ、センシングしているときにはアクチュエータを停止させるようにしてもよい。つまり、第1制御部31Aは、複数の静止画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。 Specifically, for example, the first control unit 31A drives two sensing modules 11 in FIG. 1 substantially simultaneously to sense the painted surface of the object 100 from different directions. At this time, the first control unit 31A may cause the sensing module 11 to sense while driving the actuator. That is, the first control unit 31A may control the sensing unit 10 so as to acquire the sensing data as a moving image. Further, the first control unit 31A may stop the sensing when driving the actuator, and may stop the actuator when sensing. That is, the first control unit 31A may control the sensing unit 10 so as to acquire sensing data as a plurality of still images.

取得部31Bは、センシングデータに基づき、物体100の3次元形状を取得する。具体的には、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した複数のセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。図1に示す例では、センシングモジュール11が2台配置されるため、センシングモジュール11及び物体100を動かさずに複数方向からのセンシングデータを取得することが可能である。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。 The acquisition unit 31B acquires the three-dimensional shape of the object 100 based on the sensing data. Specifically, the acquisition unit 31B is three-dimensionally based on the sensing data obtained by sensing the object 100 from a plurality of directions, the positions of the plurality of sensing modules 11 that have acquired the sensing data, and the positions of the object 100. Calculate the shape. In the example shown in FIG. 1, since two sensing modules 11 are arranged, it is possible to acquire sensing data from a plurality of directions without moving the sensing module 11 and the object 100. The acquisition unit 31B stores the acquired information about the three-dimensional shape in the storage device 32.

検出部31Cは、センシングデータに基づき、物体100の塗装面に発生している異常を検出する。本実施形態において、異常とは、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等を表す。以下の説明において、物体100の塗装面において異常が発生した部位を異常部と称する。 The detection unit 31C detects an abnormality occurring on the painted surface of the object 100 based on the sensing data. In the present embodiment, the abnormality means, for example, discoloration, cracks, adhesion of dust, uneven coating, and the like. In the following description, a portion where an abnormality occurs on the painted surface of the object 100 is referred to as an abnormal portion.

具体的には、検出部31Cは、例えば、第1学習済みモデルを利用して異常を検出する。検出部31Cは、センシングユニット10により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。 Specifically, the detection unit 31C detects an abnormality by using, for example, the first trained model. The detection unit 31C inputs the sensing data acquired by the sensing unit 10 to the first trained model, and outputs the abnormal unit included in the sensing data.

位置特定部31Dは、検出した異常部の3次元空間における位置を特定する。具体的には、例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。異常部の3次元位置は、例えば、物体100の所定位置を基準とした所定の座標系における座標で表される。所定の座標系は、例えば、直交座標系、又は極座標系統である。異常部の3次元位置は、例えば、工場内の所定位置、又は、産業用ロボット20の所定位置等を基準として特定されてもよい。位置特定部31Dは、特定した3次元位置についての情報を記憶装置32に記憶させる。 The position specifying unit 31D specifies the position of the detected abnormal portion in the three-dimensional space. Specifically, for example, the position specifying portion 31D identifies the three-dimensional position of the abnormal portion in the object 100 by comparing it with the three-dimensional shape of the object 100. The three-dimensional position of the anomalous portion is represented by, for example, coordinates in a predetermined coordinate system with respect to a predetermined position of the object 100. The predetermined coordinate system is, for example, an orthogonal coordinate system or a polar coordinate system. The three-dimensional position of the abnormal portion may be specified, for example, based on a predetermined position in the factory, a predetermined position of the industrial robot 20, or the like. The position specifying unit 31D stores information about the specified three-dimensional position in the storage device 32.

第2制御部31Eは、産業用ロボット20を制御する。例えば、第2制御部31Eは、エンドエフェクタ22が所定の位置へ到達するように、ロボットアーム21のサーボモーターへ駆動信号を送信する。また、第2制御部31Eは、例えば、エンドエフェクタ22へ駆動信号を送信し、エンドエフェクタ22による処理を開始させる。 The second control unit 31E controls the industrial robot 20. For example, the second control unit 31E transmits a drive signal to the servomotor of the robot arm 21 so that the end effector 22 reaches a predetermined position. Further, the second control unit 31E transmits a drive signal to the end effector 22, for example, and starts processing by the end effector 22.

具体的には、第2制御部31Eは、位置特定部31Dで特定した異常部の3次元位置へエンドエフェクタ22を到達させるためにロボットアーム21に入力するパラメータを設定する。 Specifically, the second control unit 31E sets a parameter to be input to the robot arm 21 in order to bring the end effector 22 to the three-dimensional position of the abnormal unit specified by the position specifying unit 31D.

このとき、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、産業用ロボット20の制御パラメータを出力させる。第2制御部31Eは、第2学習済みモデルから出力されたパラメータをロボットアーム21へ送信する。第2制御部31Eは、エンドエフェクタ22が特定した3次元位置に到達すると、エンドエフェクタ22を稼働させる。 At this time, the second control unit 31E inputs the three-dimensional position information of the abnormal unit to the second trained model and outputs the control parameters of the industrial robot 20. The second control unit 31E transmits the parameters output from the second trained model to the robot arm 21. The second control unit 31E operates the end effector 22 when the end effector 22 reaches the specified three-dimensional position.

例えば、異常が塗装ムラであり、エンドエフェクタ22が電動ポリッシャーである場合、電動ポリッシャーが回転しながら異常部に接触することで、塗装ムラが存在している領域が研磨され、塗装ムラが解消される。 For example, when the abnormality is coating unevenness and the end effector 22 is an electric polisher, the electric polisher rotates and comes into contact with the abnormal portion, so that the area where the coating unevenness exists is polished and the coating unevenness is eliminated. To.

<データ構造>
次に、記憶装置32で記憶される情報のデータ構造について説明する。
図3は、異常部の3次元位置情報のデータ構造を示す図である。なお、図3は一例であり、記載されていないデータを除外するものではない。
<Data structure>
Next, the data structure of the information stored in the storage device 32 will be described.
FIG. 3 is a diagram showing a data structure of three-dimensional position information of an abnormal portion. Note that FIG. 3 is an example and does not exclude data not described.

図3に示すように、位置情報DBのレコードの各々は、項目「異常ID」、項目「物体ID」、項目「年月日」、項目「位置情報」等を含む。 As shown in FIG. 3, each of the records in the position information DB includes an item "abnormal ID", an item "object ID", an item "date", an item "position information", and the like.

項目「異常ID」は、発生した異常を識別するためのIDを記憶する。 The item "abnormal ID" stores an ID for identifying an abnormality that has occurred.

項目「物体ID」は、異常が発生した物体100を識別するためのIDを記憶する。 The item "object ID" stores an ID for identifying the object 100 in which the abnormality has occurred.

項目「年月日」は、異常が発生した年月日を記憶する。 The item "date" stores the date when the abnormality occurred.

項目「位置情報」は、発生した異常の3次元位置を記憶する。図3では、直交座標系における3次元位置が記憶される例が示されているが、位置情報DBに記憶される位置情報は直交座標系によるものに限定されない。 The item "position information" stores the three-dimensional position of the generated abnormality. FIG. 3 shows an example in which a three-dimensional position in a Cartesian coordinate system is stored, but the position information stored in the position information DB is not limited to that in the Cartesian coordinate system.

<動作>
次に、システム1の処理について説明する。
図4は、システム1により、物体100の塗装面における異常を検知し、検知した異常を解消する流れの一例を説明するための図である。
<Operation>
Next, the processing of the system 1 will be described.
FIG. 4 is a diagram for explaining an example of a flow in which an abnormality on a painted surface of an object 100 is detected by the system 1 and the detected abnormality is eliminated.

図4に示すように、まず、制御装置30の第1制御部31Aは、センシングユニット10を制御する(ステップS301)。例えば、第1制御部31Aは、センシングユニット10のアクチュエータ、及びセンシングモジュール11へ駆動信号を送信する。 As shown in FIG. 4, first, the first control unit 31A of the control device 30 controls the sensing unit 10 (step S301). For example, the first control unit 31A transmits a drive signal to the actuator of the sensing unit 10 and the sensing module 11.

センシングユニット10のアクチュエータは、制御装置30からの駆動信号に従い、センシングモジュール11を適切な位置へ移動させる。センシングモジュール11は、センシングユニット10からの駆動信号に従い、センシングを開始する(ステップS101)。図1で示す2台のセンシングモジュール11は、それぞれ別の方向から物体100をセンシングする。センシングユニット10は、センシングモジュール11のセンシングにより取得したセンシングデータを制御装置30へ送信する(ステップS102)。 The actuator of the sensing unit 10 moves the sensing module 11 to an appropriate position according to the drive signal from the control device 30. The sensing module 11 starts sensing according to the drive signal from the sensing unit 10 (step S101). The two sensing modules 11 shown in FIG. 1 sense the object 100 from different directions. The sensing unit 10 transmits the sensing data acquired by the sensing of the sensing module 11 to the control device 30 (step S102).

センシングユニット10からセンシングデータを受信すると、制御装置30の取得部31Bは、物体100の3次元形状を取得する(ステップS302)。具体的には、取得部31Bは、センシングモジュール11により取得されたセンシングデータと、センシングモジュール11がセンシングデータを取得した位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。 Upon receiving the sensing data from the sensing unit 10, the acquisition unit 31B of the control device 30 acquires the three-dimensional shape of the object 100 (step S302). Specifically, the acquisition unit 31B calculates the three-dimensional shape of the object 100 based on the sensing data acquired by the sensing module 11, the position where the sensing module 11 acquires the sensing data, and the position of the object 100. .. The acquisition unit 31B stores the acquired information about the three-dimensional shape in the storage device 32.

ステップS302の後に、検出部31Cが物体100の塗装面における異常を検出する(ステップS303)。具体的には、検出部31Cは、センシングモジュール11により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。 After step S302, the detection unit 31C detects an abnormality on the painted surface of the object 100 (step S303). Specifically, the detection unit 31C inputs the sensing data acquired by the sensing module 11 into the first trained model, and outputs the abnormal unit included in the sensing data.

検出部31Cで異常部を検出すると、位置特定部31Dは、異常部の位置を特定する(ステップS304)。例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。このとき、位置特定部31Dは、例えば、異常部の3次元位置を、物体100の所定位置を基準とした直交座標系における座標で表す。 When the detection unit 31C detects the abnormal portion, the position specifying unit 31D identifies the position of the abnormal portion (step S304). For example, the position specifying unit 31D identifies the three-dimensional position of the abnormal portion in the object 100 by comparing it with the three-dimensional shape of the object 100. At this time, the position specifying unit 31D represents, for example, the three-dimensional position of the abnormal portion by the coordinates in the orthogonal coordinate system with respect to the predetermined position of the object 100.

位置特定部31Dで異常部の位置を特定すると、第2制御部31Eは、産業用ロボット20を制御する(ステップS305)。例えば、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、異常部へ産業用ロボット20のエンドエフェクタ22を到達させるための制御パラメータを出力させる。第2制御部31Eは、制御パラメータを指示するための駆動信号を産業用ロボット20のロボットアーム21へ送信する。また、第2制御部31Eは、エンドエフェクタ22の処理を開始させるための駆動信号をエンドエフェクタ22へ送信する。 When the position of the abnormal portion is specified by the position specifying unit 31D, the second control unit 31E controls the industrial robot 20 (step S305). For example, the second control unit 31E inputs the three-dimensional position information of the abnormal portion to the second trained model, and outputs the control parameters for reaching the end effector 22 of the industrial robot 20 to the abnormal portion. The second control unit 31E transmits a drive signal for instructing the control parameters to the robot arm 21 of the industrial robot 20. Further, the second control unit 31E transmits a drive signal for starting the processing of the end effector 22 to the end effector 22.

ロボットアーム21は、制御装置30からの駆動信号に従った位置へエンドエフェクタ22を到達させる(ステップS201)。エンドエフェクタ22は、センシングユニット10からの駆動信号に従い、到達した位置での処理を開始する(ステップS202)。 The robot arm 21 causes the end effector 22 to reach a position according to the drive signal from the control device 30 (step S201). The end effector 22 starts processing at the reached position according to the drive signal from the sensing unit 10 (step S202).

図5は、物体100の塗装面における異常部の例を表す模式図である。図6は、産業用ロボット20の動作を説明するための模式図である。図5に示すように物体100の塗装面に異常部Bが検出された場合、位置特定部31Dは、異常部Bの3次元位置を特定する。第2制御部31Eは、特定した3次元位置に基づいてロボットアーム21の制御パラメータを算出し、算出した制御パラメータに基づいてロボットアーム21を制御することで、図6に示すように、エンドエフェクタ22を異常部Bへ到達させる。第2制御部31Eは、エンドエフェクタ22を異常部Bへ到達させると、エンドエフェクタ22である電動ポリッシャーを稼働させ、異常部Bを研磨する。これにより、エンドエフェクタ22である電動ポリッシャーによる研磨により、塗りムラは解消される。 FIG. 5 is a schematic view showing an example of an abnormal portion on the painted surface of the object 100. FIG. 6 is a schematic diagram for explaining the operation of the industrial robot 20. When the abnormal portion B is detected on the painted surface of the object 100 as shown in FIG. 5, the position specifying portion 31D specifies the three-dimensional position of the abnormal portion B. The second control unit 31E calculates the control parameters of the robot arm 21 based on the specified three-dimensional position, and controls the robot arm 21 based on the calculated control parameters, so that the end effector is as shown in FIG. 22 is made to reach the abnormal portion B. When the second control unit 31E reaches the abnormal portion B, the second control unit 31E operates the electric polisher, which is the end effector 22, and polishes the abnormal portion B. As a result, uneven coating is eliminated by polishing with the electric polisher which is the end effector 22.

エンドエフェクタ22により異常部Bへの処理が終了すると、制御装置30は、図4に示すステップS301、S303の処理を実施し、物体100の塗装面の異常が解消されたか否かを確認する。異常が解消されていない場合、制御装置30は、図4に示すステップS304、S305の処理を実施し、異常の解消を図る。ステップS301、S303~S305の処理は、例えば、適切な修復作業が確認されるまで、繰り返し実施されてもよい。 When the processing to the abnormal portion B is completed by the end effector 22, the control device 30 performs the processing of steps S301 and S303 shown in FIG. 4 to confirm whether or not the abnormality on the painted surface of the object 100 has been resolved. If the abnormality is not resolved, the control device 30 performs the processes of steps S304 and S305 shown in FIG. 4 to eliminate the abnormality. The processes of steps S301 and S303 to S305 may be repeated, for example, until appropriate repair work is confirmed.

なお、上記の処理に限られず、各処理のステップは、各処理の流れが矛盾しない範囲で任意に変更可能である。 Not limited to the above processing, the steps of each processing can be arbitrarily changed as long as the flow of each processing does not contradict.

例えば、図4に示す例では、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とが一連のフローの中で実施される場合を説明した。しかしながら、制御装置30は、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とを別々のフローで実施してもよい。 For example, in the example shown in FIG. 4, the case where the acquisition of the three-dimensional shape of the object 100 in step S302 and the detection of the abnormality in the object 100 in step S303 are performed in a series of flows has been described. However, the control device 30 may perform the acquisition of the three-dimensional shape of the object 100 in step S302 and the detection of the abnormality in the object 100 in step S303 in separate flows.

以上説明したように、本実施形態では、制御装置30は、センシングモジュール11により物体100の外観のセンシングを行い、物体100の3次元形状を取得する。また、制御装置30は、センシングデータに基づいて異常を検出し、検出した異常の3次元位置を特定する。そして、制御装置30は、異常が発生した位置にエンドエフェクタ22を到達させて駆動させることにより、物体100の外観に生じた異常を修復するようにしている。これにより、制御装置30は、物体100における異常を自動的に検出し、検出した異常を自動的に補修することが可能となる。 As described above, in the present embodiment, the control device 30 senses the appearance of the object 100 by the sensing module 11 and acquires the three-dimensional shape of the object 100. Further, the control device 30 detects an abnormality based on the sensing data and identifies the three-dimensional position of the detected abnormality. Then, the control device 30 is designed to repair the abnormality that has occurred in the appearance of the object 100 by reaching the end effector 22 at the position where the abnormality has occurred and driving the end effector 22. As a result, the control device 30 can automatically detect the abnormality in the object 100 and automatically repair the detected abnormality.

したがって、本実施形態に係るシステム1によれば、外観検査において、作業員の負担を軽減させることができる。 Therefore, according to the system 1 according to the present embodiment, it is possible to reduce the burden on the worker in the visual inspection.

また、本実施形態では、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータに基づいて物体100の3次元形状を取得するようにしている。これにより、制御装置30は、物体100の3次元形状を正確に取得することが可能となる。 Further, in the present embodiment, the acquisition unit 31B acquires the three-dimensional shape of the object 100 based on the sensing data obtained by sensing the object 100 from a plurality of directions. As a result, the control device 30 can accurately acquire the three-dimensional shape of the object 100.

また、本実施形態では、検出部31Cは、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出するようにしている。これにより、作業員によらずに、精度の高い異常の検出を行うことが可能となる。 Further, in the present embodiment, the detection unit 31C inputs the sensing data for the object and detects the abnormality by using the trained model trained to output the presence or absence of the abnormality. This makes it possible to detect abnormalities with high accuracy regardless of the operator.

また、本実施形態では、第2制御部31Eは、異常の3次元位置を入力とし、3次元位置に対するエンドエフェクタ22の位置を出力するように学習された学習済みモデルを利用して、ロボットアーム21を移動させるようにしている。これにより、作業員によらずに、エンドエフェクタ22を異常の発生した位置に高精度に到達させることが可能となる。 Further, in the present embodiment, the second control unit 31E uses a trained model trained to input the abnormal three-dimensional position and output the position of the end effector 22 with respect to the three-dimensional position, and uses the robot arm. I am trying to move 21. This makes it possible to bring the end effector 22 to the position where the abnormality has occurred with high accuracy regardless of the operator.

また、本実施形態では、エンドエフェクタ22を稼働させた後に、適切な修復作業が行われたかどうかの確認作業を行うので、発生した異常を高精度に解消することが可能となる。 Further, in the present embodiment, after the end effector 22 is operated, it is confirmed whether or not appropriate repair work has been performed, so that it is possible to eliminate the generated abnormality with high accuracy.

<変形例1>
次に、システム1の変形例1について説明する。上記実施形態では、センシングモジュール11が2台配置される場合を説明した。変形例1では、センシングモジュール11が1台の場合について説明する。
<Modification 1>
Next, a modification 1 of the system 1 will be described. In the above embodiment, the case where two sensing modules 11 are arranged has been described. In the first modification, a case where one sensing module 11 is provided will be described.

図7は、変形例1に係るシステム1の構成を示す図である。なお図7では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。図7に示すシステム1は、センシングユニット10を1つ備えている。また、物体100は、例えば、回転自在なステージ60に載置されている。 FIG. 7 is a diagram showing the configuration of the system 1 according to the modified example 1. Note that FIG. 7 omits the illustration of the control device 30, the display device 40, and the network 50 in the system 1. The system 1 shown in FIG. 7 includes one sensing unit 10. Further, the object 100 is placed on, for example, a rotatable stage 60.

変形例1において第1制御部31Aは、センシングユニット10、及びステージ60を制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、センシングユニット10のアクチュエータを制御するか、ステージ60を回転させる。 In the first modification, the first control unit 31A controls the sensing unit 10 and the stage 60. Specifically, for example, the first control unit 31A controls the actuator of the sensing unit 10 or rotates the stage 60 so as to move the sensing module 11 relative to the object 100.

第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させる前と、後とで物体100の塗装面をセンシングモジュール11にセンシングさせる。このとき、第1制御部31Aは、物体100の3次元形状を取得するため、第1制御部31Aは、最初のセンシングと、2回目のセンシングとの間で、物体100に対して所定の角度だけ間隔が開くようにしている。これにより、物体100の塗装面に関する、異なる方向についてのセンシングデータが取得される。 The first control unit 31A causes the sensing module 11 to sense the painted surface of the object 100 before and after moving the sensing module 11 relative to the object 100. At this time, since the first control unit 31A acquires the three-dimensional shape of the object 100, the first control unit 31A has a predetermined angle with respect to the object 100 between the first sensing and the second sensing. I try to open the interval only. As a result, sensing data in different directions regarding the painted surface of the object 100 are acquired.

取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した際の物体100に対するセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。 The acquisition unit 31B obtains a three-dimensional shape of the object 100 based on the sensing data obtained by sensing the object 100 from a plurality of directions, the position of the sensing module 11 with respect to the object 100 when the sensing data is acquired, and the position of the object 100. calculate.

変形例1における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。ただし、ステップS301において、第1制御部31Aは、センシン
グユニット10のアクチュエータの制御に代えて、ステージ60を回転させてもよい。これにより、ステップS101において、2方向からのセンシングデータが取得されることになる。
The control device 30 in the first modification carries out the operations of steps S301 to S305 in the same manner as the operations shown in FIG. However, in step S301, the first control unit 31A may rotate the stage 60 instead of controlling the actuator of the sensing unit 10. As a result, in step S101, sensing data from two directions will be acquired.

以上のように、変形例1に係る制御装置30は、1台のセンシングモジュール11を用い、物体100に対してセンシングモジュール11を移動させることで、物体100の塗装面について異なる方向からセンシングデータを取得する。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、センシングモジュール11が1台である場合であっても、物体100の異常を正確に検出し、異常を解消することが可能となる。 As described above, the control device 30 according to the modification 1 uses one sensing module 11 and moves the sensing module 11 with respect to the object 100 to obtain sensing data from different directions on the painted surface of the object 100. get. Then, the control device 30 detects an abnormality on the painted surface of the object 100 based on the acquired sensing data, and eliminates the detected abnormality by using the industrial robot 20. As a result, even when there is only one sensing module 11, it is possible to accurately detect the abnormality of the object 100 and eliminate the abnormality.

<変形例2>
次に、システム1の変形例2について説明する。上記実施形態では、特別な照明を用いずに物体100を検査する場合を例に説明した。変形例2では、所定の波長の光を発する照明を利用する場合について説明する。
<Modification 2>
Next, a modification 2 of the system 1 will be described. In the above embodiment, the case of inspecting the object 100 without using special lighting has been described as an example. In the second modification, a case of using an illumination that emits light having a predetermined wavelength will be described.

図8は、変形例2に係るシステム1の構成を示す図である。なお図8では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。 FIG. 8 is a diagram showing the configuration of the system 1 according to the modified example 2. Note that FIG. 8 omits the illustration of the control device 30, the display device 40, and the network 50 in the system 1.

図8に示すシステム1は、光源である照明70を備えている。照明70は、所定の波長の光を発生させる。照明70から発せられる光は、例えば、全ての波長の光が含まれた白色光である。照明70は、物体100の表面で反射した反射光の乱反射が発生しにくい光量で光を発生させる。照明70で発せられた光は、物体100に照射される。 The system 1 shown in FIG. 8 includes an illumination 70 which is a light source. The illumination 70 generates light having a predetermined wavelength. The light emitted from the illumination 70 is, for example, white light including light of all wavelengths. The illumination 70 generates light with an amount of light that is unlikely to cause diffuse reflection of the reflected light reflected on the surface of the object 100. The light emitted by the illumination 70 irradiates the object 100.

変形例2において、センシングモジュール11は、照明70から発せられる波長の光をセンシングする。照明70から発せられる光が白色光である場合、センシングモジュール11は、例えば、可視光をセンシングする。 In the second modification, the sensing module 11 senses light having a wavelength emitted from the illumination 70. When the light emitted from the illumination 70 is white light, the sensing module 11 senses visible light, for example.

変形例2における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。 The control device 30 in the second modification carries out the operations of steps S301 to S305 in the same manner as the operations shown in FIG.

以上のように、変形例2に係るシステム1では、照明70が所定の波長の光を照射し、物体100での反射光をセンシングモジュール11がセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、軽微な塗装ムラのように、自然光におけるセンシングでは差異が確認しづらい異常も精度よく検出可能となる。 As described above, in the system 1 according to the modification 2, the illumination 70 irradiates light having a predetermined wavelength, and the sensing module 11 senses the reflected light from the object 100. Then, the control device 30 detects an abnormality on the painted surface of the object 100 based on the acquired sensing data, and eliminates the detected abnormality by using the industrial robot 20. This makes it possible to accurately detect abnormalities such as slight coating unevenness, for which differences are difficult to confirm by sensing in natural light.

なお、変形例2では、光を照射する際に、照明70を、物体100に対して相対的に移動させてもよい。このとき、センシングモジュール11を、物体100に対して相対的に移動させてもよいし、移動させなくてもよい。照明70を物体100に対して相対的に移動させることにより、光の反射が変化するため、異常を検出する精度がさらに向上する。 In the second modification, the illumination 70 may be moved relative to the object 100 when irradiating the light. At this time, the sensing module 11 may or may not be moved relative to the object 100. By moving the illumination 70 relative to the object 100, the reflection of light changes, so that the accuracy of detecting an abnormality is further improved.

また、変形例2では、照明70は、光を物体100へ照射する際、照射する光の波長を切り替えてもよい。このとき、センシングユニット10は、光の波長と対応する複数のセンシングモジュール11を備えていてもよい。 Further, in the second modification, the illumination 70 may switch the wavelength of the irradiated light when irradiating the object 100 with the light. At this time, the sensing unit 10 may include a plurality of sensing modules 11 corresponding to the wavelength of light.

これにより、発せられる光の波長に合わせてセンシングモジュール11も切り替えることが可能となるため、多様なセンシングを行うことが可能となる。 As a result, the sensing module 11 can also be switched according to the wavelength of the emitted light, so that various sensing can be performed.

<変形例3>
次に、システム1の変形例3について説明する。変形例3では、特定された異常部の3次元位置が、ユーザにより所有される端末で共有される場合について説明する。
<Modification 3>
Next, a modification 3 of the system 1 will be described. In the third modification, the case where the three-dimensional position of the identified abnormal portion is shared by the terminal owned by the user will be described.

図9は、変形例3に係るシステム1の構成を示す図である。図9に示すシステム1は、端末装置80を有している。端末装置80は、例えば、ヘッドマウントディスプレイ、スマートフォン、又はタブレット端末等の携行性を備えたコンピュータにより実現される。端末装置80は、現実の画像、又は風景に、所望の映像を重畳することで、知覚可能な現実環境を拡張する機能を有する。ヘッドマウントディスプレイとしての端末装置80は、一般にAR(Augmented Reality)グラスと称される。端末装置80は、通信機能と、通信機能により取得した情報を現実の画像、又は風景に重畳表示する表示機能を備えている。 FIG. 9 is a diagram showing the configuration of the system 1 according to the modified example 3. The system 1 shown in FIG. 9 has a terminal device 80. The terminal device 80 is realized by a portable computer such as a head-mounted display, a smartphone, or a tablet terminal. The terminal device 80 has a function of expanding a perceptible real environment by superimposing a desired image on a real image or a landscape. The terminal device 80 as a head-mounted display is generally referred to as an AR (Augmented Reality) glass. The terminal device 80 has a communication function and a display function of superimposing and displaying the information acquired by the communication function on an actual image or a landscape.

制御装置30は、記憶装置32に記憶される、物体100の異常部の3次元位置に関する情報を、ネットワーク50を介して端末装置80に送信する。すなわち、制御装置30は、図4に示すステップS301~S304の処理により特定した異常の3次元位置に関する情報を、端末装置80へ送信する。 The control device 30 transmits information about the three-dimensional position of the abnormal portion of the object 100 stored in the storage device 32 to the terminal device 80 via the network 50. That is, the control device 30 transmits information regarding the three-dimensional position of the abnormality identified by the processing of steps S301 to S304 shown in FIG. 4 to the terminal device 80.

端末装置80は、取得した3次元位置に関する情報に基づき、端末装置80を介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、ディスプレイにおける異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。なお、異常部が直視できない状況、つまり、異常部が所定の構造体の陰に隠れている場合であっても、方向が捉えられていれば、異常発生を表す情報が重畳される。異常が発生していることを表す情報とは、異常部の位置を表す情報、検出された日時を表す情報、異常の程度を表す情報、異常が発生したラインを表す情報、異常が発生した物体を表す情報等を含む。 The terminal device 80 determines whether or not an abnormal portion is included in the viewing direction via the terminal device 80 based on the acquired information on the three-dimensional position. When the abnormal portion is caught in the viewing direction, the terminal device 80 superimposes and displays information indicating that an abnormality has occurred at a position corresponding to the abnormal portion on the display. Even in a situation where the abnormal part cannot be seen directly, that is, even when the abnormal part is hidden behind a predetermined structure, if the direction is grasped, information indicating the occurrence of the abnormality is superimposed. The information indicating that an abnormality has occurred includes information indicating the position of the abnormal part, information indicating the date and time when the abnormality was detected, information indicating the degree of the abnormality, information indicating the line where the abnormality occurred, and an object in which the abnormality occurred. Includes information that represents.

具体的には、例えば、端末装置80がARグラスである場合、端末装置80は、レンズを介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、レンズ上において異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。これにより、端末装置80のユーザは、端末装置80を介して物体100を視認した際に、物体100の異常が生じている部分に、その旨の表示が示された映像が拡張現実として視認できるようになる。 Specifically, for example, when the terminal device 80 is an AR glass, the terminal device 80 determines whether or not an abnormal portion is included in the viewing direction via the lens. When the abnormal portion is captured in the viewing direction, the terminal device 80 superimposes and displays information indicating that an abnormality has occurred at a position corresponding to the abnormal portion on the lens. As a result, when the user of the terminal device 80 visually recognizes the object 100 through the terminal device 80, an image showing the indication to that effect can be visually recognized as augmented reality in the portion where the abnormality of the object 100 occurs. It will be like.

以上のように、変形例3に係る制御装置30は、特定した異常部の3次元位置に関する情報を、端末装置80に拡張現実として表示させるようにしている。これにより、物体100における異常部の位置を即座に把握することが可能になり、異常の程度の確認、修復作業の検討、又は工数の見積等を効率的に行うことが可能となる。 As described above, the control device 30 according to the modification 3 causes the terminal device 80 to display the information regarding the three-dimensional position of the identified abnormal portion as augmented reality. As a result, the position of the abnormal portion in the object 100 can be immediately grasped, and it becomes possible to efficiently confirm the degree of abnormality, examine the repair work, estimate the man-hours, and the like.

<変形例4>
次に、システム1の変形例4について説明する。変形例4では、センシングユニット10のアクチュエータがロボットアーム12である場合について説明する。
<Modification example 4>
Next, a modification 4 of the system 1 will be described. In the fourth modification, the case where the actuator of the sensing unit 10 is the robot arm 12 will be described.

図10は、変形例4に係るシステム1の構成を示す図である。図10に示すシステム1は、ロボットアーム12の先端にセンシングモジュール11が配置されたセンシングユニット10aを2台有している。なお、システム1が有するセンシングユニット10aは1台でもよいし、3台以上であってもよい。 FIG. 10 is a diagram showing the configuration of the system 1 according to the modified example 4. The system 1 shown in FIG. 10 has two sensing units 10a in which the sensing module 11 is arranged at the tip of the robot arm 12. The number of sensing units 10a included in the system 1 may be one or three or more.

変形例4において第1制御部31Aは、センシングユニット10aを制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、ロボットアーム12のサーボモーターを制御する。より具体的には、第1制御部31Aは、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12を制御する。 In the modified example 4, the first control unit 31A controls the sensing unit 10a. Specifically, for example, the first control unit 31A controls the servomotor of the robot arm 12 so as to move the sensing module 11 relative to the object 100. More specifically, the first control unit 31A controls the robot arm 12 so that the sensing module 11 captures the motion of the object 100 as a regular motion, for example, a constant velocity linear motion, a constant acceleration motion, or the like. do.

なお、物体100が配置されるステージ61は、停止と移動とを繰り返しながら、物体100を所定の方向へ搬送するようにしてもよい。第1制御部31Aは、ステージ61が停止と移動とを繰り返す場合であっても、センシングモジュール11が、物体100の運動を規則的な運動として捉えられるように、ロボットアーム12を制御してセンシングモジュール11を移動させる。 The stage 61 on which the object 100 is arranged may transport the object 100 in a predetermined direction while repeating stopping and moving. The first control unit 31A controls and senses the robot arm 12 so that the sensing module 11 can capture the motion of the object 100 as a regular motion even when the stage 61 repeats stopping and moving. Move the module 11.

変形例4における制御装置30は、図4に示す動作と同様にステップS301~S304の動作を実施する。 The control device 30 in the modified example 4 carries out the operations of steps S301 to S304 in the same manner as the operations shown in FIG.

以上のように、変形例4に係る制御装置30は、ロボットアーム12に取り付けられたセンシングモジュール11により物体100の塗装面をセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出するようにしている。ロボットアーム12にセンシングモジュール11を取り付けることで、センシングモジュール11の位置を精緻に制御することが可能となる。これにより、物体100の異常を検出する精度が向上することになる。 As described above, the control device 30 according to the modified example 4 senses the painted surface of the object 100 by the sensing module 11 attached to the robot arm 12. Then, the control device 30 detects an abnormality on the painted surface of the object 100 based on the acquired sensing data. By attaching the sensing module 11 to the robot arm 12, the position of the sensing module 11 can be precisely controlled. As a result, the accuracy of detecting the abnormality of the object 100 is improved.

また、変形例4では、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12の動きを制御するようにしている。これにより、物体100の異常も規則的に運動するようになるため、誤検出を抑えられ、異常の検出精度が向上することになる。 Further, in the modification 4, the sensing module 11 controls the movement of the robot arm 12 so that the movement of the object 100 can be regarded as a regular movement, for example, a constant velocity linear motion, a constant acceleration motion, or the like. There is. As a result, the abnormality of the object 100 also moves regularly, so that erroneous detection can be suppressed and the abnormality detection accuracy can be improved.

<その他の変形例>
次に、その他の変形例について説明する。
<Other variants>
Next, other modification examples will be described.

上記実施形態では、制御装置30に検出部31Cが含まれ、検出部31Cにより、センシングデータに基づいて物体100の異常が検出される場合を例に説明した。しかしながら、物体100の異常は、センシングユニット10で検出されてもよい。センシングユニット10は、物体100の塗装面の異常を検出するための学習済みモデルを記憶している。学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。 In the above embodiment, the case where the control device 30 includes the detection unit 31C and the detection unit 31C detects an abnormality of the object 100 based on the sensing data has been described as an example. However, the abnormality of the object 100 may be detected by the sensing unit 10. The sensing unit 10 stores a trained model for detecting an abnormality on the painted surface of the object 100. The trained model is trained to output an abnormality on the painted surface with respect to the input sensing data. At this time, for the learning data, for example, a plurality of sensing data about the object are used as input data, and a judgment about an abnormality that can be included in the input data is used as correct output data.

センシングユニット10は、センシングモジュール11によりセンシングデータが取得されると、取得されたセンシングデータを学習済みモデルに入力し、センシングデータに含まれている異常の判断を出力させる。センシングユニット10は、センシングデータと、異常の判断とを制御装置30へ送信する。 When the sensing data is acquired by the sensing module 11, the sensing unit 10 inputs the acquired sensing data to the trained model and outputs a determination of an abnormality included in the sensing data. The sensing unit 10 transmits the sensing data and the determination of abnormality to the control device 30.

上記実施形態では、センシングモジュール11に、例えば、予め設定された帯域の電磁波を用いて実現されるデバイスが採用される場合を例に説明したが、センシングモジュール11に、それぞれ異なる帯域の電磁波を用いて実現されるデバイスが複数種類採用されてもよい。このとき、制御装置30の検出部31Cは、例えば、センシングモジュール11のそれぞれの帯域の電磁波を利用したセンシングデータに基づいて、物体100の異常を検出する。これにより、異常の検出精度を高めることが可能となる。 In the above embodiment, for example, a case where a device realized by using electromagnetic waves of a preset band is adopted for the sensing module 11 has been described, but electromagnetic waves of different bands are used for the sensing module 11. A plurality of types of devices realized by the above may be adopted. At this time, the detection unit 31C of the control device 30 detects the abnormality of the object 100 based on the sensing data using the electromagnetic waves of the respective bands of the sensing module 11, for example. This makes it possible to improve the accuracy of detecting abnormalities.

以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。
また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
Although the preferred embodiments of the present disclosure have been described above, the present disclosure is not limited to such specific embodiments, and the present disclosure includes the inventions described in the claims and the equivalent scope thereof. Is done.
Further, the configurations of the devices described in the above-described embodiments and modifications can be appropriately combined as long as there is no technical contradiction.

<付記>
以上の各実施形態で説明した事項を、以下に付記する。
<Additional Notes>
The matters described in each of the above embodiments will be added below.

(付記1)
プロセッサ31と、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアーム21を、特定した3次元位置にデバイス22が到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、を実行させる、プログラム。
(Appendix 1)
A program for causing a computer having a processor 31 and a memory to execute the program.
The step (S302) of acquiring the three-dimensional shape of an object based on the sensing data obtained by sensing the object using electromagnetic waves, and
Step (S303) to detect anomalies in an object based on sensing data,
Step (S304) to identify the three-dimensional position of the detected anomaly,
A step (S305) of moving the robot arm 21 equipped with a device capable of resolving an abnormality so that the device 22 reaches a specified three-dimensional position.
A program that executes the step (S202) of operating the device when the device reaches a three-dimensional position.

(付記2)
物体の3次元形状を取得するステップ(S302)では、物体を複数の方向からセンシングしたセンシングデータに基づいて3次元形状を取得する、(付記1)に記載の外観検査プラグラム。
(Appendix 2)
The visual inspection program according to (Appendix 1), wherein in the step (S302) of acquiring a three-dimensional shape of an object, the three-dimensional shape is acquired based on sensing data obtained by sensing the object from a plurality of directions.

(付記3)
物体を複数の方向からセンシングしたセンシングデータを取得するように、センシング手段11を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(Appendix 3)
The program according to (Appendix 2), wherein the sensing means 11 is moved so as to acquire the sensing data obtained by sensing the object from a plurality of directions, and the processor is made to execute the step (S301) of causing the sensing means to sense the object.

(付記4)
物体を複数の方向からセンシングしたセンシングデータを取得するように、物体を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)又は(付記3)に記載のプログラム。
(Appendix 4)
Described in (Appendix 2) or (Appendix 3), wherein the processor executes the step (S301) of moving the object and causing the sensing means to sense the object so as to acquire sensing data obtained by sensing the object from a plurality of directions. Program.

(付記5)
物体を複数の方向からセンシングしたセンシングデータを取得するように、複数のセンシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(Appendix 5)
The program according to (Appendix 2), which causes a processor to execute a step (S301) of causing a plurality of sensing means to sense an object so as to acquire sensing data obtained by sensing the object from a plurality of directions.

(付記6)
複数の帯域の電磁波を利用するセンシング手段に、物体をセンシングさせるステップ(S101)を、プロセッサに実行させる、(付記1)から(付記5)のいずれかに記載のプログラム。
(Appendix 6)
The program according to any one of (Appendix 1) to (Appendix 5), which causes a processor to execute a step (S101) of sensing an object by a sensing means using electromagnetic waves in a plurality of bands.

(付記7)
異常を検出するステップ(S303)では、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出する(付記1)から(付記6)のいずれかに記載のプログラム。
(Appendix 7)
In the step of detecting anomalies (S303), anomalies are detected from (Appendix 1) to (Appendix 6) by using a trained model trained to input sensing data for an object and output the presence or absence of anomalies. The program described in any of.

(付記8)
ロボットアームを移動させるステップ(S305)では、異常の3次元位置を入力とし、3次元位置に対するデバイスの位置を出力するように学習された学習済みモデルを利用して、ロボットアームを移動させる(付記1)から(付記7)のいずれかに記載のプログラム。
(Appendix 8)
In the step of moving the robot arm (S305), the robot arm is moved by using a trained model trained to input the abnormal 3D position and output the position of the device with respect to the 3D position (Appendix). The program described in any of 1) to (Appendix 7).

(付記9)
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段11を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、プログラム。
(Appendix 9)
A program to be executed by a computer equipped with a processor and a memory, and the program is a program to be executed by the processor.
A step of moving the sensing means 11 with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
The step (S303) of detecting an abnormality of an object based on the sensing data obtained by sensing, and
Step (S304) to identify the three-dimensional position of the detected anomaly,
A program that runs.

(付記10)
物体に対して光を照射するステップと、
光を検出するセンシング手段に、物体をセンシングさせるステップと
をプロセッサに実行させる、(付記1)から(付記9)のいずれかに記載のプログラム。
(Appendix 10)
The step of irradiating an object with light,
The program according to any one of (Appendix 1) to (Appendix 9), which causes a processor to execute a step of sensing an object by a sensing means for detecting light.

(付記11)
光を照射するステップでは、光の光源70を、物体に対して相対的に移動させる、(付記10)に記載のプログラム。
(Appendix 11)
The program according to (Appendix 10), wherein in the step of irradiating light, the light source 70 of light is moved relative to an object.

(付記12)
光を照射するステップでは、複数種類の波長の光を切り替えて照射する、(付記10)又は(付記11)に記載のプログラム。
(Appendix 12)
The program according to (Appendix 10) or (Appendix 11), wherein in the step of irradiating light, light of a plurality of wavelengths is switched and irradiated.

(付記13)
特定した3次元位置を、端末装置80へ送信するステップを、プロセッサに実行させる、(付記1)から(付記12)のいずれかに記載のプログラム。
(Appendix 13)
The program according to any one of (Appendix 1) to (Appendix 12), which causes a processor to execute a step of transmitting the specified three-dimensional position to the terminal device 80.

(付記14)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、
を実行する、方法。
(Appendix 14)
A method performed by a computer equipped with a processor and memory, wherein the processor
The step (S302) of acquiring the three-dimensional shape of an object based on the sensing data obtained by sensing the object using electromagnetic waves, and
The step (S303) of detecting an abnormality of an object based on the sensing data,
Step (S304) to identify the three-dimensional position of the detected anomaly,
A step (S305) of moving a robot arm equipped with a device capable of resolving an abnormality so that the device reaches a specified three-dimensional position.
When the device reaches the three-dimensional position, the step (S202) of operating the device and
How to do it.

(付記15)
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得する手段と、
センシングデータに基づき、物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させ、デバイスを3次元位置に到達させると、デバイスを稼働させる手段と、
を具備するシステム。
(Appendix 15)
A means for acquiring a three-dimensional shape of an object based on sensing data obtained by sensing the object using electromagnetic waves, and
A means of detecting anomalies in an object based on sensing data,
A means to identify the three-dimensional position of the detected anomaly,
A robot arm equipped with a device capable of resolving an abnormality is moved so that the device reaches a specified three-dimensional position, and when the device reaches the three-dimensional position, a means for operating the device is used.
A system equipped with.

(付記16)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、方法。
(Appendix 16)
A method performed by a computer equipped with a processor and memory, wherein the processor
A step of moving a sensing means to an object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
The step (S303) of detecting an abnormality of an object based on the sensing data obtained by sensing, and
Step (S304) to identify the three-dimensional position of the detected anomaly,
How to get it done.

(付記17)
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせる手段と、
センシングにより得られるセンシングデータに基づいて物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
を具備するシステム。
(Appendix 17)
A means of moving a sensing means with respect to an object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A means to detect anomalies in an object based on the sensing data obtained by sensing,
A means to identify the three-dimensional position of the detected anomaly,
A system equipped with.

1…システム
10,10a…センシングユニット
100…物体
11…センシングモジュール
12…ロボットアーム
20…産業用ロボット
21…ロボットアーム
22…エンドエフェクタ
30…制御装置
31…プロセッサ
31A…第1制御部
31B…取得部
31C…検出部
31D…位置特定部
31E…第2制御部
32…記憶装置
33…通信インタフェース
34…入出力インタフェース
40…表示装置
50…ネットワーク
60…ステージ
61…ステージ
70…照明
80…端末装置

1 ... System 10, 10a ... Sensing unit 100 ... Object 11 ... Sensing module 12 ... Robot arm 20 ... Industrial robot 21 ... Robot arm 22 ... End effector 30 ... Control device 31 ... Processor 31A ... First control unit 31B ... Acquisition unit 31C ... Detection unit 31D ... Position identification unit 31E ... Second control unit 32 ... Storage device 33 ... Communication interface 34 ... Input / output interface 40 ... Display device 50 ... Network 60 ... Stage 61 ... Stage 70 ... Lighting 80 ... Terminal device

Claims (17)

プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
前記センシングデータに基づき、前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、を実行させる、プログラム。
A program for causing a computer having a processor and a memory to execute the program, wherein the program causes the processor to execute the program.
A step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves, and
A step of detecting an abnormality of the object based on the sensing data,
The step of identifying the three-dimensional position of the detected abnormality and
A step of moving a robot arm equipped with a device capable of resolving the abnormality so that the device reaches the specified three-dimensional position.
A program that executes a step of operating the device when the device reaches the three-dimensional position.
前記物体の3次元形状を取得するステップでは、前記物体を複数の方向からセンシングしたセンシングデータに基づいて前記3次元形状を取得する、請求項1に記載のプラグラム。 The program according to claim 1, wherein in the step of acquiring the three-dimensional shape of the object, the three-dimensional shape is acquired based on the sensing data obtained by sensing the object from a plurality of directions. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、センシング手段を移動させ、前記センシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2に記載のプログラム。 The program according to claim 2, wherein the sensing means is moved so as to acquire sensing data obtained by sensing the object from a plurality of directions, and the processor is made to perform a step of causing the sensing means to sense the object. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、前記物体を移動させ、センシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2又は3に記載のプログラム。 The program according to claim 2 or 3, wherein the processor executes a step of moving the object and causing the sensing means to sense the object so as to acquire sensing data obtained by sensing the object from a plurality of directions. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、複数のセンシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2に記載のプログラム。 The program according to claim 2, wherein the processor executes a step of causing a plurality of sensing means to sense the object so as to acquire sensing data obtained by sensing the object from a plurality of directions. 複数の帯域の電磁波を利用するセンシング手段に、前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項1から5のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 5, wherein the processor executes a step of causing a sensing means using electromagnetic waves of a plurality of bands to sense the object. 前記異常を検出するステップでは、前記物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、前記異常を検出する請求項1から6のいずれか1項に記載のプログラム。 In the step of detecting the abnormality, any one of claims 1 to 6 for detecting the abnormality by using a trained model trained to input the sensing data for the object and output the presence or absence of the abnormality. The program described in the section. 前記ロボットアームを移動させるステップでは、前記異常の3次元位置を入力とし、前記3次元位置に対する前記デバイスの位置を出力するように学習された学習済みモデルを利用して、前記ロボットアームを移動させる請求項1から7のいずれか1項に記載のプログラム。 In the step of moving the robot arm, the robot arm is moved by using a trained model trained to input the abnormal three-dimensional position and output the position of the device with respect to the three-dimensional position. The program according to any one of claims 1 to 7. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
を実行させる、プログラム。
A program for causing a computer having a processor and a memory to execute the program, wherein the program causes the processor to execute the program.
A step of moving the sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A step of detecting an abnormality of the object based on the sensing data obtained by the sensing, and
The step of identifying the three-dimensional position of the detected abnormality and
A program that runs.
前記物体に対して光を照射するステップと、
前記光を検出するセンシング手段に、前記物体をセンシングさせるステップと
を前記プロセッサに実行させる、請求項1から9のいずれか1項に記載のプログラム。
The step of irradiating the object with light and
The program according to any one of claims 1 to 9, wherein the processor performs a step of causing the sensing means for detecting light to sense the object.
前記光を照射するステップでは、前記光の光源を、前記物体に対して相対的に移動させる、請求項10に記載のプログラム。 The program of claim 10, wherein in the step of irradiating the light, the light source of the light is moved relative to the object. 前記光を照射するステップでは、複数種類の波長の光を切り替えて照射する、請求項10又は11に記載のプログラム。 The program according to claim 10 or 11, wherein in the step of irradiating the light, light of a plurality of wavelengths is switched and irradiated. 前記特定した3次元位置を、端末装置へ送信するステップを、前記プロセッサに実行させる、請求項1から12のいずれか1項に記載のプログラム。 The program according to any one of claims 1 to 12, wherein the processor executes a step of transmitting the specified three-dimensional position to the terminal device. プロセッサと、メモリとを備えるコンピュータが実行する方法であって、前記プロセッサが、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
前記センシングデータに基づき、前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、
を実行する、方法。
A method performed by a computer comprising a processor and memory, wherein the processor is:
A step of acquiring the three-dimensional shape of the object based on the sensing data obtained by sensing the object using electromagnetic waves, and
A step of detecting an abnormality of the object based on the sensing data,
The step of identifying the three-dimensional position of the detected abnormality and
A step of moving a robot arm equipped with a device capable of resolving the abnormality so that the device reaches the specified three-dimensional position.
When the device reaches the three-dimensional position, the step of operating the device and
How to do it.
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得する手段と、
前記センシングデータに基づき、前記物体の異常を検出する手段と、
前記検出した異常の3次元位置を特定する手段と、
前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させ、前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させる手段と、
を具備するシステム。
A means for acquiring a three-dimensional shape of an object based on sensing data obtained by sensing the object using electromagnetic waves, and
A means for detecting an abnormality in the object based on the sensing data,
A means for identifying the three-dimensional position of the detected abnormality and
A robot arm equipped with a device capable of resolving the abnormality is moved so that the device reaches the specified three-dimensional position, and when the device reaches the three-dimensional position, the device is operated. Means and
A system equipped with.
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、前記プロセッサが、
物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
前記検出した異常の3次元位置を特定するステップと、
を実行させる、方法。
A method performed by a computer comprising a processor and memory, wherein the processor is:
A step of moving the sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A step of detecting an abnormality of the object based on the sensing data obtained by the sensing, and
The step of identifying the three-dimensional position of the detected abnormality and
How to get it done.
物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせる手段と、
前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出する手段と、
前記検出した異常の3次元位置を特定する手段と、
を具備するシステム。

A means for moving a sensing means with respect to the object and causing the sensing means to sense the object using electromagnetic waves so that the motion of the object is regarded as a regular motion.
A means for detecting an abnormality of the object based on the sensing data obtained by the sensing, and
A means for identifying the three-dimensional position of the detected abnormality and
A system equipped with.

JP2021007023A 2020-08-25 2021-01-20 Program, method and system Pending JP2022037856A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007023A JP2022037856A (en) 2020-08-25 2021-01-20 Program, method and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020141403A JP2022037326A (en) 2020-08-25 2020-08-25 Program, method and system
JP2021007023A JP2022037856A (en) 2020-08-25 2021-01-20 Program, method and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020141403A Division JP2022037326A (en) 2020-08-25 2020-08-25 Program, method and system

Publications (1)

Publication Number Publication Date
JP2022037856A true JP2022037856A (en) 2022-03-09

Family

ID=80354772

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020141403A Pending JP2022037326A (en) 2020-08-25 2020-08-25 Program, method and system
JP2021007023A Pending JP2022037856A (en) 2020-08-25 2021-01-20 Program, method and system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020141403A Pending JP2022037326A (en) 2020-08-25 2020-08-25 Program, method and system

Country Status (2)

Country Link
JP (2) JP2022037326A (en)
WO (1) WO2022043979A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024024234A (en) * 2022-08-09 2024-02-22 株式会社日立製作所 Measurement system and method and parts remanufacturing system and method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11351841A (en) * 1998-06-09 1999-12-24 Mitsutoyo Corp Noncontact type three-dimensional measuring method
JP2000009659A (en) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd Surface inspection method and device
JP2002508071A (en) * 1997-07-18 2002-03-12 アウディ アーゲー Method for automatically recognizing body shell surface defects and apparatus for implementing the method
JP2008046103A (en) * 2006-07-19 2008-02-28 Shimatec:Kk Surface inspection apparatus
JP2011163823A (en) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd Object-shape evaluating device
JP2013234951A (en) * 2012-05-10 2013-11-21 Mitsutoyo Corp Three-dimensional measuring apparatus
JP2015102466A (en) * 2013-11-26 2015-06-04 セントラル硝子株式会社 Curved plate shape inspection device
JP2017009383A (en) * 2015-06-19 2017-01-12 アスモ株式会社 Device and method for imaging exterior appearance
JP2017116404A (en) * 2015-12-24 2017-06-29 ダイハツ工業株式会社 Shape recognition device and shape recognition method
JP2018163125A (en) * 2017-03-27 2018-10-18 株式会社ミツトヨ Measurement head

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666732A (en) * 1992-08-19 1994-03-11 Mitsubishi Motors Corp Inspecting and finishing method for painting
JPH06241737A (en) * 1992-12-25 1994-09-02 Toyota Central Res & Dev Lab Inc Cross sectional area and volume measuring device
JPH0829143A (en) * 1994-07-13 1996-02-02 Mazda Motor Corp Method and apparatus for inspecting surface state
JP6737503B2 (en) * 2016-09-13 2020-08-12 株式会社Vrc 3D scanner
JP6845072B2 (en) * 2017-04-21 2021-03-17 ファナック株式会社 Factory equipment maintenance support equipment and maintenance support system
JP7228951B2 (en) * 2017-12-05 2023-02-27 あいおいニッセイ同和損害保険株式会社 Loss price evaluation system
IT201800006253A1 (en) * 2018-06-12 2019-12-12 Method and system for the localization of points on a complex surface in space

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002508071A (en) * 1997-07-18 2002-03-12 アウディ アーゲー Method for automatically recognizing body shell surface defects and apparatus for implementing the method
JPH11351841A (en) * 1998-06-09 1999-12-24 Mitsutoyo Corp Noncontact type three-dimensional measuring method
JP2000009659A (en) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd Surface inspection method and device
JP2008046103A (en) * 2006-07-19 2008-02-28 Shimatec:Kk Surface inspection apparatus
JP2011163823A (en) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd Object-shape evaluating device
JP2013234951A (en) * 2012-05-10 2013-11-21 Mitsutoyo Corp Three-dimensional measuring apparatus
JP2015102466A (en) * 2013-11-26 2015-06-04 セントラル硝子株式会社 Curved plate shape inspection device
JP2017009383A (en) * 2015-06-19 2017-01-12 アスモ株式会社 Device and method for imaging exterior appearance
JP2017116404A (en) * 2015-12-24 2017-06-29 ダイハツ工業株式会社 Shape recognition device and shape recognition method
JP2018163125A (en) * 2017-03-27 2018-10-18 株式会社ミツトヨ Measurement head

Also Published As

Publication number Publication date
JP2022037326A (en) 2022-03-09
WO2022043979A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
US11331803B2 (en) Mixed reality assisted spatial programming of robotic systems
US11185985B2 (en) Inspecting components using mobile robotic inspection systems
EP1769891B1 (en) Offline teaching apparatus for robot
US20180004188A1 (en) Robot, robot control apparatus and robot system
US20080013825A1 (en) Simulation device of robot system
US20160354927A1 (en) Controlling a robot in the presence of a moving object
CN103770112A (en) Robot system and processed product producing method
JP6856590B2 (en) Sensing systems, work systems, augmented reality image display methods, and programs
JP2008254150A (en) Teaching method and teaching device of robot
JP7396872B2 (en) Simulation device and robot system using augmented reality
EP3257026B1 (en) Generating three dimensional models
JP2015506480A (en) Automatic system and method for tracking and detecting defects on a target
CN107422686B (en) Apparatus for enabling remote control of one or more devices
JP6677706B2 (en) Link information generation device, link information generation method, and link information generation program
JP2010276447A (en) Position measuring apparatus, position measuring method and robot system
WO2022043979A1 (en) Program, method and system
CN112894798A (en) Method for controlling a robot in the presence of a human operator
KR101535801B1 (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
US20200026478A1 (en) Control Apparatus, Head Mounted Display And Robot System
JP7173048B2 (en) Abnormal noise inspection device, abnormal noise inspection method, program and work manufacturing method
JP2010149225A (en) Robot system, device and method for controlling robot system
CN114746207B (en) Repair welding equipment and repair welding method
JP2015058488A (en) Robot control system, robot, robot control method, and program
US20230409149A1 (en) Virtual buttons for augmented reality light guided assembly system and calibration method
US20240070910A1 (en) Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111