JP2023530209A - Method for automatically manipulating an object using a tool held by an articulated system - Google Patents

Method for automatically manipulating an object using a tool held by an articulated system Download PDF

Info

Publication number
JP2023530209A
JP2023530209A JP2022555706A JP2022555706A JP2023530209A JP 2023530209 A JP2023530209 A JP 2023530209A JP 2022555706 A JP2022555706 A JP 2022555706A JP 2022555706 A JP2022555706 A JP 2022555706A JP 2023530209 A JP2023530209 A JP 2023530209A
Authority
JP
Japan
Prior art keywords
tool
articulated system
image
sensor
articulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022555706A
Other languages
Japanese (ja)
Inventor
ジャン-ルイ・ドパリ
エルヴェ・アンリ
ジャン-フランソワ・トロ
Original Assignee
オラノ・デエス-デマンテレメ・エ・セルヴィス
シレアーヌ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72266362&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2023530209(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by オラノ・デエス-デマンテレメ・エ・セルヴィス, シレアーヌ filed Critical オラノ・デエス-デマンテレメ・エ・セルヴィス
Publication of JP2023530209A publication Critical patent/JP2023530209A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40442Voxel map, 3-D grid map
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40475In presence of moving obstacles, dynamic environment
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Abstract

本発明は、対象物(2)および作業環境(3)が可変的であるか、または操作を行うには不十分にしか定義されていない状況下で、作業環境(3)内で動作可能な多関節システム(5)によって保持されたツール(4)を用いて対象物(2)に対する操作を自動的に行うための方法および装置に関する。本発明によれば、その方法は、- 少なくとも1つの3Dセンサ(6)を用いて対象物(2)および作業環境(3)の画像を散布図の形でキャプチャし、その画像を多関節システムのCADモデルおよび環境の可能なCADモデルとマージしてワーク画像とし、衝突防止パラメータを定義するステップAと、- 対象物(2)を表すワーク画像の部位にツール(4)の経路を定義し、作業画像で多関節システム(5)およびツールの対応する動作のシミュレーションを行って操作が実行可能であることを担保するステップBと、- ステップBで操作が実行可能であるとされたならば、対象物(2)に対する操作を行うために定義された経路(10)に従ってツール(4)を保持する多関節システム(5)の動作を実際に行うステップCとを少なくとも含む。The present invention is capable of operating within a work environment (3) in situations where the object (2) and the work environment (3) are variable or poorly defined for operation. The present invention relates to a method and apparatus for automatically performing operations on an object (2) using a tool (4) held by an articulated system (5). According to the invention, the method comprises: - capturing an image of the object (2) and the working environment (3) in the form of a scatter plot using at least one 3D sensor (6); step A of merging with a CAD model of the object (2) and a possible CAD model of the environment into a workpiece image and defining anti-collision parameters; - defining a path for the tool (4) to a part of the workpiece image representing the object (2); , a step B of simulating the corresponding motions of the articulated system (5) and the tool in the working image to ensure that the operation is executable; - if the operation is determined to be executable in step B; , and a step C of actually carrying out the movement of the articulated system (5) holding the tool (4) according to the defined path (10) for performing the operation on the object (2).

Description

本発明は、対象物およびその作業環境の位置および幾何学形状が変化する可能性があり、かつ/または対象物に対する操作を行うにはそれらの定義が不十分な状況下で、作業環境内にある対象物に対して切削、溶接、マーキング、はがし、塗装、表面処理、センサその他あらゆるタイプの分析ツール等の位置決めなどの操作を行う技術分野に関する。 The present invention is useful in situations where the position and geometry of the object and its work environment may change and/or are poorly defined for performing operations on the object, and in the work environment. It relates to the technical field of operations such as cutting, welding, marking, stripping, painting, surface treatment, positioning of sensors and all types of analytical tools, etc., on an object.

たとえば、本発明は、放射能関連のリスクを有する可能性のある対象物の計測、切削、把持の操作が行われる解体技術部門に適用されるが、それに限定されるものではない。 For example, but not exclusively, the invention applies to demolition engineering departments where operations of measuring, cutting and gripping objects that may have radioactivity-related risks are performed.

本発明は、より詳細には、対象物および作業環境の位置および幾何学形状が変化しつつあり、かつ/または自動モードでその操作を行うにはそれらの定義が不十分な状況下で、多関節システムによって保持されて作業環境内で可動なツールを用いて対象物に対する操作を自動で行うための方法および設備に関する。操作は、いかなるタイプの環境のもとで、いかなるタイプのツールを用いて、いかなるタイプの対象物に対して行われるあらゆる種類のものであってもよい。 More particularly, the present invention is useful for many applications in situations where the position and geometry of objects and work environments are changing and/or are poorly defined for their operation in an automatic mode. The present invention relates to methods and apparatus for automatically performing manipulations on objects using tools held by articulated systems and movable within a work environment. Manipulation can be of any kind performed on any type of object using any type of tool under any type of environment.

本発明は、たとえば、作業者がアクセスできないか、またはその中では身体を自由に動かすことのできない、危険で閉鎖された環境の中で対象物に対して何らかの操作を行う場合などに有利に適用することができる。 The invention is advantageously applied, for example, when performing any manipulation on an object in a hazardous and enclosed environment in which the operator cannot access or freely move his or her body. can do.

本発明の分野、たとえば放射性の対象物の解体分野では、解体操作は閉鎖された環境の中で作業者により手動で行われることができる。 In the field of the invention, for example the dismantling of radioactive objects, the dismantling operation can be carried out manually by an operator in a closed environment.

解体操作には、対象物の計測、切削および把持の操作が含まれる。とりわけ、切削操作の目的は、より小さな要素を生成することによって、それを収める廃棄物コンテナの充填などを最適化することにある。したがって、こうしたより小さな部品はシステムによって扱われてコンテナに収められる必要がある。 Dismantling operations include operations of measuring, cutting, and gripping objects. Among other things, the purpose of the cutting operation is to produce smaller elements, thereby optimizing, for example, the filling of the waste container that contains them. Therefore, these smaller parts need to be handled and containerized by the system.

こうしたそれぞれの操作は、たとえばアングルグラインダや、関係する操作の実施を可能にするあらゆるタイプのツールのほか、特に作業を行う現場の放射線環境および実施する操作の性質を考慮した抑制的な防護装備(通気つなぎ服、安全手袋など)を備えた作業者によって行われる。 Each of these operations requires, for example, an angle grinder or any type of tool enabling the performance of the operations involved, as well as restrictive protective equipment ( by workers with ventilated coveralls, safety gloves, etc.).

そのため、こうした操作の実施は、作業者の安全という意味においても、その難度および所要時間という意味においても、最適なものではない。 Therefore, the performance of these operations is not optimal either in terms of operator safety or in terms of difficulty and time required.

それ以外の場合、操作は作業者が接触状態で行うことはできず、(計測、切削、把持のための)ツールはその操作を行う多関節システムによって保持されることになる。作業者は、制御ホーン(control horn)を用いて、カメラおよびスクリーンによる間接画像を見ながら遠隔でシステムを駆動する。そうしたシステムの欠点として、高価であることのほか、速度、作用力および位置決めに関してその制御の精度が低く、完了までの時間が長いこと、ツールの消耗品(刃、ディスク)の損耗が早いことが挙げられる。 Otherwise, the manipulation cannot be performed in contact with the operator and the tools (for measuring, cutting, gripping) will be held by the articulated system that performs the manipulation. Using a control horn, the operator remotely drives the system while viewing indirect images from the camera and screen. Disadvantages of such systems, besides being expensive, are the low accuracy of their control in terms of speed, force and positioning, long time to completion, and rapid wear of tool consumables (blades, discs). mentioned.

本発明は、作業環境内における対象物に対する操作実施の方法および設備を提供することで、安全性、正確性および速度に関する最適条件を担保できるようにして、従来技術の欠点を補うことを目的とする。 An object of the present invention is to provide a method and equipment for performing operations on objects in a working environment, thereby ensuring optimum conditions in terms of safety, accuracy and speed, thereby compensating for the shortcomings of the prior art. do.

この目的のため、作業環境内において可動な多関節システムによって保持されたツールを用いて対象物に対する操作を自動的に行うための方法が開発された。 To this end, methods have been developed for automatically performing manipulations on objects using tools held by articulated systems that are movable within a working environment.

本発明によれば、その方法は
○ 対象物および作業環境のすべてまたは一部の画像を少なくとも1つの3Dセンサを用いて全体点群(overall point cloud)の形でキャプチャし、
○ その画像を多関節システムの既存のCADモデルおよび出来形の環境のすべてまたは一部の可能な既存のCADモデルとマージし、それによってワーク画像がもたらされ、
○ 衝突防止パラメータを定義する
ステップAと、
- 対象物を表すワーク画像の部分に対してツールの軌道を(好ましくは作業者が)定義し、それに対応する多関節システムおよびツールの動作のシミュレーションをワーク画像で行って操作が実行可能であることを担保するステップBと、
- ステップBで操作が実行可能であるとされたならば、対象物に対する操作を行うために定義された軌道に従ってツールを保持する多関節システムの動作を実際に行うステップCと
を少なくとも含む。
According to the invention, the method comprises: o capturing an image of all or part of the object and work environment in the form of an overall point cloud using at least one 3D sensor;
o Merge the image with an existing CAD model of the articulated system and possible existing CAD models of all or part of the as-built environment, resulting in a work image,
o Step A of defining anti-collision parameters;
- The trajectory of the tool can be defined (preferably by the operator) for the portion of the work image representing the object, and the corresponding articulated system and tool motion can be simulated on the work image to perform the manipulation. Step B to ensure that
and at least step C of actually performing the movement of the articulated system holding the tool according to the defined trajectory to perform the manipulation on the object, if the manipulation was determined to be feasible in step B.

本発明において、3Dセンサとは、対象物または対象物の一部を三次元画像の形にデジタル化するあらゆる手段を意味し、これには、とりわけ3Dカメラ、レーザースキャナ、ビデオ手段、ウェブカメラなどが含まれる。 In the present invention, 3D sensor means any means for digitizing an object or part of an object in the form of a three-dimensional image, including inter alia 3D cameras, laser scanners, video means, webcams, etc. is included.

衝突防止パラメータとしては、たとえば、それを過ぎると、多関節システムおよびツールの一切の運動の全面停止または動作の減速などの安全機能が自動的に働くという閾値距離があり、たとえばそれによって衝突防止パラメータとなる閾値速度までである。 The anti-collision parameter is, for example, a threshold distance beyond which a safety function, such as a total stop of any movement of the articulated system and the tool or a deceleration of the movement, is automatically triggered, e.g. by which the anti-collision parameter up to a threshold speed where

このようにすることで、本発明は、当初は不確実もしくは未知またはアクセス不能な環境にあった各種操作を、それが正しく実行されることを保証しつつ、遠隔から自動モードで行うことを可能にする。 In this way, the present invention enables operations that were initially in uncertain or unknown or inaccessible environments to be performed remotely and in an automated mode while ensuring that they are performed correctly. to

本発明は、多関節システムの一切の動作に先立って作業環境が全体点群の形でデジタル化されるという点で有利である。そうすることで、多関節システムの動作に対する様々な障害物の位置が、すなわち作業環境内にある各種要素およびこれから行われる操作の対象物の位置がわかる。そのため、多関節システムまたはそのツールと環境内の各種要素との衝突は衝突防止パラメータによって回避することができる。 The present invention is advantageous in that the working environment is digitized in the form of a global point cloud prior to any movement of the articulated system. In doing so, the positions of various obstacles to the motion of the articulated system are known, ie the positions of various elements in the work environment and objects of upcoming manipulations. As such, collisions between the articulated system or its tools and various elements in the environment can be avoided by anti-collision parameters.

このことは、実施される方法を制御する作業者が作業環境を直接見ることができない場合には特に有利である。作業者は、作業環境および対象物をディスプレイ上に点群として可視化し、所望の操作、たとえば切削操作を行うためのツールの動作軌道を定義する。 This is particularly advantageous when the operator controlling the method being carried out does not have a direct view of the working environment. The operator visualizes the work environment and the object as a point cloud on the display and defines the motion trajectory of the tool to perform the desired operation, eg cutting operation.

本発明は、その方法をとることによって多関節システムおよびそのツールの対応する動作のシミュレーション、特にCADでのシミュレーションを行うことが可能になり、衝突を起こすことなく、動作を行えるようにするという点でも有利である。 The present invention makes it possible to simulate, particularly in CAD, the corresponding movements of an articulated system and its tools by adopting the method, so that the movements can be performed without causing collisions. But it is advantageous.

そのため、シミュレーションによって動作の実行可能性が確認されれば、ツールを保持する多関節システムの動作を実際に行って対象物に対してそのとおりの操作を実施することができる。 Therefore, once the feasibility of the motion is confirmed by the simulation, the multi-joint system holding the tool can actually be moved and the object can be manipulated accordingly.

この方法は少なくとも3つのステップで実施することができる。すなわち、
- 全体点群の形でデジタル化することによって環境および対象物を確定するステップA、
- 軌道を定義し、シミュレーションするステップB、および
- 実行するステップC。
The method can be implemented in at least three steps. i.e.
- step A of determining the environment and objects by digitizing them in the form of a global point cloud;
- step B of defining and simulating the trajectory, and - step C of performing.

好ましくは、この方法は、多関節システムによって保持された3Dセンサを用いて対象物のゾーンの詳細画像を全体点群よりも高密度で、より高精度の点群の形でキャプチャするように多関節システムの動作を制御し、対象物の対応するゾーンのそのキャプチャ画像を全体点群による対応部分の代わりにワーク画像に組み込むステップA’をステップAとステップBの間にさらに含む。 Preferably, the method uses a 3D sensor held by an articulated system to capture detailed images of zones of the object in the form of point clouds that are denser and more accurate than the global point cloud. Between steps A and B further includes step A' of controlling the motion of the articulated system and incorporating its captured image of the corresponding zone of the object into the work image instead of the global point cloud counterpart.

この追加のステップは、実施する操作の様々な軌道を定義するための一段と高精度の改良されたワーク画像を提供する。さらに、この追加のステップは、ステップAで使用したセンサでは視認できないゾーンの画像のキャプチャを多関節システムの動作によって可能にするもので、それによってワーク画像を完全なものにする。 This additional step provides an improved workpiece image with greater precision for defining the various trajectories of the maneuver to be performed. Furthermore, this additional step allows the motion of the articulated system to capture images of zones not visible to the sensors used in step A, thereby completing the workpiece image.

多関節システムによって保持される3Dセンサは、多関節システムに常時取り付けられたままであることも、その近傍に保管されることもできる。後者の構成では、方法は、多関節システムを自動で動作させて、近傍に保管された3Dセンサを把持し、3Dセンサに接続するステップA’’をステップAとステップA’の間に含む。 The 3D sensor held by the articulated system can remain attached to the articulated system at all times or stored in its vicinity. In the latter configuration, the method includes a step A'' between steps A and A' of automatically operating the articulated system to grasp and connect to a 3D sensor stored nearby.

ある具体的な実施形態によれば、方法は、多関節システムを自動で動作させて、任意に3Dセンサを取り外して降ろし、近傍に保管されたツールに接続するステップC’をステップBとステップCの間に含む。 According to one specific embodiment, the method includes step C' of automatically operating the articulated system to optionally remove and unload the 3D sensor and connect it to a tool stored nearby, step B and step C. Including between

この特徴は、多関節システムに接続できるように複数のツールを近傍に保管しておくことを可能にする。 This feature allows multiple tools to be kept nearby for connection to an articulated system.

幾つかの異なるツールが利用可能とされる場合、方法は、操作を行うためのツールをステップBのシミュレーションで、またシミュレーションのためにツールデータベースの中から選ぶステップB’をステップBの前にさらに含む。 If several different tools are made available, the method further includes a step B' prior to step B of selecting a tool for performing the operation from the tool database for the simulation in step B and a tool database for the simulation. include.

有利には、またツールの損傷を防ぐため、方法は、ステップCで対象物に直接接するツールを保持する多関節システムの動作速度を、ツールにかかる力の直接的または間接的な計測に基づいて必要に応じてリアルタイムで調節できるという点でも優れている。 Advantageously and to prevent damage to the tool, in step C the method determines the speed of motion of the articulated system holding the tool in direct contact with the object based on a direct or indirect measurement of the force exerted on the tool. It's also great because you can adjust it in real time as needed.

ステップA’で3Dセンサを保持する多関節システムの動作を安全なものとするため、3Dセンサまたは多関節システムの一部が対象物または作業環境の要素に接近すると多関節システムの動作が自動的に減速し、3Dセンサまたは多関節システムの一部が対象物または作業環境の要素に対してステップAで定義された衝突防止パラメータによる安全距離まで来たところで動作は自動的に停止する。 In order to make the motion of the articulated system holding the 3D sensor in step A' safe, the motion of the articulated system automatically occurs when the 3D sensor or part of the articulated system approaches an object or element of the working environment. and the motion automatically stops when the 3D sensor or part of the articulated system has come to a safe distance according to the anti-collision parameters defined in step A against the object or elements of the work environment.

ステップBによる対象物を表すワーク画像の部分に対するツールの軌道の定義は、少なくとも1つの始点-終点ペアか、またはあらかじめ定義された少なくとも1つの幾何学形であって、少なくとも1つの線、平面、マスクなどからなるライブラリの中から選ばれた幾何学形のいずれかをワーク画像内に位置決めすることからなる。 The definition of the trajectory of the tool for the portion of the work image representing the object according to step B is at least one start-end point pair or at least one predefined geometric shape, comprising at least one line, plane, It consists of positioning in the work image any geometric shape selected from a library of masks and the like.

本発明は、上に説明した方法を実装するための設備において、多関節システムと、コンピュータ処理システムおよびディスプレイに接続された少なくとも1つの3Dセンサであって、
- 少なくとも1つの3Dセンサでキャプチャした画像をもとに、対象物および作業環境のすべてまたは一部の全体点群をディスプレイ上に表し、
- 全体点群、多関節システムの既存のCADモデル、および出来形の環境のすべてまたは一部の可能な既存のCADモデルをマージして得られるワーク画像を表すように
設計された3Dセンサとを備える設備にも関し、
そのコンピュータ処理システムはまた、対象物を表すワーク画像の部分に対するツールの軌道の定義を可能にし、ワーク画像で多関節システムおよびツールの対応する動作のシミュレーションを行って操作が実行可能であることを担保し、操作が実行可能であるとされたならば、対象物に対してその操作を行うために定義された軌道に従ってツールを保持する多関節システムを実際に動作させるように構成される。
The present invention provides an installation for implementing the method described above, an articulated system and at least one 3D sensor connected to a computer processing system and a display, comprising:
- representing on a display a global point cloud of all or part of the object and work environment, based on the images captured by at least one 3D sensor;
- A 3D sensor designed to represent the workpiece image obtained by merging the global point cloud, existing CAD models of the articulated system, and possible existing CAD models of all or part of the as-built environment. Regarding the equipment provided,
The computer processing system also allows definition of the trajectory of the tool with respect to the portion of the work image representing the object, and simulates the articulated system and the corresponding motion of the tool on the work image to determine that the manipulation is feasible. It is configured to actually move the articulated system holding the tool according to a defined trajectory to perform the manipulation on the object, once the manipulation has been determined to be feasible.

有利には、設備は、ステップCで対象物に直接接するツールを保持する多関節システムの動作速度を、ツールにかかる力の直接的または間接的な計測に基づいてリアルタイムで調節する手段を備える。 Advantageously, the installation comprises means for adjusting in real time the speed of movement of the articulated system holding the tool in direct contact with the object in step C based on direct or indirect measurement of the force exerted on the tool.

本発明のその他の特徴や利点については、限定的な意図なく、表明として、添付の図面を参照しながら行う以下の説明によってより明らかとなろう。 Other features and advantages of the present invention will become more apparent from the following description, given by way of representation and not by way of limitation, with reference to the accompanying drawings.

本発明による設備の概略斜視図であって、ツールを保持した多関節システムがその作業環境の中で対象物に対する操作を行おうとしている図である。1 is a schematic perspective view of an installation according to the invention in which an articulated system holding a tool is about to perform an operation on an object in its working environment; FIG. 図1と同様の概略図であって、多関節システムが3Dカメラを保持している図である。FIG. 2 is a schematic view similar to FIG. 1, with the articulated system holding a 3D camera; 一方の3Dカメラでキャプチャした画像から得られた対象物および作業環境の部分の全体点群と、他方の多関節システムのCADモデルとをマージしてワーク画像とされたものがディスプレイ上に表現された斜視図である。A work image obtained by merging the entire point cloud of the part of the object and work environment obtained from the images captured by one 3D camera and the CAD model of the articulated system on the other hand is represented on the display. is a perspective view. 図3と同様の図であって、多関節システムが対象物の詳細の画像をキャプチャするための3Dカメラを保持しており、その対象物の詳細が全体点群の対応する部分に代えてワーク画像に組み込まれた図である。FIG. 4 is a view similar to FIG. 3 in which the articulated system holds a 3D camera for capturing an image of a detail of the object, the detail of the object being the workpiece instead of the corresponding portion of the global point cloud; Figure 2 is a view embedded in an image; 図4と同様の図であって、対象物を表すワーク画像の部分にツールの軌道が定義されている図である。FIG. 5 is a view similar to FIG. 4 in which the trajectory of the tool is defined in the portion of the work image representing the object; 図5と同様の概略図であって、ワーク画像における多関節システムおよびツールの動作のシミュレーションを示した図である。FIG. 6 is a schematic diagram similar to FIG. 5 showing a simulation of the articulated system and tool motion in the work image; 対象物を表すワーク画像の部分と交わる平面の位置決めを詳細に示した図である。FIG. 10 is a detailed diagram of the positioning of the plane that intersects the portion of the workpiece image representing the object; 図7と同様の図であって、位置決めされた平面と対象物を表すワーク画像の部分との交点によって得られる軌道が自動的に計算されることで、多関節システムの動作軌道が自動的に計算される図である。FIG. 8 is a view similar to FIG. 7, wherein the motion trajectory of the articulated system is automatically calculated by automatically calculating the trajectory obtained by the intersection of the positioned plane and the portion of the workpiece image representing the object; Figure 3 is a calculated figure. 多関節システムの動作のシミュレーション段階を示した図である。Fig. 3 shows the simulation stage of the motion of the articulated system; 本発明による方法の簡易フローチャートを示した図である。Fig. 3 shows a simplified flow chart of the method according to the invention;

本発明は、作業環境(3)内に置かれた対象物(2)に対する操作を自動で行う方法および設備(1)に関する。 The present invention relates to a method and installation (1) for automatically performing manipulations on objects (2) placed in a working environment (3).

本発明は何らかの1つの操作に限られるものではなく、計測、切削、把持、溶接、書込み、マーキング、はがし、塗装、表面処理、センサその他あらゆるタイプの分析ツール等の位置決めなどの操作に関係したものであることができる。そうした操作は、作業環境(3)内で可動な多関節システム(5)によって保持されたツール(4)によって行われる。 The invention is not limited to any one operation, but involves operations such as measuring, cutting, gripping, welding, writing, marking, stripping, painting, surface treatment, positioning of sensors and other types of analytical tools and the like. can be Such manipulations are performed by a tool (4) held by an articulated system (5) movable within the working environment (3).

本発明の方法による操作が行われる対象物(2)は、放射能を有する物体やそれ以外のあらゆる解体の対象物、または修理や溶接などのあらゆる種類のものであることができる。 The object (2) to be manipulated according to the method of the invention can be a radioactive object or any other object for demolition or any kind of repair or welding.

対象物(2)に関係する作業環境(3)は、たとえば危険で閉鎖された作業環境や、放射性環境、高所作業のように、作業者がアクセスできない、作業者が自由に動くことができないといった環境など、あらゆる種類のものであってよい。 The working environment (3) associated with the object (2) is inaccessible to the worker and does not allow the worker to move freely, e.g. It can be of any kind, such as an environment such as

図1を見ると、設備(1)は、多関節システム(5)を、とりわけ作業環境(3)内で全方向に可動なロボットアームの形で備える。設備(1)は、対象物(2)および作業環境(3)のすべてまたは一部の画像をキャプチャしてデジタル化し、既知のコンピュータ処理システムとディスプレイによって対象物(2)および作業環境(3)のすべてまたは一部の全体点群(7)の三次元表現を描き出すために、少なくとも1つの3Dセンサ、たとえば3Dカメラ(6A、6B、6C)を備える。 Looking at FIG. 1, the installation (1) comprises an articulated system (5), in particular in the form of a robotic arm that is omnidirectionally movable within the working environment (3). A facility (1) captures and digitizes images of all or part of an object (2) and a work environment (3) and renders the object (2) and work environment (3) by means of known computer processing systems and displays. At least one 3D sensor, eg a 3D camera (6A, 6B, 6C), is provided to render a three-dimensional representation of the global point cloud (7) of all or part of the .

図示された例では、設備(1)は、多関節システム(5)の周りからその上を取り囲むアーチ(8)に配置されて固定された3つの3Dカメラ(6A、6B、6C)を備える。 In the example shown, the installation (1) comprises three 3D cameras (6A, 6B, 6C) positioned and fixed in an arch (8) that wraps around and over the articulated system (5).

図3に沿って説明すると、対象物(2)に対する操作を安全に行うため、設備(1)は、対象物(2)および作業環境(3)のすべてまたは一部の画像をアーチ(8)に取り付けられた3Dカメラ(6A、6B、6C)を用いて全体点群(7)の形でキャプチャし、その全体点群(7)を、多関節システム(5)の既存のCADモデルおよび、アーチ(8)のCADモデルなどのような出来形の環境の既存のCADモデルとマージして、それによって得られるワーク画像(17)をディスプレイ(図3のアセンブリ)に表示する少なくとも1つのステップAを含む方法を実装する。 With reference to FIG. 3, in order to safely operate on the object (2), the equipment (1) arches (8) an image of all or part of the object (2) and the working environment (3). captured in the form of a global point cloud (7) using 3D cameras (6A, 6B, 6C) attached to an existing CAD model of the articulated system (5) and At least one step A of merging with an existing CAD model of the as-built environment, such as the CAD model of the arch (8), and displaying the resulting workpiece image (17) on a display (assembly of Figure 3). implement a method that includes

それにより、作業環境(3)で障害となり得るものを特定し、多関節システム(5)の動作を安全なものにすることができる。アーチ(8)、3Dカメラ(6A、6B、6C)のほか、多関節システム(5)それ自体やそのツール(4)など、作業環境(3)の標準要素のすべてまたは一部が既知で、CAD内にすでにモデル化されている可能性もあることは留意されてよい。 Thereby, possible obstacles in the work environment (3) can be identified and the operation of the articulated system (5) can be made safe. All or part of the standard elements of the working environment (3) are known, such as the arches (8), the 3D cameras (6A, 6B, 6C) as well as the articulated system (5) itself and its tools (4), It may be noted that it may already be modeled in CAD.

このように、多関節システム(5)およびそのツール(4)の動作を作業環境(3)の各種要素と関連づけて知ることができ、あらかじめ定義された衝突防止パラメータによって自動的に衝突を回避することができる。 In this way, the motion of the articulated system (5) and its tools (4) can be known in relation to various elements of the work environment (3), automatically avoiding collisions with pre-defined anti-collision parameters. be able to.

対象物(2)に対する所望の操作を行うため、設備(1)は、様々なタイプの複数のツール(4)や、3Dカメラ(16)のような3Dセンサを専用の収納箱内に入れるなどして、近傍に保管する形で備えることが好ましい。 In order to perform the desired manipulations on the object (2), the equipment (1) includes several tools (4) of various types, 3D sensors such as a 3D camera (16), etc. in a dedicated storage box. It is preferable to store it in the form of storing it nearby.

この3Dカメラ(16)は3Dカメラ(6A、6B、6C)と同タイプであることも、それとは異なるものであることもできるが、後者の場合、有利には3Dカメラ(6A、6B、6C)よりも精度の高いものとされる。 This 3D camera (16) can be of the same type as the 3D cameras (6A, 6B, 6C) or different, but in the latter case it is advantageously ) is considered to be more accurate than

そのため、本発明による方法は、多関節システム(5)を自動で、したがって安全に、動作させて、近傍に保管された3Dカメラ(16)のもとに送り、3Dカメラ(16)を把持してそれに接続するステップA”をステップAの後に含むことが有利である。 Therefore, the method according to the present invention automatically and therefore safely operates the articulated system (5) to deliver it to the 3D camera (16) stored nearby and grasp the 3D camera (16). Advantageously, after step A, a step A'' of connecting to it is included.

多関節システム(5)が3Dカメラ(16)を把持した後、方法は、多関節システム(5)の動作を制御して、3Dカメラ(6A、6B、6C)よりも高精度の3Dカメラ(16)を用いて対象物(2)の様々なゾーンの詳細画像を、全体点群(7)よりも高密度かつ高精度の点群の形でキャプチャし、対象物(2)の対応ゾーンのそのキャプチャ画像(9)を全体点群(7)の対応部分の代わりにワーク画像(17)(図4参照)内に組み込むステップA’(図2参照)を含む。 After the articulated system (5) grasps the 3D camera (16), the method controls the motion of the articulated system (5) to obtain a 3D camera ( 16) is used to capture detailed images of various zones of the object (2) in the form of point clouds with higher density and precision than the global point cloud (7), and the corresponding zones of the object (2) It includes a step A' (see Figure 2) of incorporating the captured image (9) into the work image (17) (see Figure 4) instead of the corresponding part of the global point cloud (7).

様々な画像をキャプチャする多関節システム(5)の動作は、自動的に制御されるか、または作業環境(3)の遠隔から作業者によって、たとえば制御レバーで制御されることによって、アクセス不能なゾーンの画像のキャプチャを可能とするか、またはたとえば全体点群(7)から特定のゾーンが直接選択され、その選択によって多関節システムの自動的な動作が引き起こされることで制御される。この構成では、実際の作業者は自分が対象物のモデル化の精度を上げたいと望むゾーンを選択する。すると、最善の視点から画像をキャプチャするために必要とされる多関節システム(5)の位置をソフトウェアが計算する。ここで留意されるべきは、多関節システム(5)の動作は、CADによって、または全体点群(7)を通して、または細部の画像(9)を通して、ワーク画像(17)ですべてがモデル化されているために、多関節システム(5)、3Dカメラ(16)、対象物(2)および作業環境(3)の各種要素の間で衝突を起こさずに行われるという点である。 The movement of the articulated system (5) to capture the various images is controlled automatically or by an operator remotely in the working environment (3), e.g. It is possible to capture an image of a zone, or it can be controlled, for example, by directly selecting a specific zone from the global point cloud (7), the selection of which triggers the automatic movement of the articulated system. In this configuration, the actual operator selects the zones in which he wishes to refine the modeling of the object. The software then calculates the position of the articulated system (5) required to capture the image from the best viewpoint. It should be noted here that the motion of the articulated system (5) is all modeled in the work image (17) either by CAD or through the global point cloud (7) or through the detail image (9). , so that there is no conflict between the various elements of the articulated system (5), the 3D camera (16), the object (2) and the working environment (3).

また、設備(1)の操作安全性を高めるため、ステップA’では、CADモデル化の結果が既知のツール(4)または多関節システム(5)の一部が対象物(2)または作業環境(3)の要素に接近すると、多関節システム(5)の動作が自動的に減速し、ツール(4)または多関節システム(5)の一部が障害物に対して安全距離まで来たところで動作は停止する。 Also, in order to increase the operational safety of the equipment (1), in step A′, a part of the tool (4) or the articulated system (5) whose CAD modeling results are known is the object (2) or the working environment. Upon approaching the element of (3), the motion of the articulated system (5) automatically decelerates until the tool (4) or part of the articulated system (5) is at a safe distance against the obstacle. Operation stops.

上記により、多関節システム(5)の動作、とりわけ保持された3Dカメラ(16)の動作を制御する作業者は、自ら操作を行おうとする対象ゾーンの細部の画像(9)をキャプチャする。対象物(2)のその詳細画像(9)は自動的にワーク画像(17)に組み込まれ、それによって部分的により高い精度で対象物(2)を再構成し、操作が行われる場所におけるその幾何学形状の詳細を知ることができる。 Due to the above, the operator controlling the movement of the articulated system (5), and in particular the movement of the held 3D camera (16), captures a detailed image (9) of the zone of interest in which he intends to operate. Its detailed image (9) of the object (2) is automatically incorporated into the work image (17), thereby partially reconstructing the object (2) with greater accuracy and its position at the location where the manipulation is performed. You can know the details of the geometric shapes.

幾つかの異なるタイプのツール(4)が利用可能であるという前提に立つ場合、方法は、操作を行うためのツール(4)をシミュレーションで、またシミュレーションのためにツールデータベースの中から選ぶステップB’を含む。 Given that several different types of tools (4) are available, the method selects a tool (4) for performing the operation in the simulation and for the simulation in the tool database step B. 'including.

その場合、図5を参照すると、方法は、対象物(2)を表すワーク画像(17)の部分に対してツール(4)の軌道(10)を定義し、それに対応する多関節システム(5)およびツール(4)の動作をワーク画像(17)でシミュレーションして、方向、アクセス可能性、衝突のないことなどに関して操作が実行可能であることを担保するステップBを含む(図6参照)。 In that case, referring to FIG. 5, the method defines the trajectory (10) of the tool (4) for the portion of the work image (17) representing the object (2), and the corresponding articulated system (5). ) and the movement of the tool (4) on the workpiece image (17) to ensure that the operation is feasible in terms of orientation, accessibility, collision-freeness, etc. (see Figure 6) .

作業者は、対象物(2)の詳細の画像(9)をキャプチャして、それをワーク画像(17)に組み込むことにより、ツール(4)の軌道(10)の定義および位置決めに関してより高い精度の支援を得ることができる。 By capturing an image (9) of details of the object (2) and incorporating it into the workpiece image (17), the operator can achieve greater accuracy in defining and positioning the trajectory (10) of the tool (4). support can be obtained.

作業者は、軌道(10)を定義するため、ディスプレイ上に表示されたワーク画像(17)に始点-終点ペアまたは線、平面、マスク等々からなるライブラリから選んだ幾何学形を位置決めすることができ、コンピュータ処理システムは対象物(2)上に軌道(10)を自動的に計算するように設計される。必要な場合には、処理システムは軌道(10)の手動調整を行うことが可能であり、または対象物(2)の表現の上に作業者が軌道(10)の線を直接引くことができる。 To define the trajectory (10), the operator can position start-to-point pairs or geometric shapes selected from a library of lines, planes, masks, etc. on the work image (17) shown on the display. The computer processing system is designed to automatically calculate the trajectory (10) on the object (2). If necessary, the processing system can make manual adjustments to the trajectory (10) or the operator can draw the trajectory (10) line directly on the representation of the object (2). .

たとえば、図5を見ると、切削を行う対象物(2)の表面の表現に対して平面(11)が位置決めされており、コンピュータ処理システムは平面(11)とその表面の交点によって軌道(10)を定義している。この手法は、平面(11)の位置決めを見てとることができる図7にも示されているほか、図8でも、軌道(10)が計算され、平面(11)と対象物(2)の表現の交点によってプロットされている様子がわかる。 For example, looking at FIG. 5, a plane (11) is positioned with respect to a representation of the surface of an object (2) to be cut, and the computer processing system determines the trajectory (10) by the intersection of the plane (11) and its surface. ). This approach is also illustrated in FIG. 7 where the positioning of the plane (11) can be seen, and also in FIG. 8 the trajectory (10) is calculated and the plane (11) and object (2) You can see how it is plotted by the intersection of the expressions.

軌道(10)が計算されると、コンピュータ処理システムはそれに対応する多関節システム(5)およびツール(4)の動作をワーク画像(17)内でシミュレーションできるようにして、操作が可能となるようにするが、それがテストされた軌道(10)、ツール(4)および多関節システム(5)の動作可能性に応じたものであることは言うまでもない。動作テストのステップはたとえば図6および図9に示されている。シミュレーションの結果、動作が可能であること、すなわち、方向およびアクセスの面で可能であり、さらに動作によって設備(1)および作業環境(3)の各種要素間の衝突が起こらないことが示されれば、実際に動作を行うことができる。ステップBは実施可能な動作を得るために必要な限り何度でも実施される。 Once the trajectory (10) is calculated, the computer processing system enables the motion of the corresponding articulated system (5) and tool (4) to be simulated within the workpiece image (17) so that it can be manipulated. of course, depending on the operability of the trajectory (10), tool (4) and articulated system (5) tested. The operational test steps are shown in FIGS. 6 and 9, for example. The simulation results show that the motion is possible, i.e. in terms of orientation and access, and that the motion does not cause conflicts between the various elements of the equipment (1) and work environment (3). can actually perform the action. Step B is performed as many times as necessary to obtain workable operation.

この場合、方法は、3Dカメラ(16)を取り外して専用の収納箱などに収め、あらかじめ選ばれて同じく近傍に保管されていたツール(4)に接続するように多関節システム(5)を自動で動作させるステップC’を含むことが有利である。 In this case, the method removes the 3D camera (16), stores it in a dedicated storage box or the like, and automatically activates the articulated system (5) to connect to a preselected tool (4) that is also stored nearby. Advantageously, it includes a step C' operating at .

ツール(4)の接続後、方法は、操作が実行可能であることがシミュレーションによって示されたならば、定義され、その妥当性が確認された軌道に従ってツール(4)を保持する多関節システム(5)を実際に動作させて、対象物(2)に対してその操作を行うステップCを含む。 After connecting the tool (4), the method is an articulated system ( ) that holds the tool (4) according to its defined and validated trajectory, once the simulation shows that the manipulation is feasible. 5) is actually operated to perform the operation on the object (2).

好ましくは、設備は、ステップCでは、ツール(4)の破損を防ぐため、ステップCで対象物(2)に直接接するツール(4)を保持する多関節システム(5)の動作速度を、ツールにかかる力の直接的または間接的な計測に基づいてリアルタイムで調節する手段を備える。たとえば、この計測は、多関節システム(5)を動かすためにツール(4)またはモータによって消費される電流を計測することによって得るか、または多関節システム(5)とツール(4)の間に配設された力センサによって得ることができる。 Preferably, in step C, the equipment adjusts the speed of movement of the articulated system (5) holding the tool (4) in direct contact with the object (2) in step C to prevent damage to the tool (4). means for adjusting in real time based on direct or indirect measurement of the force applied to the For example, this measurement is obtained by measuring the current consumed by the tool (4) or motors to move the articulated system (5), or by measuring the current drawn between the articulated system (5) and the tool (4). It can be obtained by an arranged force sensor.

簡単に理解できるように、図10に方法のステップの順序を簡易フローチャートの形で示す。 For ease of understanding, FIG. 10 shows the sequence of steps of the method in the form of a simplified flow chart.

有利には、複数の切削操作など、対象物(2)に対して複数の操作を連続的に行う必要がある場合、後続の切削軌道(10)は前の切削操作の間にマスク時間に定義されるか、または複数の軌道(10)が、作業者による変更が可能な順序で逐次行われるようにシミュレーションされ、記録される。 Advantageously, if multiple operations have to be performed on the object (2) in succession, such as multiple cutting operations, subsequent cutting trajectories (10) are defined at mask time between previous cutting operations. or multiple trajectories (10) are simulated and recorded sequentially in an order that can be altered by the operator.

本発明はまた、たとえば対象物(2)の切削に関連するケースで、対象物が追加されたり、スペースが空いたりすることによる新たな要素または潜在的な障害物のために変化する環境のもとでは特に有利であり、その場合、本発明の方法のステップAからCまでを繰り返すことにより、対象物(2)に対する操作を継続するための最新の画像およびシミュレーションを容易に衝突のリスクもなく得ることができる。 The invention is also applicable to changing environments due to new elements or potential obstructions due to objects being added or spaces being made available, for example in the case of cutting an object (2). and in which case by repeating steps A to C of the method of the invention, it is easy to obtain up-to-date images and simulations for continued manipulation of the object (2) without risk of collision. Obtainable.

ディスプレイは、設備(1)、対象物(2)および環境の各種要素をCADモードで表示する。好ましくは、多関節システム(5)はインタラクティブな色で表される。すなわち、多関節システム(5)はたとえば緑で表され、その1つの部分が障害物に接近していくと、多関節システム(5)および/またはツール(4)が衝突管理パラメータで定義された衝突リスクゾーンに入ったときにその部分の色がオレンジに変わり、さらに多関節システム(5)および/またはツール(4)が衝突管理パラメータで定義された閾値距離に到達して動作が停止すると赤へと順次変化する。 The display shows equipment (1), objects (2) and various elements of the environment in CAD mode. Preferably, the articulated system (5) is represented in interactive colors. That is, the articulated system (5) is for example represented in green, and one part of it approaches the obstacle, the articulated system (5) and/or the tool (4) are defined by the collision management parameters. The part turns orange when entering the collision risk zone and red when the articulated system (5) and/or tool (4) reaches the threshold distance defined in the collision management parameters and stops moving. sequentially change to

以上のことから、本発明は、対象物(2)および作業環境の位置や幾何学形状が変化し、かつ/または操作を行うには十分に定義されていない作業環境(3)内にある対象物(2)に対して自動的かつ安全に操作を行うための方法および設備(1)を提供するものであることは明瞭である。 From the above, it can be seen that the present invention provides a method for working with objects (2) and objects in a work environment (3) where the position and geometry of the work environment changes and/or is not well defined for manipulation. It is clear that it provides a method and equipment (1) for automatically and safely performing operations on objects (2).

この方法は、対象物(2)のいかなるタイプの幾何学形状または性質に対しても適合させることができる。環境および対象物(2)をデジタル化によって全体点群の形で確定する第1のステップは3Dカメラによって行われ、それによって対象物(2)および環境の各種要素のあらゆるタイプの位置および幾何学形状に対する適合化も可能となる。処理時間は短く、1秒間に500,000個の計測ポイントをこなす。環境から得られる詳細は重要で、情報は連続的である。そのため、リアルなレンダリングおよびモデリングをリアルタイムで行うことができ、作業者は点群(7)で再構成されたものが正しいかどうかを視覚的に容易にチェックすることができる。 The method can be adapted to any type of geometry or properties of the object (2). The first step of determining the environment and the object (2) in the form of a global point cloud by digitization is done by a 3D camera, which allows any type of position and geometry of the object (2) and the various elements of the environment. Adaptation to the shape is also possible. The processing time is short, and 500,000 measurement points are processed per second. Details from the environment are important and the information is continuous. Therefore, realistic rendering and modeling can be performed in real time, and the operator can easily visually check whether the reconstructed point cloud (7) is correct.

1 設備
2 対象物
3 作業環境
4 ツール
5 多関節システム
6 3Dカメラ、3Dセンサ
7 点群
8 アーチ
9 画像
10 軌道
11 平面
16 3Dカメラ、3Dセンサ
17 ワーク画像
1 equipment 2 object 3 work environment 4 tool 5 articulated system 6 3D camera, 3D sensor 7 point group 8 arch 9 image 10 trajectory 11 plane 16 3D camera, 3D sensor 17 workpiece image

Claims (10)

作業環境(3)内で可動な多関節システム(5)によって保持されたツール(4)を用いて対象物(2)に対する操作を自動で行うための方法において、
- 前記対象物(2)および前記作業環境(3)のすべてまたは一部の画像を少なくとも1つの3Dセンサ(6A、6B、6C)を用いて全体点群(7)の形でキャプチャし、前記画像(7)を前記多関節システム(5)の既存のCADモデルおよび出来形の前記作業環境(3)のすべてまたは一部の可能な既存のCADモデルとマージし、このマージによってワーク画像(17)がもたらされ、さらに衝突防止パラメータを定義するステップAと、
- 前記対象物(2)を表す前記ワーク画像の部分に対して前記ツール(4)の軌道を定義し、前記ワーク画像(17)で前記多関節システム(5)および前記ツールの対応する動作のシミュレーションを行って前記操作が実行可能であることを担保するステップBと、
- ステップBで前記操作が実行可能であるとされたならば、前記対象物(2)に対する前記操作を行うために定義された前記軌道(10)に従って前記ツール(4)を保持する前記多関節システム(5)の動作を実際に行うステップCと
を少なくとも含むことを特徴とする方法。
A method for automatically performing an operation on an object (2) using a tool (4) held by a movable articulated system (5) within a working environment (3), comprising:
- capturing an image of all or part of said object (2) and said working environment (3) in the form of a global point cloud (7) using at least one 3D sensor (6A, 6B, 6C), said The image (7) is merged with an existing CAD model of said articulated system (5) and a possible existing CAD model of all or part of said working environment (3) in as-built, this merging yields a work image (17 ) is provided and further defines anti-collision parameters;
- defining the trajectory of the tool (4) with respect to the portion of the work image representing the object (2) and of the articulated system (5) and the corresponding movement of the tool in the work image (17); A step B of performing a simulation to ensure that the operation is executable;
- said articulated holding said tool (4) according to said trajectory (10) defined to perform said manipulation on said object (2), if said manipulation was determined to be feasible in step B; C. actually performing the operation of the system (5).
前記多関節システム(5)によって保持された3Dセンサ(16)を用いて前記対象物(2)のゾーンの詳細画像(9)を前記全体点群よりも高密度で、より高精度の点群の形でキャプチャするように前記多関節システム(5)の動作を制御し、前記対象物(2)の対応するゾーンの前記キャプチャ画像(9)を前記全体点群(7)による対応部分の代わりに前記ワーク画像(17)に組み込むステップA’をステップAとステップBの間に含むことを特徴とする、請求項1に記載の方法。 A 3D sensor (16) held by the articulated system (5) is used to generate detailed images (9) of zones of the object (2) in a denser and more accurate point cloud than the global point cloud. and the captured image (9) of the corresponding zone of the object (2) instead of the corresponding part by the global point cloud (7) 2. A method according to claim 1, characterized in that it comprises between steps A and B a step A' of incorporating into said work image (17) immediately. 前記多関節システム(5)を自動で動作させて、近傍に保管された前記3Dセンサ(16)を把持して接続するステップA”をステップAとステップA’の間に含むことを特徴とする、請求項2に記載の方法。 It is characterized by including a step A″ of automatically operating the multi-joint system (5) to grip and connect the 3D sensor (16) stored nearby between step A and step A′. 3. The method of claim 2. 前記多関節システム(5)を自動で動作させて、任意に3Dセンサ(16)を取り外して降ろし、近傍に保管された前記ツール(4)に接続するステップC’をステップBとステップCの間に含むことを特徴とする、請求項1から3のいずれか一項に記載の方法。 Step C' of automatically operating the articulated system (5) to optionally remove and unload the 3D sensor (16) and connect it to the tool (4) stored nearby between steps B and C. 4. A method according to any one of claims 1 to 3, characterized in that it comprises 前記操作を行うためのツール(4)をステップBのシミュレーションで、またシミュレーションのためにツールデータベースの中から選ぶステップB’をステップBの前に含むことを特徴とする、請求項1に記載の方法。 2. A method according to claim 1, characterized in that it includes a step B' of selecting a tool (4) for performing said operation in the simulation of step B and from among a tool database for the simulation before step B'. Method. ステップCで、前記対象物(2)に直接接する前記ツール(4)を保持する前記多関節システム(5)の動作速度が、前記ツール(4)にかかる力の直接的または間接的な計測に基づいてリアルタイムで調節されることを特徴とする、請求項1に記載の方法。 In step C, the speed of movement of said articulated system (5) holding said tool (4) in direct contact with said object (2) is a direct or indirect measure of the force exerted on said tool (4). 2. The method of claim 1, wherein the adjustment is made in real-time based on. ステップA’で、前記3Dセンサ(16)または前記多関節システム(5)の一部が前記対象物(2)または前記作業環境(3)の要素に接近すると前記多関節システムの動作が自動的に減速し、前記3Dセンサ(16)または前記多関節システム(5)の一部が対象物(2)または前記作業環境(3)の要素に対してステップAで定義された衝突防止パラメータによる安全距離まで来たところで動作は自動的に停止することを特徴とする、請求項1に記載の方法。 In step A′, when said 3D sensor (16) or a part of said articulated system (5) approaches said object (2) or an element of said working environment (3), the motion of said articulated system is automatically performed. and the 3D sensor (16) or part of the articulated system (5) is secured against an object (2) or an element of the work environment (3) by the anti-collision parameters defined in step A. 2. Method according to claim 1, characterized in that the movement stops automatically when the distance is reached. ステップBにおける前記対象物(2)を表す前記ワーク画像の部分に対する前記ツール(4)の軌道が、少なくとも1つの始点-終点ペアか、またはあらかじめ定義された少なくとも1つの幾何学形、とりわけ平面(11)、少なくとも1つの線、もしくはマスクのいずれかを前記ワーク画像(17)内に位置決めすることによって定義されることを特徴とする、請求項1に記載の方法。 The trajectory of said tool (4) relative to the portion of said work image representing said object (2) in step B is determined by at least one start-end point pair or at least one predefined geometric shape, in particular a plane ( 11), defined by positioning in said workpiece image (17) either at least one line or a mask. 請求項1に記載の方法を実装するための設備(1)において、多関節システム(5)と、コンピュータ処理システムおよびディスプレイに接続された少なくとも1つの3Dセンサ(6、16)とを備え、前記コンピュータ処理システムが、
- 少なくとも1つの3Dセンサ(6、16)によってキャプチャした画像をもとに、前記対象物(2)および前記作業環境(3)のすべてまたは一部の全体点群(7)をディスプレイ上に表し、
- 前記多関節システム(5)の既存のCADモデル、および前記作業環境(3)のすべてまたは一部の可能な既存のCADモデルの前記全体点群(7)をマージして得られるワーク画像(17)を表し、
- 前記対象物(2)を表す前記ワーク画像(17)の部分に対する前記ツール(4)の軌道(10)の定義を可能にし、
- 前記ワーク画像(17)で前記多関節システム(5)および前記ツール(4)の対応する動作のシミュレーションを行って前記操作が実行可能であることを担保し、
- 前記操作が実行可能であるとされたならば、前記対象物(2)に対して前記操作を行うために定義された前記軌道(10)に従って前記ツール(4)を保持する前記多関節システム(5)を実際に動作させるように設計されることを特徴とする設備。
An installation (1) for implementing the method according to claim 1, comprising an articulated system (5) and at least one 3D sensor (6, 16) connected to a computer processing system and a display, said computer processing system
- representing on a display a global point cloud (7) of all or part of said object (2) and said work environment (3), based on images captured by at least one 3D sensor (6, 16); ,
- Work image obtained by merging the global point cloud (7) of the existing CAD model of the articulated system (5) and possible existing CAD models of all or part of the working environment (3) ( 17),
- enabling the definition of the trajectory (10) of the tool (4) with respect to the portion of the work image (17) representing the object (2);
- simulating the corresponding movements of the articulated system (5) and the tool (4) in the work image (17) to ensure that the manipulation is feasible;
- said articulated system holding said tool (4) according to said defined trajectory (10) for performing said manipulation on said object (2), once said manipulation has been made feasible; A facility characterized by being designed to actually operate (5).
ステップCで前記対象物(2)に直接接する前記ツール(4)を保持する前記多関節システム(5)の動作速度を、前記ツール(4)にかかる力の直接的または間接的な計測に基づいてリアルタイムで調節する手段を備えることを特徴とする、請求項9に記載の設備。 determining in step C the speed of movement of said articulated system (5) holding said tool (4) in direct contact with said object (2) based on direct or indirect measurement of the force on said tool (4); 10. Equipment according to claim 9, characterized in that it comprises means for adjusting in real time the
JP2022555706A 2020-03-13 2021-03-05 Method for automatically manipulating an object using a tool held by an articulated system Pending JP2023530209A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR2002515 2020-03-13
FR2002515A FR3108183B1 (en) 2020-03-13 2020-03-13 Method for automatically performing an operation on an object with a tool carried by a polyarticulated system
PCT/FR2021/050380 WO2021181035A1 (en) 2020-03-13 2021-03-05 Method for automatically performing an operation on an object with a tool carried by a polyarticulated system

Publications (1)

Publication Number Publication Date
JP2023530209A true JP2023530209A (en) 2023-07-14

Family

ID=72266362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022555706A Pending JP2023530209A (en) 2020-03-13 2021-03-05 Method for automatically manipulating an object using a tool held by an articulated system

Country Status (7)

Country Link
US (1) US20230106854A1 (en)
EP (1) EP4117867A1 (en)
JP (1) JP2023530209A (en)
KR (1) KR20220154716A (en)
CN (1) CN115916476A (en)
FR (1) FR3108183B1 (en)
WO (1) WO2021181035A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113848803B (en) * 2021-10-14 2023-09-12 成都永峰科技有限公司 Deep cavity curved surface machining tool path generation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2896441B1 (en) * 2006-01-23 2009-07-03 Jerome Grosbois METHOD AND SYSTEM FOR AUTOMATED REALIZATION OF WORKPIECE (S)
US9694494B1 (en) * 2015-12-11 2017-07-04 Amazon Technologies, Inc. Feature identification and extrapolation for robotic item grasping

Also Published As

Publication number Publication date
CN115916476A (en) 2023-04-04
WO2021181035A1 (en) 2021-09-16
EP4117867A1 (en) 2023-01-18
FR3108183A1 (en) 2021-09-17
FR3108183B1 (en) 2022-02-25
KR20220154716A (en) 2022-11-22
US20230106854A1 (en) 2023-04-06

Similar Documents

Publication Publication Date Title
JP4817603B2 (en) Method and system for programming an industrial robot
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
Chong et al. Robot programming using augmented reality: An interactive method for planning collision-free paths
CN104936748B (en) Free-hand robot path teaching
US6587752B1 (en) Robot operation teaching method and apparatus
US7353081B2 (en) Method and a system for programming an industrial robot
EP1842631B1 (en) Apparatus and method for automatic path generation for an industrial robot
EP2954987A1 (en) Teaching system, robot system, and teaching method
JP5113666B2 (en) Robot teaching system and display method of robot operation simulation result
KR102001214B1 (en) Apparatus and method for dual-arm robot teaching based on virtual reality
US20110046783A1 (en) Method for training a robot or the like, and device for implementing said method
JP2001060108A (en) Device and method for teaching robot action
KR20170024769A (en) Robot control apparatus
JP2023530209A (en) Method for automatically manipulating an object using a tool held by an articulated system
Pachidis et al. Vision-based path generation method for a robot-based arc welding system
Makita et al. Offline direct teaching for a robotic manipulator in the computational space
DE102022202563B3 (en) Planning a trajectory of a robot
Cho et al. Development of VR visualization system including deep learning architecture for improving teleoperability
Solvang et al. Robot programming in machining operations
Solvang et al. SAPIR: Supervised and adaptive programming of industrial robots
JP2020183032A (en) Actuated mechanical machine calibration to stationary marker
Zarco et al. Determining and Evaluating Trajectories of a Modular Machine End-Effector in a Manufacturing Environment using a Game Engine
CN114888794B (en) Robot man-machine interaction running path marking method and device
WO2023174875A1 (en) Planning a path of a robot
Kanayama et al. A robot task design and management system for industrial applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240305