JP2020163511A - Work support system and work support method of remote control robot - Google Patents
Work support system and work support method of remote control robot Download PDFInfo
- Publication number
- JP2020163511A JP2020163511A JP2019065753A JP2019065753A JP2020163511A JP 2020163511 A JP2020163511 A JP 2020163511A JP 2019065753 A JP2019065753 A JP 2019065753A JP 2019065753 A JP2019065753 A JP 2019065753A JP 2020163511 A JP2020163511 A JP 2020163511A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- robot
- data
- work
- jig
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明の実施形態は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具を用いてロボットの作業を支援する遠隔操作ロボットの作業支援システム及び作業支援方法に関する。 An embodiment of the present invention relates to a work support system and a work support method for a remote-controlled robot that supports the work of a robot by using a virtual jig provided in a virtual space to guide the work on an object.
遠隔操作ロボットの一つとして、放射線環境など人が立ち入ることができない場所での作業に用いられるマスタースレーブロボットがある。このマスタースレーブロボットは、オペレータ(操作者)がマスターロボットを操作することで、対象物に対する作業をスレーブロボットに実行させるものである。マスターロボットとスレーブロボットの双方の情報は通信により伝送されるため、オペレータが操作したマスターロボットの動作が、スレーブロボットでリアルタイムに再現される特色がある。マスターロボットとスレーブロボットの駆動軸数や軸配置が同じ同構造タイプのほか、マスターロボットは人が操作しやすいようにスレーブロボットとは構造が異なる異構造タイプもある。 As one of the remote-controlled robots, there is a master-slave robot used for work in a place where people cannot enter such as a radiation environment. In this master-slave robot, an operator (operator) operates the master robot to cause the slave robot to perform work on an object. Since the information of both the master robot and the slave robot is transmitted by communication, the operation of the master robot operated by the operator is reproduced in real time by the slave robot. In addition to the same structure type in which the number of drive axes and shaft arrangement of the master robot and slave robot are the same, there is also a different structure type in which the structure of the master robot is different from that of the slave robot so that it can be easily operated by humans.
マスタースレーブロボットを用いての遠隔作業は、スレーブロボット側に取り付けられたカメラ映像などを基に、オペレータがマスターロボットを操作するのであるが、作業性が悪いことが課題である。例えばピンを穴に挿入するような作業は、遠隔操作では距離感の把握が難しく、更に反力や触覚等の力覚情報が十分得られない場合には、作業自体はおろか対象物への位置決めさえも困難になることがある。 In remote work using a master-slave robot, the operator operates the master robot based on a camera image attached to the slave robot side, but the problem is that the workability is poor. For example, in the work of inserting a pin into a hole, it is difficult to grasp the sense of distance by remote control, and if sufficient force sense information such as reaction force and tactile sense cannot be obtained, the work itself is positioned as well as the object. Even can be difficult.
一方、マスターロボットの操作により生成したロボット動作データを用いて、実際の作業空間には存在しない仮想物体モデルにより干渉を検出し、検出結果を反力としてオペレータへ提示する第1の従来システムが提案されている。このシステムにより、目標位置の穴の周囲をコーン形状の仮想ガイドで覆うことで、スレーブロボットの手先で把持しているピンを、仮想ガイドに沿って穴の位置へ誘導することができる。 On the other hand, a first conventional system has been proposed in which interference is detected by a virtual object model that does not exist in the actual work space using robot motion data generated by the operation of the master robot, and the detection result is presented to the operator as a reaction force. Has been done. With this system, by covering the circumference of the hole at the target position with a cone-shaped virtual guide, the pin held by the hand of the slave robot can be guided to the position of the hole along the virtual guide.
また、遠隔操作における自律機能とマニュアル操作機能を組み合わせる手法として、予め登録された作業モデルと物体モデルをオペレータが選択することで、ロボットに搭載されたステレオカメラによって距離画像を計測し、この計測により得られた作業空間内の物体モデルに対して作業を自律的に行う第2の従来システムが提案されている。 In addition, as a method of combining the autonomous function and the manual operation function in remote control, the operator selects a pre-registered work model and an object model, and a distance image is measured by a stereo camera mounted on the robot. A second conventional system that autonomously performs work on the obtained object model in the work space has been proposed.
ところが、第1の従来システムでは、位置情報を示すマーカーを操作開始前に対象物に配置し、カメラによりマーカーを撮像して位置を計測することで、仮想ガイドの位置を修正する処理を行っている。このため、事前の準備が必要になり、放射線環境下などのように対象物に事前準備を行えない環境下では成立し得ない。 However, in the first conventional system, a marker indicating position information is placed on an object before the start of operation, and the marker is imaged by a camera to measure the position to correct the position of the virtual guide. There is. For this reason, advance preparation is required, and it cannot be established in an environment where the object cannot be prepared in advance, such as in a radiation environment.
また、第2の従来システムでは、事前の準備をすることなしに対象となる物体に作業を行うことが可能である。ところが、この第2の従来システムでは、遠隔操作と自律作業をある程度明確に区別する必要があり、事前に準備した対象となる物体モデルに対する作業データだけが自律作業の対象になり、試行錯誤しながらの遠隔作業には適さない。また、例え作業を細かく分解して登録したとしても、物体モデルに対する作業データの指示をオペレータが選択することになり、作業効率が低下してしまうと考えられる。 Further, in the second conventional system, it is possible to work on the target object without preparing in advance. However, in this second conventional system, it is necessary to clearly distinguish between remote control and autonomous work to some extent, and only the work data for the object model to be the target prepared in advance becomes the target of the autonomous work, and through trial and error. Not suitable for remote work. Further, even if the work is divided into small pieces and registered, the operator will select the instruction of the work data for the object model, which is considered to reduce the work efficiency.
本発明の実施形態は、上述の事情を考慮してなされたものであり、仮想治具及び仮想ロボットの支援によりマスターロボットを操作して対象物に対する作業をスレーブロボットに実行させる際に、仮想治具の設置に関する操作者の負担を軽減して作業効率を向上できる遠隔操作ロボットの作業支援システム及び作業支援方法を提供することを目的とする。 The embodiment of the present invention has been made in consideration of the above-mentioned circumstances, and when the master robot is operated with the support of the virtual jig and the virtual robot to cause the slave robot to perform the work on the object, the virtual cure is performed. It is an object of the present invention to provide a work support system and a work support method for a remote-controlled robot that can reduce the burden on the operator regarding the installation of tools and improve work efficiency.
本発明の実施形態における遠隔操作ロボットの作業支援システムは、対象物を含む周囲環境を計測する環境計測部と、前記環境計測部の環境計測データから、前記対象物を検出すると共に、前記対象物を含む3次元位置データを作成する環境計測処理部と、前記対象物及び工具に関するデータを格納する対象物データベースと、前記対象物に対する作業に関するデータを格納する作業データベースと、前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するロボット制御部と、前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得する仮想治具生成・取得部と、前記対象物に対応する仮想対象物を含む前記仮想空間、前記仮想ロボット、及び前記仮想治具を表示する表示装置とを有し、マスターロボットが操作されることで、前記対象物に対する前記作業を前記スレーブロボットに実行させる遠隔操作ロボットの作業支援システムであって、前記ロボット制御部は、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて、前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するよう構成されたことを特徴とするものである。 The work support system of the remote control robot according to the embodiment of the present invention detects the object from the environment measurement unit that measures the surrounding environment including the object and the environment measurement data of the environment measurement unit, and also detects the object. The environment measurement processing unit that creates three-dimensional position data including the above, the object database that stores the data related to the object and the tool, the work database that stores the data related to the work on the object, and the three-dimensional position data. A robot control unit that creates a virtual space based on the data, generates a virtual robot based on the position and operation data of the slave robot, integrates the virtual robot into the virtual space, and guides the work on the object. A virtual jig generation / acquisition unit that generates or acquires one or more types of virtual jigs provided in a virtual space, the virtual space including the virtual object corresponding to the object, the virtual robot, and the virtual cure. A work support system for a remote-operated robot that has a display device for displaying tools and causes the slave robot to perform the work on the object by operating the master robot. The robot control unit is a work support system. The virtual cure is based on the three-dimensional position data, data on the object and tool selected from the object database, data on the work selected from the work database, and position and motion data of the slave robot. It is characterized in that it is configured to determine at least one of the type, shape, size and installation position of the tool.
本発明の実施形態における遠隔操作ロボットの作業支援方法は、環境計測部の環境計測データから、対象物を検出すると共に、前記対象物を含む3次元位置データを作成するステップと、前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するステップと、前記対象物及び工具に関するデータを対象物データベースから、前記対象物に対する作業に関するデータを作業データベースから、それぞれ選択して取り込むステップと、前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得するステップと、前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを、前記3次元位置データ、選択された前記対象物及び工具に関するデータ、選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて決定するステップと、前記仮想ロボット及び前記仮想治具の支援によりマスターロボットを操作することで、前記対象物に対する前記作業を前記スレーブロボットに実行させるステップと、を有することを特徴とするものである。 The work support method of the remote control robot according to the embodiment of the present invention includes a step of detecting an object from the environmental measurement data of the environmental measurement unit and creating three-dimensional position data including the object, and the three-dimensional position. Create a virtual space based on the data, generate a virtual robot based on the position and operation data of the slave robot, integrate the virtual robot into the virtual space, and obtain data on the object and tools from the object database. , A step of selecting and importing data related to the work on the object from the work database, and generating or acquiring one or a plurality of types of virtual jigs provided in the virtual space to guide the work on the object. And at least one of the virtual jig type, shape, dimensions and installation position, the three-dimensional position data, the data regarding the selected object and tool, the data regarding the selected work, and the above. A step of determining based on the position and operation data of the slave robot, and a step of causing the slave robot to perform the work on the object by operating the master robot with the support of the virtual robot and the virtual jig. It is characterized by having.
本発明の実施形態によれば、仮想治具及び仮想ロボットの支援によりマスターロボットを操作して対象物に対する作業をスレーブロボットに実行させる際に、仮想治具の設置に関する操作者の負担を軽減して作業効率を向上できる。 According to the embodiment of the present invention, when the master robot is operated with the support of the virtual jig and the virtual robot to cause the slave robot to perform the work on the object, the burden on the operator regarding the installation of the virtual jig is reduced. Work efficiency can be improved.
以下、本発明を実施するための形態を、図面に基づき説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
[A]第1実施形態(図1〜図6)
図1は、第1実施形態に係る遠隔操作ロボットの作業支援システムを示すブロック図である。また、図2は、図1の遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムの構成を示す構成図である。マスタースレーブロボットシステム10に適用される遠隔操作ロボットの作業支援システム20は、マスターロボット11が操作者(オペレータ)1により操作されることで、対象物(例えば図3に示す配管フランジ2のボルト3)に対する遠隔操作をスレーブロボット12に実行させるシステムである。遠隔操作ロボットの作業支援システム20は、環境計測部22、環境計測処理部23、対象物データベース24、作業データベース25、仮想治具生成・取得部26、ロボット制御部27、及び表示装置としてのディスプレイ28を有して構成される。
[A] First Embodiment (FIGS. 1 to 6)
FIG. 1 is a block diagram showing a work support system for a remote-controlled robot according to the first embodiment. Further, FIG. 2 is a configuration diagram showing a configuration of a master-slave robot system to which the work support system of the remote-controlled robot of FIG. 1 is applied. In the work support system 20 of the remote-controlled robot applied to the master-
このうちのロボット制御部27は、マスターロボット制御部31、スレーブロボット制御部32、仮想空間作成部33、仮想ロボット生成部34、仮想治具決定部35、仮想治具絞込部36及び接触力演算部37を備えてなる。このロボット制御部27は、1台のコンピュータで構成されてもよいが、マスターロボット制御部31とスレーブロボット制御部32とを別々のコンピュータで構成し、これらのいずれかのコンピュータにより仮想空間作成部33、仮想ロボット生成部34、仮想治具決定部35、仮想治具絞込部36、接触力演算部37がそれぞれ機能するように構成されてもよい。
Of these, the robot control unit 27 includes a master
ここで、マスタースレーブロボットシステム10では、図2に示すように、操作者1がマスターロボット11を操作したときの操作データは、マスターロボット11に接続されたマスターロボット制御部31に送信され、このマスターロボット制御部31から通信回線13を経てスレーブロボット制御部32に送信される。なお、通信回線13は、データを双方向に送信可能な通信回線である。スレーブロボット制御部32は、スレーブロボット12に接続されており、上述の操作データに基づいてスレーブロボット12を制御する。
Here, in the master-
マスターロボット11及びスレーブロボット12は本第1実施形態ではマニピュレータであり、スレーブロボット12の先端部にエンドエフェクタ14が設けられている。このエンドエフェクタ14に、作業に応じて多指ハンドやグリッパ、インパクトレンチ、丸鋸などの工具(作業ツール)が装着される。対象物が例えば図3に示す配管フランジ2のボルト3である場合には、エンドエフェクタ14にインパクトレンチ15が装着される。スレーブロボット12は、インパクトレンチ15をボルト3に位置決めし回転させることで、ボルト3の着脱作業を行なう。
The
また、スレーブロボット12には、対象物(例えばボルト3)を含む周囲環境を計測する環境計測部22が設置されている。この環境計測部22は、スレーブロボット12の周囲環境を撮像するためのカメラ、スレーブロボット12のエンドエフェクタ14部分を撮像するためのカメラ、またはスレーブロボット12の周囲環境を、点群データとして計測するための距離画像計測装置などである。この環境計測部22は、図1及び図2に示すように、環境計測処理部23を介してロボット制御部27の例えばスレーブロボット制御部32に接続される。環境計測部22がカメラの場合には、このカメラからの画像データが環境計測処理部23にて圧縮されて、例えばスレーブロボット制御部32へ送信される。
Further, the
一方、マスターロボット11付近にはディスプレイ28が設置される。このディスプレイ28は、ロボット制御部27の例えばマスターロボット制御部31に接続される。ディスプレイ28には、環境計測部22のカメラからの画像データが直接、または環境計測処理部23、スレーブロボット制御部32及びマスターロボット制御部31を経て送信されて表示される。
On the other hand, a
カメラ画像による遠隔操作の場合には、操作者1は、ディスプレイ28の画像を視認しながらマスターロボット11を操作して、スレーブロボット12に対象物に対する作業を実行させる。ところが、このカメラ画像による遠隔操作の場合には、特に、スレーブロボット12のエンドエフェクタ14に装着されたインパクトレンチ15等の工具とボルト3などの対象物との位置決めが、奥行き情報やカメラの死角の影響で不十分になる恐れがある。
In the case of remote control using a camera image, the operator 1 operates the
そこで、本第1実施形態では、カメラ画像による遠隔操作と併用してまたは単独で、仮想治具を用いた遠隔操作を実施可能とする。この仮想治具を用いた遠隔操作は、仮想空間上の仮想ロボット及び仮想治具21(図4)の支援によりマスターロボット11が操作者1により操作されることで、対象物(例えばボルト3)に対する遠隔作業をスレーブロボット12に実行させる操作である。以下、この仮想治具を用いた遠隔操作について述べる。
Therefore, in the first embodiment, it is possible to perform remote control using a virtual jig in combination with remote control using a camera image or independently. In remote control using this virtual jig, the
図1に示す環境計測処理部23は、環境計測部22の距離画像計測装置からの環境計測データである点群データから、対象物(例えば配管フランジ2のボルト3)を検出すると共に、点群データをノイズフィルタリング処理して3次元位置データに変換する。この3次元位置データは、環境計測部22の距離画像計測装置にて計測した点群データによるものに限らず、図面などから事前に作成したものであってもよい。環境計測処理部23にて作成された3次元位置データは、ロボット制御部27を経てまたは直接ディスプレイ28へ送信される。なお、環境計測処理部23は、ロボット制御部27に組み込まれて構成されてもよい。
The environmental
ロボット制御部27の仮想空間作成部33は、環境計測処理部23にて作成された3次元位置データに基づき、仮想空間(不図示)を作成する。この仮想空間には、対象物に対応した仮想対象物(例えば図4及び図5の仮想ボルト30A)が含まれる。また、図1に示すロボット制御部27の仮想ロボット生成部34は、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、スレーブロボット12に対応する仮想ロボット(不図示)を生成し更新する。ロボット制御部27は、仮想ロボット生成部34にて生成された仮想ロボットを、仮想空間作成部33により作成された仮想空間に統合する。
The virtual
対象物データベース24は、図3に示すボルト3や図7に示す配管4、図9に示す構造物5などの対象物に関するデータ、及びこの対象物に対する作業を実施するためにスレーブロボット12のエンドエフェクタ14に装着される工具(例えば図3に示すインパクトレンチ15、図7に示す丸鋸16、図9に示すグリッパ17など)に関するデータを格納するデータベースである。また、作業データベース25は、対象物に対して行なう作業、例えば位置決め作業、ボルト回転作業、配管切断作業などに関するデータを格納したデータベースである。
The
対象物データベース24の対象物及び工具に関するデータ、並びに作業データベース25の作業に対するデータは、ディスプレイ28に表示される。操作者1がディスプレイ28に表示された対象物、工具及び作業を表す表示部分を、タッチパネル入力、キーボード入力、マウス入力、音声入力などにより選択すると、この選択された対象物、工具、作業がロボット制御部27へ送信される。
The data related to the objects and tools in the
仮想治具生成・取得部26は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具21(図4)を、1種類もしくは複数種類生成する。または、仮想治具生成・取得部26は、予め生成された仮想冶具群を格納した仮想治具データベースを備え、仮想治具群から仮想冶具を取得する。この仮想治具21の生成または取得は、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、並びに作業データベース25から操作者1により選択された作業に関するデータに基づいて実施される。例えば、図3に示す配管フランジ2のボルト3(対象物)を着脱作業する場合には、スレーブロボット12に装着されたインパクトレンチ15(工具)のボルト3への位置決め作業をガイドするための仮想治具21と、インパクトレンチ15の回転作業をガイドするための仮想治具(不図示)とが生成または取得される。
The virtual jig generation / acquisition unit 26 generates one or a plurality of types of virtual jigs 21 (FIG. 4) provided in the virtual space to guide the work on the object. Alternatively, the virtual jig generation / acquisition unit 26 includes a virtual jig database that stores a virtual jig group generated in advance, and acquires the virtual jig from the virtual jig group. The generation or acquisition of the
仮想治具生成・取得部26により生成または取得された仮想治具21と、仮想ロボット生成部34にて生成された仮想ロボットとの接触力は、ロボット制御部27の接触力演算部37にて演算される。この接触力は、マスターロボット制御部31を介してマスターロボット11へ出力され、操作者1に対し力覚や触覚などの情報として提示される。これにより、操作者1は、仮想治具21に接触する感覚を得ることが可能になる。
The contact force between the
ディスプレイ28は、前述の如く、環境計測部22であるカメラからの画像を表示すると共に、仮想空間作成部33にて作成された仮想空間(仮想対象物を含む)に、仮想ロボット生成部34にて生成された仮想ロボットと、仮想治具生成・取得部26にて生成または取得され且つ仮想治具決定部35にて後述のように決定された仮想治具21とが統合された画像を表示する。
As described above, the
ロボット制御部27の仮想治具決定部35は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つを選択する。
The virtual
例えば、仮想治具決定部35は、3次元位置データ、作業に関するデータ、並びにスレーブロボット12の位置及び動作データから、図3及び図4に示すように、スレーブロボット12に装着された工具(インパクトレンチ15)が対象物(ボルト3)に接近していると判断した場合には、位置決め用のコーン形状の仮想治具21を決定し、また、対象物及び工具に関するデータからの工具の寸法データから仮想治具21の形状及び寸法を決定し、更に、3次元位置データから仮想治具21の設置位置を決定する。この仮想治具21は、対象物に対応して仮想空間に設けられる仮想対象物(仮想ボルト30A)の全てに設置される。
For example, the virtual
図1に示すロボット制御部27の仮想治具絞込部36は、環境計測処理部23にて作成された3次元位置データ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、図3及び図4に示すように、環境計測処理部23で検出された複数の対象物(例えばボルト3)に対して、スレーブロボット12(またはこのスレーブロボット12のエンドエフェクタ14に装着されたインパクトレンチ15)に最も近傍の対象物(ボルト3)に対応する仮想対象物(仮想ボルト30A)に設置された仮想治具21を優先して「有効」に設定し、仮想治具21の絞り込みを行なう。
The virtual
例えば、図3及び図5に示すように、仮想治具絞込部36は、スレーブロボット12に装着されたインパクトレンチ15に最も近傍のボルト3に対応する仮想ボルト30AXに設置された仮想治具21Xを「有効」に設定し、他の複数の仮想ボルト21を「無効」に設定する。「無効」に設定された仮想治具21であっても、スレーブロボット12に装着されたインパクトレンチ15に対して最も近傍のボルト3に対応した仮想ボルト30Aになった場合には、この仮想ボルト30Aに設置された仮想治具21が仮想治具絞込部36により「有効」に設定されることになる。
For example, as shown in FIGS. 3 and 5, the virtual
次に、遠隔操作ロボットの作業支援システム20が仮想治具21を用いた遠隔操作を実施する場合の作用について、特に図6により説明する。
環境計測処理部23は、環境計測部22が計測した環境計測データ(例えば点群データ)から対象物(例えば配管フランジ2のボルト3)を検出すると共に、対象物の位置データを含む3次元位置データを作成する(S1)。
Next, the operation when the work support system 20 of the remote control robot performs the remote control using the
The environment
次に、ロボット制御部27の仮想空間作成部33は、環境計測処理部23からの3次元位置データに基づいて仮想空間を作成する(S2)。また、ロボット制御部27の仮想ロボット生成部34は、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づき仮想ロボットを生成する。この仮想ロボットは、仮想ロボット生成部34またはロボット制御部27により仮想空間に統合される(S3)。
Next, the virtual
ロボット制御部27は、操作者1により選択された対象物データベース24からの対象物及び工具に関するデータと作業データベース25からの作業に関するデータとを入力する(S4)。これらの入力された対象物及び工具に関するデータ、並びに作業に関するデータに基づいて、仮想治具生成・取得部26は、対象物に対する作業をガイドするために仮想空間に設けられる仮想治具21を、1種類または複数種類生成しまたは取得する(S5)。
The robot control unit 27 inputs data on objects and tools selected by the operator 1 from the
次に、ロボット制御部27の仮想治具決定部35は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具21の種類、形状及び寸法の少なくとも一つを決定し、この決定した仮想治具21を、仮想ロボットが統合された仮想空間上で、仮想対象物(例えば仮想ボルト30A)の位置に設置する(S6)。
Next, the virtual
次に、ロボット制御部27の仮想治具絞込部36は、複数の仮想対象物(例えば仮想ボルト30A)のそれぞれに仮想治具21が設置されている場合には、スレーブロボット12に最も近傍の対象物に対応する仮想対象物に設置された仮想治具21、つまり、仮想ロボットに最も近傍の仮想対象物(例えば仮想ボルト30AX)に設置された仮想治具21を「有効」として、仮想治具21の絞り込みを行う(S7)。
Next, the virtual
その後、操作者1は、仮想空間、仮想ロボット及び仮想治具21が表示されたディスプレイ28を視認しながらマスターロボット11を操作して、仮想空間上で仮想ロボットを仮想治具21のガイドにより仮想対象物(例えば仮想ボルト30A)に対して動作させることで、現実空間においてスレーブロボット12を対象物(例えばボルト3)に対して作業(例えば位置決め作業)させる(S8)。
After that, the operator 1 operates the
以上のように構成されたことから、本第1実施形態によれば、次の効果(1)及び(2)を奏する。
(1)図1、図3及び図4に示すように、対象物(例えばボルト3)に対する作業(例えば位置決め作業)をガイドするために仮想空間に設けられる仮想治具21は、仮想治具生成・取得部26により、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、並びに作業データベース25から操作者1により選択された作業に関するデータに基づいて生成または取得される。そして、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つは、ロボット制御部27の仮想治具決定部35により、環境計測処理部23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて決定される。
Based on the above configuration, according to the first embodiment, the following effects (1) and (2) are obtained.
(1) As shown in FIGS. 1, 3 and 4, the
従って、仮想治具21の例えば設置位置を決定するために、マーカーを事前に配置したり、操作者1が仮想治具21の設置位置に関して指示を与えたりする必要がない。この結果、仮想治具21の設置に関する操作者の負担を軽減でき、マスターロボット11の操作によりスレーブロボット12を対象物(例えばボルト3)に対して作業(例えば位置決め作業)させる遠隔作業の作業効率を向上させることができる。
Therefore, it is not necessary to arrange a marker in advance or give an instruction regarding the installation position of the
(2)図1、図3及び図5に示すように、複数の仮想対象物(例えば仮想ボルト30A)にそれぞれ設置された複数の仮想治具21は、ロボット制御部27の仮想治具絞込部36により、環境計測処理部23にて作成された3次元位置データ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、スレーブロボット12に最も近傍の対象物(例えばボルト3)に対応する仮想対象物(例えば仮想ボルト30A)に設置された仮想治具21(即ち、仮想ロボットに最も近傍の仮想対象物に設置された仮想治具21)が優先して「有効」に設定されて絞り込まれる。このため、仮想治具21が複数存在する場合にも、操作者1が作業の度に仮想治具21を指定する必要がないので、この点からも、操作者1の負担を軽減でき、マスターロボット11の操作によるスレーブロボット12の遠隔作業の作業効率を、より一層向上させることができる。また、不要な仮想冶具21は有効としないことで、演算負荷を軽減することができる。
(2) As shown in FIGS. 1, 3 and 5, the plurality of
なお、操作者1が作業データベース25から作業に関するデータを選択する代わりに、ロボット制御部27の仮想治具決定部35は、マスターロボット11にジェスチャーを実行させたときのマスターロボット11の動作データに基づいて作業を推測して作業に関するデータを求め、これにより、仮想治具21の種類、形状、寸法及び設置位置の少なくとも一つを決定してもよい。
Instead of the operator 1 selecting data related to the work from the
また、仮想治具生成・取得部26は、スレーブロボット12に設置された接触センサ(不図示)からのデータや、スレーブロボット12自身に作用する負荷(例えばモータ電流など)のデータに基づいて、一度接触した箇所に、次回の接触を禁止させる壁(ブロック)のような仮想治具を生成してもよい。この場合、制御ロボット27の仮想治具決定部35は、3次元位置データ、及び上述の接触センサのデータ等に基づいて、次回接触禁止用の仮想治具を、スレーブロボット12が一度接触した箇所に設置する。これにより、ディスプレイ28に表示される仮想空間には、スレーブロボット12が一度接触した箇所に上述の仮想治具が自動で設定されるので、操作者1は、この仮想治具を視認することで、スレーブロボット12が一度接触した箇所を再び接触させることなく、スレーブロボット12に作業を実施させることができる。
Further, the virtual jig generation / acquisition unit 26 is based on data from a contact sensor (not shown) installed on the
[B]第2実施形態(図1、図7、図8)
図7は、第2実施形態に係る遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムによる丸鋸を用いた配管切断作業を説明する説明図である。この第2実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[B] Second embodiment (FIGS. 1, 7, 8)
FIG. 7 is an explanatory diagram illustrating a pipe cutting operation using a circular saw by a master-slave robot system to which a work support system for a remote-controlled robot according to a second embodiment is applied. In this second embodiment, the same parts as those in the first embodiment are designated by the same reference numerals as those in the first embodiment to simplify or omit the description.
本第2実施形態の遠隔操作ロボットの作業支援システム40が前記第1実施形態と異なる点は、対象物が配管4であり、工具が丸鋸16であり、作業が、丸鋸16を用いて配管4を切断する配管切断作業であり、仮想治具41(図8)が、丸鋸16を配管4の同一箇所に同一姿勢(傾き)で繰り返し接触させて切断させる際にガイドとなる平面形状の仮想治具である点である。
The work support system 40 of the remote control robot of the second embodiment differs from the first embodiment in that the object is the
本第2実施形態の遠隔操作ロボットの作業支援システム40(図1)におけるロボット制御部42の仮想治具生成・取得部43は、対象物を配管4とし、工具を丸鋸16とする対象物及び工具データ、並びに配管切断作業を内容とする作業データに基づいて、平面形状の仮想治具41を生成し、または仮想治具データベースから該当する仮想治具41を取得する。
In the work support system 40 (FIG. 1) of the remote control robot of the second embodiment, the virtual jig generation / acquisition unit 43 of the robot control unit 42 uses the object as the
また、ロボット制御部42の仮想治具決定部44は、仮想治具41の種類、形状、寸法及び設置位置の少なくとも一つを、環境計測処理部23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データ、並びにスレーブロボット12の作業動作により取得されたデータに基づいて決定する。
Further, the virtual jig determination unit 44 of the robot control unit 42 sets at least one of the type, shape, dimensions, and installation position of the
つまり、仮想治具決定部44は、配管切断作業を内容とする作業に関するデータから、配管切断をガイドする種類の仮想治具、即ち仮想治具41を決定する。また、仮想治具決定部44は、3次元位置データと、スレーブロボット12が丸鋸16を用いて配管4を最初に切削したときのスレーブロボット12の作業動作により得られた切削痕18の位置データとから、仮想治具41の設置位置を決定する。この仮想治具41の設置位置は、配管4に対応した仮想対象物としての仮想配管30B(図8)における上記切削痕18に対応した仮想切削痕位置19である。
That is, the virtual jig determination unit 44 determines a type of virtual jig that guides the pipe cutting, that is, the
なお、切削痕18の位置データは、具体的には、環境計測22により計測されたデータ、またはスレーブロボット12に設置されたセンサ(不図示)により丸鋸16が配管4に接触したことを検知したときのスレーブロボット12の位置データ等から求められる。
Specifically, the position data of the cutting
また、仮想治具決定部44は、配管4及び丸鋸16の直径データを内容とする対象物及び工具に関するデータから仮想治具41の寸法を決定する。更に、仮想治具決定部44は、スレーブロボット12が丸鋸16を用いて配管4を最初に切断したときのスレーブロボット12の姿勢データ(即ち丸鋸16の傾きデータ)を内容とするスレーブロボット12の位置及び動作データに基づいて、仮想治具41の形状、即ち仮想治具41の傾きを決定する。
Further, the virtual jig determination unit 44 determines the dimensions of the
以上のように構成されたことから、本第2実施形態によれば、第1実施形態の効果(1)と同様な効果を奏するほか、次の効果(3)を奏する。 Since it is configured as described above, according to the second embodiment, in addition to the same effect as the effect (1) of the first embodiment, the following effect (3) is obtained.
(3)操作者1が、スレーブロボット12を動作させて配管4に丸鋸16の切削痕18を最初に形成すれば、この最初に切削痕18を形成したときの丸鋸16の傾きと同一の傾きの平面形状の仮想治具41が仮想治具生成・取得部43により生成または取得され、この仮想治具41が仮想治具決定部44により、配管4に対応した仮想配管30Bにおいて切削痕18に対応した仮想切削痕位置19に設置される。
(3) If the operator 1 operates the
従って、操作者1は、ディスプレイ28に表示された仮想空間上で、スレーブロボット12に対応する仮想ロボットに設けられた丸鋸16に対応する仮想工具を仮想治具41に沿って繰り返し動作させれば、現実空間における丸鋸16を、配管4の切削痕18の位置に同一の傾きを保持して繰り返し投入して、配管4を切断できる。この結果、丸鋸16を用いた配管4の切断作業を、操作者1が丸鋸16の位置及び傾きを細かく調整することなく、容易且つ確実に実施できる。
Therefore, the operator 1 can repeatedly operate the virtual tool corresponding to the
[C]第3実施形態(図9)
図9は、第3実施形態に係る遠隔操作ロボットの作業支援システムが適用されたマスタースレーブロボットシステムによる通過禁止領域を表す仮想治具を示す説明図である。この第3実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[C] Third Embodiment (Fig. 9)
FIG. 9 is an explanatory diagram showing a virtual jig representing a passage prohibited area by the master-slave robot system to which the work support system of the remote-controlled robot according to the third embodiment is applied. In the third embodiment, the same parts as those in the first embodiment are designated by the same reference numerals as those in the first embodiment to simplify or omit the description.
本第3実施形態の遠隔操作ロボットの作業支援システム50が第1実施形態と異なる点は、対象物が、狭隘空間を有して隣接配置された構造物5であり、作業が、スレーブロボット12のエンドエフェクタ14に装着されたグリッパ17などの工具及びスレーブロボット12を構造物5間の狭隘空間内で作業させるものであり、仮想治具51が、工具及びスレーブロボット12の寸法よりも狭い狭隘空間に対して工具及びスレーブロボット12の通過を禁止するための通過禁止領域を表す仮想治具である点である。
The difference between the work support system 50 of the remote control robot of the third embodiment and the first embodiment is that the object is a
本第3実施形態の遠隔操作ロボットの作業支援システム50(図1)におけるロボット制御部52の仮想治具生成・取得部53は、狭隘空間を有して隣接配置された構造物5を対象物とする対象物及び工具データ、並びにスレーブロボット12に装着された工具及びスレーブロボット12を、隣接配置された構造物5間の狭隘空間内で作業させることを内容とする作業データに基づいて、工具(例えばグリッパ17)及びスレーブロボット12の上記狭隘空間への通過禁止領域を表す仮想治具51を生成し、または仮想治具データベースから該当する仮想治具51を取得する。
The virtual jig generation / acquisition unit 53 of the robot control unit 52 in the work support system 50 (FIG. 1) of the remote-operated robot according to the third embodiment targets a
ロボット制御部52の仮想治具決定部54は、工具及びスレーブロボット12の通過禁止領域を表す仮想治具51の種類、形状、寸法及び設置位置の少なくとも一つを、環境計測処理物23にて作成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベースから操作者1により選択された作業に関するデータ、スレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データ、並びにスレーブロボット12の寸法に関するデータに基づいて決定する。
The virtual jig determination unit 54 of the robot control unit 52 determines at least one of the type, shape, dimensions, and installation position of the
つまり、仮想治具決定部54は、スレーブロボット12のエンドエフェクタ14に装着された工具及びスレーブロボット12を、隣接配置された構造物5間の狭隘空間内で作業させることを内容とする作業に関するデータから、構造物5間の狭隘空間への工具(例えばグリッパ17)及びスレーブロボット12の通過を禁止する通過禁止領域を表す種類の仮想治具51を決定する。
That is, the virtual jig determination unit 54 relates to a work in which the tool mounted on the
また、仮想治具決定部54は、スレーブロボット12の位置及び動作データと3次元位置データとから、スレーブロボット12の周囲に存在する構造物5間の狭隘空間の寸法に関するデータを求める。そして、仮想治具決定部54は、上記狭隘空間の寸法に関するデータと、対象物及び工具に関するデータからの工具(例えばグリッパ17)の寸法に関するデータと、スレーブロボット12の寸法に関するデータとを用いて、工具及びスレーブロボット12の少なくとも一方の寸法が上記狭隘空間の寸法よりも大きいか否かを判断する。
Further, the virtual jig determination unit 54 obtains data on the dimensions of the narrow space between the
工具(例えばグリッパ17)及びスレーブロボット12の少なくとも一方の寸法が構造物5間の狭隘空間寸法よりも大きい場合に、仮想治具決定部54は、工具及びスレーブロボット12の当該狭隘空間への通過を禁止する通過禁止領域を表す仮想治具51の設置位置を決定する。この設置位置は、工具(例えばグリッパ17)及びスレーブロボット12の少なくとも一方の寸法よりも小さな寸法の狭隘空間を有する隣接した構造物5に対応する仮想対象物としての仮想構造物30C間の狭隘空間である。
When at least one of the dimensions of the tool (for example, gripper 17) and the
更に、仮想治具決定部54は、3次元位置データから、仮想治具51が設置される狭隘空間を有する仮想構造物30Cに対応した現実空間の構造物5間の狭隘空間の寸法を求め、この狭隘空間の寸法に基づき仮想治具51の形状及び寸法を決定する。
Further, the virtual jig determination unit 54 obtains the dimensions of the narrow space between the
以上のように構成されたことから、本第3実施形態においても、第1実施形態の効果(1)と同様な効果を奏するほか、次の効果(4)を奏する。 Since it is configured as described above, the third embodiment also has the same effect as the effect (1) of the first embodiment and also has the following effect (4).
(4)スレーブロボット12に工具(例えばグリッパ17)を装着して隣接配置された構造物5間の狭隘空間内で作業する場合、構造物5間の狭隘空間の寸法よりもスレーブロボット12と工具の少なくとも一方の寸法が大きいときには、上記狭隘空間を有する構造物5に対応する仮想空間上の仮想構造物30Cの狭隘空間に仮想治具51が設置される。このため、操作者1は、上記仮想空間が表示されたディスプレイ28を視認して、仮想ロボット及び仮想工具を仮想治具51に接触しないように動作させることで、現実空間においてスレーブロボット12及び工具を構造物5に干渉させることなく、構造物5間の狭隘空間内で作業させることができる。
(4) When a tool (for example, a gripper 17) is attached to the
なお、本第3実施形態を走行移動型のマスタースレーブロボットに適用してもよい。例えば、走行移動するスレーブロボットの寸法が扉の寸法よりも大きな場合には、上記扉に対応する仮想空間上の仮想扉に通過禁止を表す仮想治具を設置する。これにより、仮想空間において仮想ロボットが上記仮想治具に接触しないようにすることで、現実空間において、移動するスレーブロボットが通過不可能な扉に干渉する事態を回避できる。 The third embodiment may be applied to a traveling and moving type master-slave robot. For example, when the size of the traveling slave robot is larger than the size of the door, a virtual jig indicating that passage is prohibited is installed in the virtual door in the virtual space corresponding to the door. As a result, by preventing the virtual robot from coming into contact with the virtual jig in the virtual space, it is possible to avoid a situation in which the moving slave robot interferes with the impassable door in the real space.
[D]第4実施形態(図1)
この第4実施形態において第1実施形態と同様な部分については、第1実施形態と同一の符号を付すことにより説明を簡略化し、または省略する。
[D] Fourth Embodiment (Fig. 1)
In this fourth embodiment, the same parts as those in the first embodiment are designated by the same reference numerals as those in the first embodiment to simplify or omit the description.
本第4実施形態の遠隔操作ロボットの作業支援システム60では、ロボット制御部11は、環境計測処理部23にて生成された3次元位置データ、対象物データベース24から操作者1により選択された対象物及び工具に関するデータ、作業データベース25から操作者1により選択された作業に関するデータ、並びにスレーブロボット制御部32が保有するスレーブロボット12の位置及び動作データに基づいて、仮想治具を生成または取得し且つこの仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するための一連の作業データを学習させ、または予め規定することで、仮想治具の生成または取得処理と、仮想治具の種類、形状、寸法及び設置位置の少なくとも一つの決定処理とを自律的に実行可能に構成させてもよい。ここで、上記学習は、ディープラーニング等の機械学習や強化学習である。
In the work support system 60 of the remote control robot of the fourth embodiment, the
これにより、対象物(例えばボルト3)及び工具(例えばインパクトレンチ15)を決め、且つスレーブロボット12の位置及び動作データが決まった状況下では、複数の作業(例えば位置決め作業、ボルト回転作業、周囲の構造物に干渉させないでの狭隘空間内の作業)を操作者1が選択しなくても、ロボット制御部61はその作業を推定できる。更に、ロボット制御部61は、その推定した作業に対応する種類の仮想治具(位置決め用仮想治具、対象物と工具の回転軸を一致させるための仮想治具、通過禁止領域を表す仮想治具など)を自律的に生成または取得し、その仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを自律的に決定することができる。
As a result, under the condition that the object (for example, bolt 3) and the tool (for example, impact wrench 15) are determined and the position and operation data of the
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができ、また、それらの置き換えや変更は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention, and their replacements and changes can be made. Is included in the scope and gist of the invention, and is also included in the invention described in the claims and the equivalent scope thereof.
1…操作者、3…ボルト(対象物)、4…配管(対象物)、5…構造物(対象物)、10…マスタースレーブロボットシステム、11…マスターロボット、12…スレーブロボット、15…インパクトレンチ(工具)、16…丸鋸(工具)、18…切削痕、20…遠隔操作ロボットの作業支援システム、21、21X…仮想治具、22…環境計測部、23…環境計測処理部、24…対象物データベース、25…作業データベース、26…仮想治具生成・取得部、27…ロボット制御部、28…ディスプレイ(表示装置)、30A、30AX…仮想ボルト(仮想対象物)、30B…仮想配管(仮想対象物)、30C…仮想構造物(仮想対象物)、31…マスターロボット制御部、32…スレーブロボット制御部、33…仮想空間作成部、34…仮想ロボット生成部、35…仮想治具決定部、36…仮想治具絞込部、40…遠隔操作ロボットの作業支援システム、41…仮想治具、43…仮想治具生成・取得部、44…仮想治具決定部、50…遠隔操作ロボットの作業支援システム、51…仮想治具、53…仮想治具生成・取得部、54…仮想治具決定部、60…遠隔操作ロボットの作業支援システム、61…ロボット制御部 1 ... Operator, 3 ... Bolt (object), 4 ... Piping (object), 5 ... Structure (object), 10 ... Master-slave robot system, 11 ... Master robot, 12 ... Slave robot, 15 ... Impact Wrench (tool), 16 ... Round saw (tool), 18 ... Cutting marks, 20 ... Remote control robot work support system, 21, 21X ... Virtual jig, 22 ... Environmental measurement unit, 23 ... Environmental measurement processing unit, 24 ... Object database, 25 ... Work database, 26 ... Virtual jig generation / acquisition unit, 27 ... Robot control unit, 28 ... Display (display device), 30A, 30AX ... Virtual bolt (virtual object), 30B ... Virtual piping (Virtual object), 30C ... Virtual structure (virtual object), 31 ... Master robot control unit, 32 ... Slave robot control unit, 33 ... Virtual space creation unit, 34 ... Virtual robot generation unit, 35 ... Virtual jig Decision unit, 36 ... Virtual jig narrowing unit, 40 ... Remote operation robot work support system, 41 ... Virtual jig, 43 ... Virtual jig generation / acquisition unit, 44 ... Virtual jig determination unit, 50 ... Remote operation Robot work support system, 51 ... virtual jig, 53 ... virtual jig generation / acquisition unit, 54 ... virtual jig determination unit, 60 ... remote control robot work support system, 61 ... robot control unit
Claims (6)
前記環境計測部の環境計測データから、前記対象物を検出すると共に、前記対象物を含む3次元位置データを作成する環境計測処理部と、
前記対象物及び工具に関するデータを格納する対象物データベースと、
前記対象物に対する作業に関するデータを格納する作業データベースと、
前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するロボット制御部と、
前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得する仮想治具生成・取得部と、
前記対象物に対応する仮想対象物を含む前記仮想空間、前記仮想ロボット、及び前記仮想治具を表示する表示装置とを有し、
マスターロボットが操作されることで、前記対象物に対する前記作業を前記スレーブロボットに実行させる遠隔操作ロボットの作業支援システムであって、
前記ロボット制御部は、前記3次元位置データ、前記対象物データベースから選択された前記対象物及び工具に関するデータ、前記作業データベースから選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて、前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを決定するよう構成されたことを特徴とする遠隔操作ロボットの作業支援システム。 An environment measurement unit that measures the surrounding environment including the object,
An environmental measurement processing unit that detects the object from the environmental measurement data of the environmental measurement unit and creates three-dimensional position data including the object.
An object database that stores data related to the object and tools,
A work database that stores data related to work on the object, and
A robot control unit that creates a virtual space based on the three-dimensional position data, generates a virtual robot based on the position and operation data of the slave robot, and integrates the virtual robot into the virtual space.
A virtual jig generation / acquisition unit that generates or acquires one or more types of virtual jigs provided in the virtual space to guide the work on the object.
It has the virtual space including the virtual object corresponding to the object, the virtual robot, and a display device for displaying the virtual jig.
A work support system for a remote-controlled robot that causes a slave robot to perform the work on the object by operating the master robot.
The robot control unit uses the three-dimensional position data, data on the object and the tool selected from the object database, data on the work selected from the work database, and position and operation data of the slave robot. A work support system for a remote-controlled robot, which is configured to determine at least one of the type, shape, dimensions, and installation position of the virtual jig based on the above.
前記3次元位置データに基づき仮想空間を作成し、スレーブロボットの位置及び動作データに基づき仮想ロボットを生成し、前記仮想空間に前記仮想ロボットを統合処理するステップと、
前記対象物及び工具に関するデータを対象物データベースから、前記対象物に対する作業に関するデータを作業データベースから、それぞれ選択して取り込むステップと、
前記対象物に対する前記作業をガイドするために前記仮想空間に設けられる仮想治具を、1もしくは複数種類生成または取得するステップと、
前記仮想治具の種類、形状、寸法及び設置位置の少なくとも一つを、前記3次元位置データ、選択された前記対象物及び工具に関するデータ、選択された前記作業に関するデータ、並びに前記スレーブロボットの位置及び動作データに基づいて決定するステップと、
前記仮想ロボット及び前記仮想治具の支援によりマスターロボットを操作することで、前記対象物に対する前記作業を前記スレーブロボットに実行させるステップと、を有することを特徴とする遠隔操作ロボットの作業支援方法。 A step of detecting an object from the environmental measurement data of the environmental measurement unit and creating three-dimensional position data including the object, and
A step of creating a virtual space based on the three-dimensional position data, generating a virtual robot based on the position and operation data of the slave robot, and integrating the virtual robot into the virtual space.
A step of selecting and importing data on the object and the tool from the object database and data on the work on the object from the work database, respectively.
A step of generating or acquiring one or a plurality of types of virtual jigs provided in the virtual space for guiding the work on the object, and
At least one of the type, shape, dimensions and installation position of the virtual jig, the three-dimensional position data, the data regarding the selected object and the tool, the data regarding the selected work, and the position of the slave robot. And the steps to be determined based on the operation data,
A work support method for a remote-controlled robot, which comprises a step of causing the slave robot to perform the work on the object by operating the master robot with the support of the virtual robot and the virtual jig.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065753A JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019065753A JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020163511A true JP2020163511A (en) | 2020-10-08 |
JP7114521B2 JP7114521B2 (en) | 2022-08-08 |
Family
ID=72714087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019065753A Active JP7114521B2 (en) | 2019-03-29 | 2019-03-29 | WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD FOR REMOTE-CONTROLLED ROBOT |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7114521B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113386142A (en) * | 2021-07-07 | 2021-09-14 | 天津大学 | Grinding and cutting integrated processing system and method of teleoperation robot based on virtual clamp |
WO2024020733A1 (en) * | 2022-07-25 | 2024-02-01 | 上海非夕机器人科技有限公司 | Teleoperation method for robot, and robot and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63139689A (en) * | 1986-11-28 | 1988-06-11 | 株式会社日立製作所 | Picture display unit for remote manipulation-system |
JPH01112309A (en) * | 1987-10-26 | 1989-05-01 | Hitachi Ltd | Robot supporting system |
JPH0825254A (en) * | 1994-07-14 | 1996-01-30 | Nec Corp | Master-slave type robot arm device and arm positioning/ guiding method |
JPH10264065A (en) * | 1997-03-27 | 1998-10-06 | Mitsubishi Electric Corp | Remote operation support device for robot |
JP2004322244A (en) * | 2003-04-23 | 2004-11-18 | Toyota Motor Corp | Robot operation regulating method, its device and robot having this device |
JP2008093814A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Operation support device and method thereof |
US20130169423A1 (en) * | 2011-12-29 | 2013-07-04 | Mako Surgical Corp. | Systems and methods for selectively activating haptic guide zones |
-
2019
- 2019-03-29 JP JP2019065753A patent/JP7114521B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63139689A (en) * | 1986-11-28 | 1988-06-11 | 株式会社日立製作所 | Picture display unit for remote manipulation-system |
JPH01112309A (en) * | 1987-10-26 | 1989-05-01 | Hitachi Ltd | Robot supporting system |
JPH0825254A (en) * | 1994-07-14 | 1996-01-30 | Nec Corp | Master-slave type robot arm device and arm positioning/ guiding method |
JPH10264065A (en) * | 1997-03-27 | 1998-10-06 | Mitsubishi Electric Corp | Remote operation support device for robot |
JP2004322244A (en) * | 2003-04-23 | 2004-11-18 | Toyota Motor Corp | Robot operation regulating method, its device and robot having this device |
JP2008093814A (en) * | 2006-10-16 | 2008-04-24 | Yamatake Corp | Operation support device and method thereof |
US20130169423A1 (en) * | 2011-12-29 | 2013-07-04 | Mako Surgical Corp. | Systems and methods for selectively activating haptic guide zones |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113386142A (en) * | 2021-07-07 | 2021-09-14 | 天津大学 | Grinding and cutting integrated processing system and method of teleoperation robot based on virtual clamp |
WO2024020733A1 (en) * | 2022-07-25 | 2024-02-01 | 上海非夕机器人科技有限公司 | Teleoperation method for robot, and robot and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7114521B2 (en) | 2022-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105583826B (en) | Industrial robot and the method for controlling industrial robot | |
US10112297B2 (en) | Robot control apparatus, robot, and robot system | |
US8855823B2 (en) | Robot controller, simple installation-type robot, and method of controlling simple installation-type robot | |
JP6570742B2 (en) | Robot motion evaluation apparatus, robot motion evaluation method, and robot system | |
US20160158937A1 (en) | Robot system having augmented reality-compatible display | |
CN108748152B (en) | Robot teaching method and system | |
US11167417B2 (en) | Robot control device and robot system | |
JP2008229800A (en) | Arm-mounted mobile robot and its control method | |
JP2004243516A (en) | Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment | |
US10960549B2 (en) | Vibration analyzer and vibration analysis method | |
JP2020015128A (en) | Sensing system, work system, extended reality image display method, extended reality image memorizing method, and program | |
US10406688B2 (en) | Offline programming apparatus and method having workpiece position detection program generation function using contact sensor | |
JP2020163511A (en) | Work support system and work support method of remote control robot | |
CN110405729B (en) | Robot control device | |
JP2020154434A (en) | Work management system and work management method | |
West et al. | A vision-based positioning system with inverse dead-zone control for dual-hydraulic manipulators | |
WO2017141569A1 (en) | Control device, control system, control method, and program | |
Tanzini et al. | A novel human-machine interface for working machines operation | |
JP7366264B2 (en) | Robot teaching method and robot working method | |
JPWO2018147359A1 (en) | Robot control method and robot | |
JP3560216B2 (en) | Work support device | |
Antonelli et al. | FREE: flexible and safe interactive human-robot environment for small batch exacting applications | |
JP2915478B2 (en) | Master-slave manipulator | |
JP2005335000A (en) | Control device for human intervention type robot | |
KR20160094105A (en) | Robot control visualization apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7114521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |