JP2021181134A - Operation assisting device for work robot, method and program - Google Patents
Operation assisting device for work robot, method and program Download PDFInfo
- Publication number
- JP2021181134A JP2021181134A JP2020087151A JP2020087151A JP2021181134A JP 2021181134 A JP2021181134 A JP 2021181134A JP 2020087151 A JP2020087151 A JP 2020087151A JP 2020087151 A JP2020087151 A JP 2020087151A JP 2021181134 A JP2021181134 A JP 2021181134A
- Authority
- JP
- Japan
- Prior art keywords
- work
- area
- shape
- point cloud
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000005259 measurement Methods 0.000 claims abstract description 59
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 238000006243 chemical reaction Methods 0.000 claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明の実施形態は、遠隔操作される作業ロボットの操作支援技術に関する。 An embodiment of the present invention relates to an operation support technique for a remotely controlled work robot.
多関節マニピュレータ等といった作業ロボットの遠隔操作は、対象構造物やその周辺構造物との衝突を回避するため、作業状態を監視カメラで確認しながら行われる。このため、動作中の作業ロボットの姿勢によっては、監視カメラの視界が遮られ死角が生じることにより、作業状態の確認が困難になる場合がある。 Remote control of a work robot such as an articulated manipulator is performed while checking the work state with a surveillance camera in order to avoid collision with the target structure and its surrounding structures. Therefore, depending on the posture of the working robot during operation, the field of view of the surveillance camera may be obstructed and a blind spot may be generated, which may make it difficult to confirm the working state.
このような監視カメラの視界の死角を解消する方法として、次のような公知技術が提案されている。一つ目として、複数の監視カメラを作業エリアに設置し、監視カメラのメイン画像の死角領域に、別の監視カメラのサブ画像を合成する公知技術が提案されている。二つ目として、作業エリアに配置されている構造物の三次元形状に基づいて、作業ロボットが衝突しない動作を仮想空間上で計画する公知技術が提案されている。この三次元形状としては、作業エリアにおける実測データや設計データが利用される。 The following publicly known techniques have been proposed as a method for eliminating the blind spot in the field of view of such a surveillance camera. First, a publicly known technique has been proposed in which a plurality of surveillance cameras are installed in a work area and a sub-image of another surveillance camera is synthesized in a blind spot area of the main image of the surveillance camera. Secondly, there has been proposed a publicly known technique for planning an operation in a virtual space in which a work robot does not collide based on a three-dimensional shape of a structure arranged in a work area. As this three-dimensional shape, actual measurement data and design data in the work area are used.
しかし、上述した一つ目の公知技術では、作業環境の制約を受けて、作業エリアに設置できる監視カメラの数や位置が制限される場合がある。また、メイン画像の死角領域にサブ画像を合成することは、視点の異なる画像を嵌め込むことになるため、写り込む構造物の姿勢の連続性が失われ、遠隔作業において誤操作を生じさせる懸念がある。この懸念は、複数の監視カメラの配置間隔を大きくとり互いの死角を効率的に補完できるようにする程、顕著になる。 However, in the first known technique described above, the number and positions of surveillance cameras that can be installed in the work area may be limited due to restrictions on the work environment. In addition, synthesizing a sub-image in the blind spot area of the main image causes images with different viewpoints to be fitted, so that the continuity of the posture of the reflected structure is lost, and there is a concern that erroneous operation may occur in remote work. be. This concern becomes more pronounced as the distance between multiple surveillance cameras is increased so that the blind spots of each other can be efficiently complemented.
また上述した二つ目の公知技術では、三次元形状として設計データを利用する場合、作業エリアに配置される構造物の形状が実際と異なったり、この構造物が運搬・撤去される等の環境変化に対応できなかったりして、信頼性に欠ける課題がある。この課題の解決策の一つとして作業エリアの実測データの利用が挙げられる。しかし、この実測データの計測領域に作業ロボットの一部が含まれる場合、作業エリアに配置される構造物の形状を認識できない課題があった。 In the second known technique described above, when design data is used as a three-dimensional shape, the shape of the structure arranged in the work area may differ from the actual shape, or the structure may be transported or removed. There is a problem of lack of reliability, such as being unable to respond to changes. One of the solutions to this problem is the use of measured data in the work area. However, when a part of the work robot is included in the measurement area of the measured data, there is a problem that the shape of the structure arranged in the work area cannot be recognized.
本発明の実施形態はこのような事情を考慮してなされたもので、作業エリアにおける構造物の形状を、高い信頼性で認識できる作業ロボットの操作支援技術を提供することを目的とする。 An embodiment of the present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an operation support technique for a work robot that can recognize the shape of a structure in a work area with high reliability.
実施形態に係る作業ロボットの操作支援装置において、作業エリアで形状計測センサが計測した構造物の計測信号を逐次的に受信する受信部と、前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換される座標変換部と、作業ロボットの三次元形状を示す立体データが制御情報に基づいて前記作業エリアの座標系に展開される展開部と、前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出する検出部と、前記重複領域を除く更新領域において前記点群データを更新し前記作業エリアの形状マップを生成する生成部と、を備えている。 In the operation support device of the work robot according to the embodiment, the receiving unit that sequentially receives the measurement signal of the structure measured by the shape measurement sensor in the work area and the three-dimensional shape of the structure reproduced from the measurement signal. The point cloud data including the point cloud data is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area, and the three-dimensional data showing the three-dimensional shape of the work robot is the coordinates of the work area based on the control information. The expansion unit developed in the system, the detection unit that detects the overlapping area between the point cloud data and the solid data in the coordinate system of the work area, and the point cloud data are updated in the update area excluding the overlapping area. It includes a generation unit that generates a shape map of the work area.
本発明の実施形態により、作業エリアにおける構造物の形状を、高い信頼性で認識できる作業ロボットの操作支援技術が提供される。 An embodiment of the present invention provides a work robot operation support technique capable of recognizing the shape of a structure in a work area with high reliability.
(第1実施形態)
以下、本発明の実施形態を添付図面に基づいて説明する。図1は本発明の第1実施形態に係る作業ロボットの操作支援装置10Aの構成図である。このように操作支援装置10A(10)は、作業エリア20で形状計測センサであるカメラ21が計測した構造物25(25a,25b)の計測信号26を逐次的に受信する受信部である計測信号受信部11と、この計測信号26から再現される構造物25の三次元形状を含む点群データ27がカメラ21の座標系から作業エリア20の座標系に変換される座標変換部12と、作業ロボット22の三次元形状を示す立体データ28が制御情報31に基づいて作業エリア20の座標系に展開される展開部15と、作業エリア20の座標系において点群データ27と立体データ28との重複領域35を検出する検出部である重複領域検出部16と、この重複領域35を除く更新領域36(図5)において点群データ27を更新し作業エリア20の形状マップ37を生成する生成部である形状マップ生成部17と、を備えている。
(First Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a configuration diagram of an
本実施形態では、作業ロボット22として多関節型のマニピュレータが例示され、作業エリア20において、作業対象となる対象構造物25a(構造物25)を把持し、移動させる作業を例示する。なお、作業ロボット22は、オペレータ(図示略)により遠隔操作されるものとし、オペレータはカメラ21からの動画像を介して対象構造物25aに対する作業状況を把握する。
In the present embodiment, an articulated manipulator is exemplified as the
作業ロボット22は手先にグリッパ34を具備しており、作業エリア20に配置されている。なお、作業ロボット22は、作業エリア20の床面に一端が固定されるものが例示されているが、その設置形態に限定はない。また、多関節型のマニピュレータを台車(図示略)に設置し、作業エリア20の任意の位置に移動させることもできる。この場合は、作業エリア20の座標系における台車の移動位置を測定して、マニピュレータ等の作業ロボット22の位置情報を展開部15の処理に反映させる必要がある。
The
この作業エリア20には、対象構造物25aの他に、構造物25として周辺構造物25bも配置されている。オペレータ(図示略)は、これら周辺構造物25bと作業ロボット22との機械的干渉にも注意を払いつつ、対象構造物25aに対し操作を行う。
In the
カメラ21は、作業エリア20に設置されており、構造物25の三次元形状を計測可能な機器である。カメラ21としては、複数台の光学撮像機器を組み合わせステレオ視によって形状を計測するものや、レーザレンジファインダや距離画像センサによって形状を計測するものが挙げられ、三次元形状の計測機器である形状計測センサとして一般的なものを採用することができる。
The
そして、カメラ21は、計測した構造物25の表面形状を、カメラ座標系における点群データとして処理し、計測信号26に載せて逐次的に送信する。そして、計測信号受信部11では、カメラ21から送信される計測信号26を逐次的に受信し、作業ロボット22や構造物25に動きがあるときは、点群データ27を動画像として捉える。
Then, the
座標変換部12は、計測信号26においてカメラ21の座標系で定義されていたものを、作業エリア20の座標系で定義されるように点群データ27を変換するものである。ここで作業エリア20の座標系は、カメラ21から受信された構造物25の点群データ27と制御情報31から展開された作業ロボット22の立体データ28とを、共通の三次元空間で再現するための座標系である。なお、後述するようにこの点群データ27には、作業エリア20内の三次元形状として構造物25だけでなく、作業ロボット22の一部が写り込むことがある。
The
作業ロボット22は、複数のリンク38と、各々のリンク38の末端を接続し関節として機能するサーボモータ39と、対象構造物25aを把持するためのグリッパ34と、から構成されている。作業ロボット制御部30は、予め定められた動作計画又はオペレータ(図示略)の操作指令に従って、各関節を構成するサーボモータ39の動作を制御し、作業ロボット22の姿勢を制御する。
The working
この作業ロボット制御部30は、サーボモータ39等を駆動するための制御信号33を作業ロボット22に直接送出する他に、サーボモータ39の駆動量を示す制御情報31を操作支援装置10に対しても送出する。なおこの制御情報31は、作業ロボット制御部30からではなく、作業ロボット22から直接伝送される場合もある。
The work
展開部15は、作業ロボット22のパーツ(例えばリンク38)の形状モデルであるロボットパーツ形状モデル32と、作業ロボット22のパーツ(例えばサーボモータ39)の制御情報31と、から作業ロボット22の三次元形状(姿勢)を示す立体データ28を仮想的に再現する。なおロボットパーツ形状モデル32は三次元CADデータ等の設計情報を用いて予め準備することができ、制御情報31はサーボモータ39におけるリアルタイムの角変位データを用いることができる。これにより、立体データ28を、点群データ27と共通化した作業エリア20の座標系に逐次的に更新しながら展開し、その動きが仮想的に再現される。
The
図2は、初期化された作業ロボット22を示す構成図である。図3は、作業ロボット22を初期化した直後にカメラ21で計測された点群データ27で表現される三次元形状である。初期化とは、カメラ21の計測領域から退避する姿勢を作業ロボット22にとらせることである。
FIG. 2 is a configuration diagram showing an initialized
図4は、作業ロボット22の操作過程においてカメラ21で計測された点群データ27で表現される三次元形状である。このように、カメラ21と構造物25との間に作業ロボット22が入り込んだ時は、取得された点群データ27には作業ロボット22の三次元形状が含まれてしまう。つまり、カメラ21の計測領域において、作業ロボット22の死角になった構造物25の三次元形状は点群データ27に反映されないことになる。
FIG. 4 is a three-dimensional shape represented by the
計測信号26から再現された点群データ27そのものからは、構造物25に対応する三次元形状か、作業ロボット22に対応する三次元形状かの区別ができない。そこでカメラ21で撮像するときは、撮像の開始前に作業ロボット22を初期化し、作業エリア20における構造物25の配置を正確に反映した点群データ27を取得することから始める。
From the
図1に戻って説明を続ける。
作業ロボット22の操作過程でカメラ21の計測領域に作業ロボット22が写り込むと、この写り込みの部分において、作業エリア20の座標系で点群データ27と立体データ28との重複領域35が発生する。重複領域検出部16は、作業エリア20の座標系において、点群データ27と立体データ28とを照合し、両者の重複領域35を検出する。
The explanation will be continued by returning to FIG.
When the
図5は、作業ロボット22の操作過程において生成された作業エリア20の形状マップ37である。ここで、逐次的に受信する計測信号26において、図3に示すような構造物25のみの点群データ27から、図4に示すような作業ロボット22が写り込んだ点群データ27に、フレームが切り替わったとする。この図3から図4に切り替わるタイミングで、初めて重複領域35が検出される。
FIG. 5 is a
図1に戻って説明を続ける。
形状マップ生成部17は、図4で示されるような最新タイミングのフレームを構成する点群データ27を、重複領域35を除いた更新領域36(図5)とする。そして、その直前の図3で示されるタイミングのフレームの点群データ27に対し、更新領域36の部分のみを上書きして更新する。
The explanation will be continued by returning to FIG.
The shape
その結果、図5に示すように、更新領域36は最新のタイミングの点群データ27で構成され、重複領域35はその直前のタイミングの点群データ27で構成される形状マップ37が生成される。これにより、カメラ21の計測領域に作業ロボット22が写り込んだ場合であっても、その死角にある構造物25の三次元形状を把握することができる。
As a result, as shown in FIG. 5, the
また、作業ロボット22で対象構造物25aを把持し移動させるといった、構造物25の三次元形状の動きを伴う作業を想定する。この場合でも、作業ロボット22の死角に入らない更新領域36の点群データ27は最新状態に更新される。このため、把持され移動する対象構造物25aを映像により正確に追跡することができ、作業ロボット22の操作を適切に実施できる。
Further, it is assumed that the
モニタ18は、形状マップ37の動画像を映すものである。オペレータは、このモニタ18の動画像を目視しながら、作業ロボット22を操作する。また、形状マップ37は、作業ロボット制御部30にフィードバックされ、作業ロボット22の死角になって計測できないエリアの近傍では、作業ロボット22を低速動作させる等の安全性を高める作業ロボット22の動作制御に関与する。
The
(第2実施形態)
次に図6を参照して本発明における第2実施形態について説明する。図6は本発明の第2実施形態に係る作業ロボットの操作支援装置10Bの構成図である。なお、図6において図1と共通の構成又は機能を有する部分は、同一符号で示し、重複する説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 6 is a configuration diagram of the
第2実施形態の操作支援装置10B(10)は、第1実施形態の作業ロボットの操作支援装置10A(図1)の構成に加えてさらに、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45に基づいて経過時間46を計算する計算部である経過時間計算部41と、経過時間46に基づいて各々の点群データ27の信頼性を評価する信頼性評価部42と、を備えている。
The
形状マップ生成部17は、形状マップ37を構成する点群データ27の各々に、カメラ21で計測されたときのカメラ計測時刻45を関連付けている。そして経過時間計算部41は、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45を取得し、現在時刻との差分をとり経過時間46を計算する。
The shape
この経過時間46は、更新領域36に属する点群データ27については実質的にゼロであり、重複領域35に属する点群データ27については重複領域35に連続して長期間属している程、長くなる。つまり、この経過時間46が長い点群データ27で構成される形状マップ37の領域は、古い作業状態を反映したもので信頼性が低いといえる。
The elapsed
信頼性評価部42は、経過時間46に基づいて各々の点群データ27の信頼性を評価するものである。経過時間46の逆数を信頼性の評価パラメータ47として定義する。このように定義した評価パラメータ47に基づき、点群データ27が長期間に亘って更新されていないことを、モニタ18に表示される形状マップ37の当該領域に明示し、オペレータに注意喚起することができる。
The
また、この評価パラメータ47を作業ロボット制御部30にフィードバックし、作業ロボット22の死角になって計測できないエリアの近傍では、作業ロボット22を低速動作させる等の安全性を高めた制御を実施する。さらに評価パラメータ47が基準値を下回り、看過できないレベルに信頼性が低下した場合、作業ロボット22の初期化を実行し、作業ロボット22をカメラ21の計測領域から退避させる。これにより、形状マップ37において重複領域35は解消されて全体が更新領域36となり、全ての点群データ27における評価パラメータ47が向上し信頼性が回復する。
Further, the
さらに第2実施形態の操作支援装置10Bにおいて、カメラ21は、計測領域を自在に調節できる調節機構部48に支持されている。この調節機構部48として、多関節型アーム機構が例示されているが、特に限定はなく、パン・チルト調整を備えた機構、直動移動機構を採用する場合もある。
Further, in the
この調節機構部48は、カメラ位置駆動部40から出力される駆動信号49を入力し、作業エリア20におけるカメラ21の位置・角度を調整する。カメラ位置駆動部40は、信頼性評価部42から点群データ27の評価パラメータ47を受信し、信頼性の低い点群データ27に対応する構造物25の表面が計測領域に含まれるように、カメラ21の位置・角度を調整する。このように、評価パラメータ47は、点群データ27の信頼性を高めるために、カメラ21の計測領域を変更させる。
The
さらに第2実施形態の操作支援装置10Bは、構造物25の点群データ27と作業ロボット22の立体データ28との距離にも基づいて、各々の点群データ27の信頼性を評価することができる。作業ロボット22は、作業エリア20における稼働範囲が広いが、実際に使われる作業領域は限定的である場合が多い。特に作業ロボット22が対象構造物25aに接近して作業を行う場合、作業領域は対象構造物25aの近傍だけに限定される。
Further, the
そこで,作業ロボット22の作業位置に近い点群データ27ほど重要度が高いものとして信頼性の評価パラメータ47を低めに、逆に作業位置から遠方の点群データ27の評価パラメータは高めに設定する。
Therefore, the
位置・角度が固定されたカメラ21による計測領域は、広い作業エリア20の中で限定的である。そこで、評価パラメータ47の低い(作業ロボット22に近接している)構造物25の表面領域ほど、点群データ27の更新領域36となる頻度を高め、カメラ21の位置・角度を調節し計測領域を変更する。これにより、作業エリア20が広域にわたる場合であっても、作業ロボット22の近傍の作業領域を形成する点群データ27は高い信頼性が確保される。
The measurement area by the
さらに、作業ロボット22の近傍の作業領域を形成する点群データ27は信頼性を高めつつ、広大な作業エリア20の全域にわたる形状マップ37を生成することができる。これにより、対象構造物25aの位置に遠方からアプローチするような、作業ロボット22の広範囲の動作計画にも、形状マップ37の活用の幅が広がる。なお,本実施形態において、作業ロボット22の作業対象となる対象構造物25aの近傍領域を構成する点群データ27の信頼性を高めることを目的としたが、これに限らず、作業エリア20の特性や作業目的に応じて点群データ27の信頼性を高めるエリアを個別に設定しても良い。
Further, the
図7のフローチャートに基づいて作業ロボットの操作支援方法及び操作支援プログラムの実施形態を説明する(適宜、図6参照)。形状計測センサの一例であるカメラ21が計測した構造物25(25a,25b)の計測信号26を逐次的に受信する(S11)。さらに、この計測信号26から再現される構造物25の三次元形状が含まれる点群データ27をカメラ21の座標系から作業エリア20の座標系に変換する(S12)。
An operation support method for the work robot and an embodiment of the operation support program will be described with reference to the flowchart of FIG. 7 (see FIG. 6 as appropriate). The
次に、作業ロボット22の三次元形状を示す立体データ28を制御情報31に基づいて作業エリア20の座標系に展開する(S13)。そして、作業エリア20の座標系において点群データ27と立体データ28との重複領域35を検出する(S14)。さらに、この重複領域35を除く更新領域36(図5)において点群データ27を更新し(S15)、作業エリア20の形状マップ37を生成しモニタ18に表示する(S16)。
Next, the three-
次に、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45に基づいて経過時間46を計算し(S17)、この経過時間46に基づいて各々の点群データ27の信頼性の評価パラメータを計算する。この評価パラメータが基準値を下回る場合(S18 Yes)、モニタ18の形状マップ37の該当領域に警告を表示するとともに、作業ロボット22を初期化する(該当領域から作業ロボット22を退避させる)かもしくはカメラ21の位置・角度を調整する(S19)。そして、作業ロボット22の操作が終了するまで(S11)から(S19)のフローを繰り返す(S20 No: Yes END)。
Next, the elapsed
以上述べた少なくともひとつの実施形態の作業ロボットの操作支援装置によれば、カメラの点群データと作業ロボットの立体データとの重複領域を検出することにより、作業エリアにおける構造物の形状を高い信頼性で認識することが可能となる。 According to the operation support device of the work robot of at least one embodiment described above, the shape of the structure in the work area is highly reliable by detecting the overlapping area between the point cloud data of the camera and the three-dimensional data of the work robot. It becomes possible to recognize by sex.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。また、操作支援装置の構成要素は、コンピュータのプロセッサで実現することも可能であり、操作支援プログラムにより動作させることが可能である。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention. Further, the components of the operation support device can be realized by the processor of the computer, and can be operated by the operation support program.
以上説明した作業ロボットの操作支援装置10は、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、又はCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fとを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。
The
また作業ロボットの操作支援装置プログラムは、ROM等に予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。 Further, the operation support device program for the work robot is provided by incorporating it into a ROM or the like in advance. Alternatively, the program is provided as a file in an installable or executable format stored on a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may try to do it.
また、本実施形態に係る作業ロボットの操作支援プログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしてもよい。また、装置10は、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワーク又は専用線で相互に接続し、組み合わせて構成することもできる。
Further, the operation support program for the work robot according to the present embodiment may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. Further, the
10(10A,10B)…操作支援装置、11…計測信号受信部(受信部)、12…座標変換部、15…展開部、16…重複領域検出部(検出部)、17…形状マップ生成部(生成部)、18…モニタ、20…作業エリア、21…カメラ(形状計測センサ)、22…作業ロボット、25…構造物、25a…対象構造物、25b…周辺構造物、26…計測信号、27…点群データ、28…立体データ、30…作業ロボット制御部、31…制御情報、32…ロボットパーツ形状モデル、33…制御信号、34…グリッパ、35…重複領域、36…更新領域、37…形状マップ、38…リンク、39…サーボモータ、40…カメラ位置駆動部、41…経過時間計算部(計算部)、42…信頼性評価部、45…カメラ計測時刻、46…経過時間、47…評価パラメータ、48…調節機構部、49…駆動信号。 10 (10A, 10B) ... Operation support device, 11 ... Measurement signal receiving unit (receiving unit), 12 ... Coordinate conversion unit, 15 ... Expanding unit, 16 ... Overlapping area detection unit (detection unit), 17 ... Shape map generation unit (Generation unit), 18 ... Monitor, 20 ... Work area, 21 ... Camera (shape measurement sensor), 22 ... Work robot, 25 ... Structure, 25a ... Target structure, 25b ... Peripheral structure, 26 ... Measurement signal, 27 ... Point group data, 28 ... Solid data, 30 ... Working robot control unit, 31 ... Control information, 32 ... Robot parts shape model, 33 ... Control signal, 34 ... Gripper, 35 ... Overlapping area, 36 ... Update area, 37 ... Shape map, 38 ... Link, 39 ... Servo motor, 40 ... Camera position drive unit, 41 ... Elapsed time calculation unit (calculation unit), 42 ... Reliability evaluation unit, 45 ... Camera measurement time, 46 ... Elapsed time, 47 ... evaluation parameter, 48 ... adjustment mechanism, 49 ... drive signal.
Claims (7)
前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換される座標変換部と、
作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開される展開部と、
前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出する検出部と、
前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成する生成部と、を備える作業ロボットの操作支援装置。 A receiver that sequentially receives the measurement signals of the structure measured by the shape measurement sensor in the work area,
A coordinate conversion unit that converts point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
A three-dimensional data showing the three-dimensional shape of the work robot is developed in the coordinate system of the work area based on the control information, and the expansion unit.
A detection unit that detects an overlapping area between the point cloud data and the three-dimensional data in the coordinate system of the work area.
An operation support device for a work robot, comprising a generation unit that updates the point cloud data in an update area other than the overlap area and generates a shape map of the work area.
前記形状マップを構成する各々の前記点群データに関連付けられた前記形状計測センサの計測時刻に基づいて経過時間を計算する計算部と、
前記経過時間に基づいて、各々の前記点群データの信頼性を評価する信頼性評価部と、を備える作業ロボットの操作支援装置。 In the operation support device for the work robot according to claim 1.
A calculation unit that calculates the elapsed time based on the measurement time of the shape measurement sensor associated with each of the point cloud data constituting the shape map, and a calculation unit.
An operation support device for a work robot, comprising a reliability evaluation unit that evaluates the reliability of each of the point cloud data based on the elapsed time.
前記信頼性の評価パラメータに基づいて、前記形状計測センサの計測領域から前記作業ロボットを退避させる初期化を実行させる作業ロボットの操作支援装置。 In the operation support device for the work robot according to claim 2.
An operation support device for a work robot that performs initialization to retract the work robot from the measurement area of the shape measurement sensor based on the reliability evaluation parameter.
前記信頼性の評価パラメータに基づいて、前記形状計測センサを位置変更し、計測領域を変更させる作業ロボットの操作支援装置。 In the operation support device for the work robot according to claim 2 or 3.
An operation support device for a work robot that changes the position of the shape measurement sensor and changes the measurement area based on the reliability evaluation parameter.
前記信頼性は、前記構造物の前記点群データと前記作業ロボットの前記立体データとの距離にも基づいて評価される作業ロボットの操作支援装置。 The operation support device for the work robot according to any one of claims 2 to 4.
The reliability is an operation support device for a work robot, which is evaluated based on the distance between the point cloud data of the structure and the three-dimensional data of the work robot.
座標変換部で、前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換されるステップと、
展開部で、作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開されるステップと、
検出部が、前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出するステップと、
生成部が、前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成するステップと、を含む作業ロボットの操作支援方法。 A step in which the receiving unit sequentially receives the measurement signal of the structure measured by the camera in the work area.
In the coordinate conversion unit, the point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
In the expansion unit, the step in which the three-dimensional data showing the three-dimensional shape of the work robot is expanded in the coordinate system of the work area based on the control information, and
A step in which the detection unit detects an overlapping region between the point cloud data and the three-dimensional data in the coordinate system of the work area.
A work robot operation support method including a step in which a generation unit updates the point cloud data in an update area other than the overlapping area and generates a shape map of the work area.
作業エリアで形状計測センサが計測した構造物の計測信号を逐次的に受信するステップ、
前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換されるステップ、
作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開されるステップ、
前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出するステップ、
前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成するステップ、を実行させる作業ロボットの操作支援プログラム。 On the computer
Step to sequentially receive the measurement signal of the structure measured by the shape measurement sensor in the work area,
A step in which point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
A step in which three-dimensional data showing the three-dimensional shape of a work robot is developed in the coordinate system of the work area based on control information.
A step of detecting an overlapping area between the point cloud data and the three-dimensional data in the coordinate system of the work area.
An operation support program for a work robot that updates a point cloud data in an update area excluding the overlapping area and executes a step of generating a shape map of the work area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020087151A JP7490452B2 (en) | 2020-05-19 | 2020-05-19 | Working robot operation support device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020087151A JP7490452B2 (en) | 2020-05-19 | 2020-05-19 | Working robot operation support device, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021181134A true JP2021181134A (en) | 2021-11-25 |
JP7490452B2 JP7490452B2 (en) | 2024-05-27 |
Family
ID=78605908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020087151A Active JP7490452B2 (en) | 2020-05-19 | 2020-05-19 | Working robot operation support device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7490452B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5523386B2 (en) | 2011-04-15 | 2014-06-18 | 三菱電機株式会社 | Collision avoidance device |
JP2014079824A (en) | 2012-10-15 | 2014-05-08 | Toshiba Corp | Work screen display method and work screen display device |
JP2016040890A (en) | 2014-08-13 | 2016-03-24 | 株式会社リコー | Imaging device, information processing method, and information processing program |
JP6415291B2 (en) | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2020
- 2020-05-19 JP JP2020087151A patent/JP7490452B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7490452B2 (en) | 2024-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11220002B2 (en) | Robot simulation device | |
JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
JP4506685B2 (en) | Mobile robot | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP6816070B2 (en) | Interference avoidance device and robot system | |
JP2009006410A (en) | Remote operation support device and remote operation support program | |
JP2014014912A (en) | Robot system, robot, robot control device, robot control method and robot control program | |
KR102452924B1 (en) | Force-sense visualization apparatus, robot, and force-sense visualization program | |
JP2008023630A (en) | Arm-guiding moving body and method for guiding arm | |
JP2015174155A (en) | Robot, method of controlling robot, and control program of robot | |
WO2018043524A1 (en) | Robot system, robot system control device, and robot system control method | |
JP2019119027A (en) | Method of controlling robot system, and robot system | |
JP6948164B2 (en) | Work robot arm attitude control system and method | |
JP4849178B2 (en) | Mobile robot | |
JP2021181134A (en) | Operation assisting device for work robot, method and program | |
JP2005161498A (en) | Robot remote operation control device | |
US11926064B2 (en) | Remote control manipulator system and remote control assistance system | |
JP7376318B2 (en) | annotation device | |
TWI748234B (en) | Three-dimensional reconstruction device, three-dimensional reconstruction system, three-dimensional reconstruction method, and recording medium for recording three-dimensional reconstruction program | |
JP2021045816A (en) | Device, method and program for supporting operation of redundant degree of freedom robot arm | |
JP2021114222A (en) | Robot system and method of estimating its position | |
JP2021174089A (en) | Information processing device, information processing system, information processing method and program | |
JP2012022600A (en) | Mask image creation system | |
US20230010302A1 (en) | Generation of image for robot operation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240515 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7490452 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |