JP2021181134A - Operation assisting device for work robot, method and program - Google Patents

Operation assisting device for work robot, method and program Download PDF

Info

Publication number
JP2021181134A
JP2021181134A JP2020087151A JP2020087151A JP2021181134A JP 2021181134 A JP2021181134 A JP 2021181134A JP 2020087151 A JP2020087151 A JP 2020087151A JP 2020087151 A JP2020087151 A JP 2020087151A JP 2021181134 A JP2021181134 A JP 2021181134A
Authority
JP
Japan
Prior art keywords
work
area
shape
point cloud
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020087151A
Other languages
Japanese (ja)
Other versions
JP7490452B2 (en
Inventor
謙司 松崎
Kenji Matsuzaki
紘司 上田
Koji Ueda
俊一 川端
Shunichi Kawabata
直孝 菅沼
Naotaka Suganuma
憲二 笹川
Kenji Sasagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020087151A priority Critical patent/JP7490452B2/en
Publication of JP2021181134A publication Critical patent/JP2021181134A/en
Application granted granted Critical
Publication of JP7490452B2 publication Critical patent/JP7490452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide an operation assisting technique for a work robot, by which the shape of a structure in a work area can be recognized with high reliability.SOLUTION: An operation assisting device 10 includes: a reception unit 11 that sequentially receives measurement signals 26 of a structure 25, measured by a shape measurement sensor 21 in a work area 20; a coordinate conversion unit 12 by which a point group data 27 including a three-dimensional shape of the structure 25 reproduced from the measurement signals 26 is converted into a coordinate system of the work area 20 from a coordinate system of the shape measurement sensor 21; a development unit 15 by which three-dimensional data 28 indicating a three-dimensional shape of a work robot 22 is developed into the coordinate system of the work area 20, based on control information 31; a detection unit 16 that detects an overlap area 35 of the point-group data 27 and the three-dimensional data 28 in the coordinate system of the work area 20; and a generation unit 17 that updates the point-group data 27 in an update area excluding the overlap area 35 and generates a shape map 37 for the work area 20.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、遠隔操作される作業ロボットの操作支援技術に関する。 An embodiment of the present invention relates to an operation support technique for a remotely controlled work robot.

多関節マニピュレータ等といった作業ロボットの遠隔操作は、対象構造物やその周辺構造物との衝突を回避するため、作業状態を監視カメラで確認しながら行われる。このため、動作中の作業ロボットの姿勢によっては、監視カメラの視界が遮られ死角が生じることにより、作業状態の確認が困難になる場合がある。 Remote control of a work robot such as an articulated manipulator is performed while checking the work state with a surveillance camera in order to avoid collision with the target structure and its surrounding structures. Therefore, depending on the posture of the working robot during operation, the field of view of the surveillance camera may be obstructed and a blind spot may be generated, which may make it difficult to confirm the working state.

このような監視カメラの視界の死角を解消する方法として、次のような公知技術が提案されている。一つ目として、複数の監視カメラを作業エリアに設置し、監視カメラのメイン画像の死角領域に、別の監視カメラのサブ画像を合成する公知技術が提案されている。二つ目として、作業エリアに配置されている構造物の三次元形状に基づいて、作業ロボットが衝突しない動作を仮想空間上で計画する公知技術が提案されている。この三次元形状としては、作業エリアにおける実測データや設計データが利用される。 The following publicly known techniques have been proposed as a method for eliminating the blind spot in the field of view of such a surveillance camera. First, a publicly known technique has been proposed in which a plurality of surveillance cameras are installed in a work area and a sub-image of another surveillance camera is synthesized in a blind spot area of the main image of the surveillance camera. Secondly, there has been proposed a publicly known technique for planning an operation in a virtual space in which a work robot does not collide based on a three-dimensional shape of a structure arranged in a work area. As this three-dimensional shape, actual measurement data and design data in the work area are used.

特開2006−53922号公報Japanese Unexamined Patent Publication No. 2006-53922

しかし、上述した一つ目の公知技術では、作業環境の制約を受けて、作業エリアに設置できる監視カメラの数や位置が制限される場合がある。また、メイン画像の死角領域にサブ画像を合成することは、視点の異なる画像を嵌め込むことになるため、写り込む構造物の姿勢の連続性が失われ、遠隔作業において誤操作を生じさせる懸念がある。この懸念は、複数の監視カメラの配置間隔を大きくとり互いの死角を効率的に補完できるようにする程、顕著になる。 However, in the first known technique described above, the number and positions of surveillance cameras that can be installed in the work area may be limited due to restrictions on the work environment. In addition, synthesizing a sub-image in the blind spot area of the main image causes images with different viewpoints to be fitted, so that the continuity of the posture of the reflected structure is lost, and there is a concern that erroneous operation may occur in remote work. be. This concern becomes more pronounced as the distance between multiple surveillance cameras is increased so that the blind spots of each other can be efficiently complemented.

また上述した二つ目の公知技術では、三次元形状として設計データを利用する場合、作業エリアに配置される構造物の形状が実際と異なったり、この構造物が運搬・撤去される等の環境変化に対応できなかったりして、信頼性に欠ける課題がある。この課題の解決策の一つとして作業エリアの実測データの利用が挙げられる。しかし、この実測データの計測領域に作業ロボットの一部が含まれる場合、作業エリアに配置される構造物の形状を認識できない課題があった。 In the second known technique described above, when design data is used as a three-dimensional shape, the shape of the structure arranged in the work area may differ from the actual shape, or the structure may be transported or removed. There is a problem of lack of reliability, such as being unable to respond to changes. One of the solutions to this problem is the use of measured data in the work area. However, when a part of the work robot is included in the measurement area of the measured data, there is a problem that the shape of the structure arranged in the work area cannot be recognized.

本発明の実施形態はこのような事情を考慮してなされたもので、作業エリアにおける構造物の形状を、高い信頼性で認識できる作業ロボットの操作支援技術を提供することを目的とする。 An embodiment of the present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an operation support technique for a work robot that can recognize the shape of a structure in a work area with high reliability.

実施形態に係る作業ロボットの操作支援装置において、作業エリアで形状計測センサが計測した構造物の計測信号を逐次的に受信する受信部と、前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換される座標変換部と、作業ロボットの三次元形状を示す立体データが制御情報に基づいて前記作業エリアの座標系に展開される展開部と、前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出する検出部と、前記重複領域を除く更新領域において前記点群データを更新し前記作業エリアの形状マップを生成する生成部と、を備えている。 In the operation support device of the work robot according to the embodiment, the receiving unit that sequentially receives the measurement signal of the structure measured by the shape measurement sensor in the work area and the three-dimensional shape of the structure reproduced from the measurement signal. The point cloud data including the point cloud data is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area, and the three-dimensional data showing the three-dimensional shape of the work robot is the coordinates of the work area based on the control information. The expansion unit developed in the system, the detection unit that detects the overlapping area between the point cloud data and the solid data in the coordinate system of the work area, and the point cloud data are updated in the update area excluding the overlapping area. It includes a generation unit that generates a shape map of the work area.

本発明の実施形態により、作業エリアにおける構造物の形状を、高い信頼性で認識できる作業ロボットの操作支援技術が提供される。 An embodiment of the present invention provides a work robot operation support technique capable of recognizing the shape of a structure in a work area with high reliability.

本発明の第1実施形態に係る作業ロボットの操作支援装置の構成図。The block diagram of the operation support apparatus of the work robot which concerns on 1st Embodiment of this invention. 初期化された作業ロボットを示す構成図。A block diagram showing an initialized work robot. 作業ロボットを初期化した直後にカメラで計測された点群データで表現される三次元形状。A three-dimensional shape represented by point cloud data measured by a camera immediately after initializing the work robot. 作業ロボットの操作過程においてカメラで計測された点群データで表現される三次元形状。A three-dimensional shape represented by point cloud data measured by a camera during the operation process of a work robot. 作業ロボットの操作過程において生成された作業エリアの形状マップ。A shape map of the work area generated during the operation process of the work robot. 本発明の第2実施形態に係る作業ロボットの操作支援装置の構成図。The block diagram of the operation support apparatus of the work robot which concerns on 2nd Embodiment of this invention. 作業ロボットの操作支援方法及び操作支援プログラムの実施形態を説明するフローチャート。The flowchart explaining the operation support method of the work robot and the embodiment of the operation support program.

(第1実施形態)
以下、本発明の実施形態を添付図面に基づいて説明する。図1は本発明の第1実施形態に係る作業ロボットの操作支援装置10Aの構成図である。このように操作支援装置10A(10)は、作業エリア20で形状計測センサであるカメラ21が計測した構造物25(25a,25b)の計測信号26を逐次的に受信する受信部である計測信号受信部11と、この計測信号26から再現される構造物25の三次元形状を含む点群データ27がカメラ21の座標系から作業エリア20の座標系に変換される座標変換部12と、作業ロボット22の三次元形状を示す立体データ28が制御情報31に基づいて作業エリア20の座標系に展開される展開部15と、作業エリア20の座標系において点群データ27と立体データ28との重複領域35を検出する検出部である重複領域検出部16と、この重複領域35を除く更新領域36(図5)において点群データ27を更新し作業エリア20の形状マップ37を生成する生成部である形状マップ生成部17と、を備えている。
(First Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a configuration diagram of an operation support device 10A for a work robot according to the first embodiment of the present invention. In this way, the operation support device 10A (10) is a measurement signal that is a receiving unit that sequentially receives the measurement signal 26 of the structure 25 (25a, 25b) measured by the camera 21 that is the shape measurement sensor in the work area 20. The receiving unit 11, the coordinate conversion unit 12 in which the point group data 27 including the three-dimensional shape of the structure 25 reproduced from the measurement signal 26 is converted from the coordinate system of the camera 21 to the coordinate system of the work area 20 and the work. The expansion unit 15 in which the three-dimensional data 28 showing the three-dimensional shape of the robot 22 is expanded in the coordinate system of the work area 20 based on the control information 31, and the point group data 27 and the three-dimensional data 28 in the coordinate system of the work area 20. A generation unit that updates the point group data 27 in the overlap area detection unit 16 that detects the overlap area 35 and the update area 36 (FIG. 5) excluding the overlap area 35 and generates the shape map 37 of the work area 20. The shape map generation unit 17 is provided.

本実施形態では、作業ロボット22として多関節型のマニピュレータが例示され、作業エリア20において、作業対象となる対象構造物25a(構造物25)を把持し、移動させる作業を例示する。なお、作業ロボット22は、オペレータ(図示略)により遠隔操作されるものとし、オペレータはカメラ21からの動画像を介して対象構造物25aに対する作業状況を把握する。 In the present embodiment, an articulated manipulator is exemplified as the work robot 22, and the work of grasping and moving the target structure 25a (structure 25) to be worked in the work area 20 is exemplified. The work robot 22 is remotely controlled by an operator (not shown), and the operator grasps the work status of the target structure 25a via a moving image from the camera 21.

作業ロボット22は手先にグリッパ34を具備しており、作業エリア20に配置されている。なお、作業ロボット22は、作業エリア20の床面に一端が固定されるものが例示されているが、その設置形態に限定はない。また、多関節型のマニピュレータを台車(図示略)に設置し、作業エリア20の任意の位置に移動させることもできる。この場合は、作業エリア20の座標系における台車の移動位置を測定して、マニピュレータ等の作業ロボット22の位置情報を展開部15の処理に反映させる必要がある。 The work robot 22 is provided with a gripper 34 at the hand and is arranged in the work area 20. Although one end of the work robot 22 is fixed to the floor surface of the work area 20, the installation form thereof is not limited. Further, an articulated manipulator can be installed on a trolley (not shown) and moved to an arbitrary position in the work area 20. In this case, it is necessary to measure the moving position of the dolly in the coordinate system of the work area 20 and reflect the position information of the work robot 22 such as a manipulator in the processing of the developing unit 15.

この作業エリア20には、対象構造物25aの他に、構造物25として周辺構造物25bも配置されている。オペレータ(図示略)は、これら周辺構造物25bと作業ロボット22との機械的干渉にも注意を払いつつ、対象構造物25aに対し操作を行う。 In the work area 20, in addition to the target structure 25a, a peripheral structure 25b is also arranged as the structure 25. The operator (not shown) operates on the target structure 25a while paying attention to the mechanical interference between the peripheral structures 25b and the working robot 22.

カメラ21は、作業エリア20に設置されており、構造物25の三次元形状を計測可能な機器である。カメラ21としては、複数台の光学撮像機器を組み合わせステレオ視によって形状を計測するものや、レーザレンジファインダや距離画像センサによって形状を計測するものが挙げられ、三次元形状の計測機器である形状計測センサとして一般的なものを採用することができる。 The camera 21 is installed in the work area 20 and is a device capable of measuring the three-dimensional shape of the structure 25. Examples of the camera 21 include a camera that measures a shape by combining a plurality of optical imaging devices and a stereoscopic view, and a camera that measures a shape by a laser range finder or a distance image sensor. Shape measurement is a three-dimensional shape measuring device. A general sensor can be adopted.

そして、カメラ21は、計測した構造物25の表面形状を、カメラ座標系における点群データとして処理し、計測信号26に載せて逐次的に送信する。そして、計測信号受信部11では、カメラ21から送信される計測信号26を逐次的に受信し、作業ロボット22や構造物25に動きがあるときは、点群データ27を動画像として捉える。 Then, the camera 21 processes the measured surface shape of the structure 25 as point cloud data in the camera coordinate system, puts it on the measurement signal 26, and sequentially transmits it. Then, the measurement signal receiving unit 11 sequentially receives the measurement signal 26 transmitted from the camera 21, and when the working robot 22 or the structure 25 is moving, the point cloud data 27 is captured as a moving image.

座標変換部12は、計測信号26においてカメラ21の座標系で定義されていたものを、作業エリア20の座標系で定義されるように点群データ27を変換するものである。ここで作業エリア20の座標系は、カメラ21から受信された構造物25の点群データ27と制御情報31から展開された作業ロボット22の立体データ28とを、共通の三次元空間で再現するための座標系である。なお、後述するようにこの点群データ27には、作業エリア20内の三次元形状として構造物25だけでなく、作業ロボット22の一部が写り込むことがある。 The coordinate conversion unit 12 converts the point cloud data 27 defined in the coordinate system of the camera 21 in the measurement signal 26 into the coordinate system of the work area 20. Here, the coordinate system of the work area 20 reproduces the point cloud data 27 of the structure 25 received from the camera 21 and the three-dimensional data 28 of the work robot 22 developed from the control information 31 in a common three-dimensional space. It is a coordinate system for. As will be described later, not only the structure 25 but also a part of the working robot 22 may be reflected in the point cloud data 27 as a three-dimensional shape in the working area 20.

作業ロボット22は、複数のリンク38と、各々のリンク38の末端を接続し関節として機能するサーボモータ39と、対象構造物25aを把持するためのグリッパ34と、から構成されている。作業ロボット制御部30は、予め定められた動作計画又はオペレータ(図示略)の操作指令に従って、各関節を構成するサーボモータ39の動作を制御し、作業ロボット22の姿勢を制御する。 The working robot 22 is composed of a plurality of links 38, a servomotor 39 that connects the ends of the respective links 38 and functions as joints, and a gripper 34 for gripping the target structure 25a. The work robot control unit 30 controls the operation of the servomotors 39 constituting each joint according to a predetermined motion plan or an operation command of an operator (not shown), and controls the posture of the work robot 22.

この作業ロボット制御部30は、サーボモータ39等を駆動するための制御信号33を作業ロボット22に直接送出する他に、サーボモータ39の駆動量を示す制御情報31を操作支援装置10に対しても送出する。なおこの制御情報31は、作業ロボット制御部30からではなく、作業ロボット22から直接伝送される場合もある。 The work robot control unit 30 directly sends a control signal 33 for driving the servomotor 39 and the like to the work robot 22, and also sends control information 31 indicating the drive amount of the servomotor 39 to the operation support device 10. Is also sent. The control information 31 may be directly transmitted from the work robot 22 instead of the work robot control unit 30.

展開部15は、作業ロボット22のパーツ(例えばリンク38)の形状モデルであるロボットパーツ形状モデル32と、作業ロボット22のパーツ(例えばサーボモータ39)の制御情報31と、から作業ロボット22の三次元形状(姿勢)を示す立体データ28を仮想的に再現する。なおロボットパーツ形状モデル32は三次元CADデータ等の設計情報を用いて予め準備することができ、制御情報31はサーボモータ39におけるリアルタイムの角変位データを用いることができる。これにより、立体データ28を、点群データ27と共通化した作業エリア20の座標系に逐次的に更新しながら展開し、その動きが仮想的に再現される。 The unfolding unit 15 is a tertiary of the work robot 22 from the robot part shape model 32 which is a shape model of the parts of the work robot 22 (for example, the link 38), the control information 31 of the parts of the work robot 22 (for example, the servo motor 39), and so on. The three-dimensional data 28 showing the original shape (attitude) is virtually reproduced. The robot part shape model 32 can be prepared in advance using design information such as three-dimensional CAD data, and the control information 31 can use real-time angular displacement data in the servomotor 39. As a result, the three-dimensional data 28 is expanded while being sequentially updated in the coordinate system of the work area 20 shared with the point cloud data 27, and the movement is virtually reproduced.

図2は、初期化された作業ロボット22を示す構成図である。図3は、作業ロボット22を初期化した直後にカメラ21で計測された点群データ27で表現される三次元形状である。初期化とは、カメラ21の計測領域から退避する姿勢を作業ロボット22にとらせることである。 FIG. 2 is a configuration diagram showing an initialized work robot 22. FIG. 3 is a three-dimensional shape represented by the point cloud data 27 measured by the camera 21 immediately after the working robot 22 is initialized. Initialization means that the working robot 22 takes a posture of retracting from the measurement area of the camera 21.

図4は、作業ロボット22の操作過程においてカメラ21で計測された点群データ27で表現される三次元形状である。このように、カメラ21と構造物25との間に作業ロボット22が入り込んだ時は、取得された点群データ27には作業ロボット22の三次元形状が含まれてしまう。つまり、カメラ21の計測領域において、作業ロボット22の死角になった構造物25の三次元形状は点群データ27に反映されないことになる。 FIG. 4 is a three-dimensional shape represented by the point cloud data 27 measured by the camera 21 in the operation process of the work robot 22. As described above, when the working robot 22 enters between the camera 21 and the structure 25, the acquired point cloud data 27 includes the three-dimensional shape of the working robot 22. That is, in the measurement area of the camera 21, the three-dimensional shape of the structure 25 that is the blind spot of the work robot 22 is not reflected in the point cloud data 27.

計測信号26から再現された点群データ27そのものからは、構造物25に対応する三次元形状か、作業ロボット22に対応する三次元形状かの区別ができない。そこでカメラ21で撮像するときは、撮像の開始前に作業ロボット22を初期化し、作業エリア20における構造物25の配置を正確に反映した点群データ27を取得することから始める。 From the point cloud data 27 itself reproduced from the measurement signal 26, it is not possible to distinguish between the three-dimensional shape corresponding to the structure 25 and the three-dimensional shape corresponding to the working robot 22. Therefore, when taking an image with the camera 21, the work robot 22 is initialized before the start of the image pickup, and the point cloud data 27 that accurately reflects the arrangement of the structure 25 in the work area 20 is acquired.

図1に戻って説明を続ける。
作業ロボット22の操作過程でカメラ21の計測領域に作業ロボット22が写り込むと、この写り込みの部分において、作業エリア20の座標系で点群データ27と立体データ28との重複領域35が発生する。重複領域検出部16は、作業エリア20の座標系において、点群データ27と立体データ28とを照合し、両者の重複領域35を検出する。
The explanation will be continued by returning to FIG.
When the work robot 22 is reflected in the measurement area of the camera 21 in the operation process of the work robot 22, an overlapping area 35 of the point cloud data 27 and the three-dimensional data 28 is generated in the coordinate system of the work area 20 in this reflected portion. do. The overlapping area detection unit 16 collates the point cloud data 27 and the three-dimensional data 28 in the coordinate system of the work area 20, and detects the overlapping area 35 of both.

図5は、作業ロボット22の操作過程において生成された作業エリア20の形状マップ37である。ここで、逐次的に受信する計測信号26において、図3に示すような構造物25のみの点群データ27から、図4に示すような作業ロボット22が写り込んだ点群データ27に、フレームが切り替わったとする。この図3から図4に切り替わるタイミングで、初めて重複領域35が検出される。 FIG. 5 is a shape map 37 of the work area 20 generated in the operation process of the work robot 22. Here, in the measurement signal 26 that is sequentially received, the frame is transferred from the point cloud data 27 of only the structure 25 as shown in FIG. 3 to the point cloud data 27 in which the working robot 22 is reflected as shown in FIG. Is switched. The overlapping region 35 is detected for the first time at the timing of switching from FIG. 3 to FIG.

図1に戻って説明を続ける。
形状マップ生成部17は、図4で示されるような最新タイミングのフレームを構成する点群データ27を、重複領域35を除いた更新領域36(図5)とする。そして、その直前の図3で示されるタイミングのフレームの点群データ27に対し、更新領域36の部分のみを上書きして更新する。
The explanation will be continued by returning to FIG.
The shape map generation unit 17 uses the point cloud data 27 that constitutes the latest timing frame as shown in FIG. 4 as the update area 36 (FIG. 5) excluding the overlapping area 35. Then, only the part of the update area 36 is overwritten and updated with respect to the point cloud data 27 of the frame at the timing shown in FIG. 3 immediately before that.

その結果、図5に示すように、更新領域36は最新のタイミングの点群データ27で構成され、重複領域35はその直前のタイミングの点群データ27で構成される形状マップ37が生成される。これにより、カメラ21の計測領域に作業ロボット22が写り込んだ場合であっても、その死角にある構造物25の三次元形状を把握することができる。 As a result, as shown in FIG. 5, the update area 36 is composed of the latest timing point cloud data 27, and the overlapping area 35 is generated as a shape map 37 composed of the point cloud data 27 of the immediately preceding timing. .. As a result, even when the work robot 22 is reflected in the measurement area of the camera 21, the three-dimensional shape of the structure 25 in the blind spot can be grasped.

また、作業ロボット22で対象構造物25aを把持し移動させるといった、構造物25の三次元形状の動きを伴う作業を想定する。この場合でも、作業ロボット22の死角に入らない更新領域36の点群データ27は最新状態に更新される。このため、把持され移動する対象構造物25aを映像により正確に追跡することができ、作業ロボット22の操作を適切に実施できる。 Further, it is assumed that the work robot 22 grips and moves the target structure 25a, which involves the movement of the three-dimensional shape of the structure 25. Even in this case, the point cloud data 27 in the update area 36, which does not enter the blind spot of the work robot 22, is updated to the latest state. Therefore, the target structure 25a that is gripped and moved can be accurately tracked by the image, and the operation of the working robot 22 can be appropriately performed.

モニタ18は、形状マップ37の動画像を映すものである。オペレータは、このモニタ18の動画像を目視しながら、作業ロボット22を操作する。また、形状マップ37は、作業ロボット制御部30にフィードバックされ、作業ロボット22の死角になって計測できないエリアの近傍では、作業ロボット22を低速動作させる等の安全性を高める作業ロボット22の動作制御に関与する。 The monitor 18 displays a moving image of the shape map 37. The operator operates the work robot 22 while visually observing the moving image of the monitor 18. Further, the shape map 37 is fed back to the work robot control unit 30, and in the vicinity of the area where the work robot 22 becomes a blind spot and cannot be measured, the operation control of the work robot 22 such as operating the work robot 22 at a low speed is enhanced. Involved in.

(第2実施形態)
次に図6を参照して本発明における第2実施形態について説明する。図6は本発明の第2実施形態に係る作業ロボットの操作支援装置10Bの構成図である。なお、図6において図1と共通の構成又は機能を有する部分は、同一符号で示し、重複する説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 6 is a configuration diagram of the operation support device 10B of the work robot according to the second embodiment of the present invention. In FIG. 6, the parts having the same configuration or function as those in FIG. 1 are indicated by the same reference numerals, and duplicate description will be omitted.

第2実施形態の操作支援装置10B(10)は、第1実施形態の作業ロボットの操作支援装置10A(図1)の構成に加えてさらに、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45に基づいて経過時間46を計算する計算部である経過時間計算部41と、経過時間46に基づいて各々の点群データ27の信頼性を評価する信頼性評価部42と、を備えている。 The operation support device 10B (10) of the second embodiment is added to each point group data 27 constituting the shape map 37 in addition to the configuration of the operation support device 10A (FIG. 1) of the work robot of the first embodiment. The elapsed time calculation unit 41, which is a calculation unit that calculates the elapsed time 46 based on the associated camera measurement time 45, and the reliability evaluation unit 42 that evaluates the reliability of each point group data 27 based on the elapsed time 46. And have.

形状マップ生成部17は、形状マップ37を構成する点群データ27の各々に、カメラ21で計測されたときのカメラ計測時刻45を関連付けている。そして経過時間計算部41は、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45を取得し、現在時刻との差分をとり経過時間46を計算する。 The shape map generation unit 17 associates each of the point cloud data 27 constituting the shape map 37 with a camera measurement time 45 when measured by the camera 21. Then, the elapsed time calculation unit 41 acquires the camera measurement time 45 associated with each point cloud data 27 constituting the shape map 37, takes the difference from the current time, and calculates the elapsed time 46.

この経過時間46は、更新領域36に属する点群データ27については実質的にゼロであり、重複領域35に属する点群データ27については重複領域35に連続して長期間属している程、長くなる。つまり、この経過時間46が長い点群データ27で構成される形状マップ37の領域は、古い作業状態を反映したもので信頼性が低いといえる。 The elapsed time 46 is substantially zero for the point cloud data 27 belonging to the update region 36, and the point cloud data 27 belonging to the overlapping region 35 is longer as it continuously belongs to the overlapping region 35 for a long period of time. Become. That is, it can be said that the region of the shape map 37 composed of the point cloud data 27 having a long elapsed time 46 reflects the old working state and has low reliability.

信頼性評価部42は、経過時間46に基づいて各々の点群データ27の信頼性を評価するものである。経過時間46の逆数を信頼性の評価パラメータ47として定義する。このように定義した評価パラメータ47に基づき、点群データ27が長期間に亘って更新されていないことを、モニタ18に表示される形状マップ37の当該領域に明示し、オペレータに注意喚起することができる。 The reliability evaluation unit 42 evaluates the reliability of each point cloud data 27 based on the elapsed time 46. The reciprocal of the elapsed time 46 is defined as the reliability evaluation parameter 47. Based on the evaluation parameter 47 defined in this way, it is clearly shown in the area of the shape map 37 displayed on the monitor 18 that the point cloud data 27 has not been updated for a long period of time, and the operator is alerted. Can be done.

また、この評価パラメータ47を作業ロボット制御部30にフィードバックし、作業ロボット22の死角になって計測できないエリアの近傍では、作業ロボット22を低速動作させる等の安全性を高めた制御を実施する。さらに評価パラメータ47が基準値を下回り、看過できないレベルに信頼性が低下した場合、作業ロボット22の初期化を実行し、作業ロボット22をカメラ21の計測領域から退避させる。これにより、形状マップ37において重複領域35は解消されて全体が更新領域36となり、全ての点群データ27における評価パラメータ47が向上し信頼性が回復する。 Further, the evaluation parameter 47 is fed back to the work robot control unit 30, and in the vicinity of the area where the work robot 22 becomes a blind spot and cannot be measured, the work robot 22 is operated at a low speed to perform control with enhanced safety. Further, when the evaluation parameter 47 falls below the reference value and the reliability drops to a level that cannot be overlooked, the working robot 22 is initialized and the working robot 22 is retracted from the measurement area of the camera 21. As a result, the overlapping region 35 is eliminated in the shape map 37, the entire region becomes the updated region 36, the evaluation parameters 47 in all the point cloud data 27 are improved, and the reliability is restored.

さらに第2実施形態の操作支援装置10Bにおいて、カメラ21は、計測領域を自在に調節できる調節機構部48に支持されている。この調節機構部48として、多関節型アーム機構が例示されているが、特に限定はなく、パン・チルト調整を備えた機構、直動移動機構を採用する場合もある。 Further, in the operation support device 10B of the second embodiment, the camera 21 is supported by an adjustment mechanism unit 48 that can freely adjust the measurement area. An articulated arm mechanism is exemplified as the adjusting mechanism portion 48, but the mechanism is not particularly limited, and a mechanism having pan / tilt adjustment and a linear motion moving mechanism may be adopted.

この調節機構部48は、カメラ位置駆動部40から出力される駆動信号49を入力し、作業エリア20におけるカメラ21の位置・角度を調整する。カメラ位置駆動部40は、信頼性評価部42から点群データ27の評価パラメータ47を受信し、信頼性の低い点群データ27に対応する構造物25の表面が計測領域に含まれるように、カメラ21の位置・角度を調整する。このように、評価パラメータ47は、点群データ27の信頼性を高めるために、カメラ21の計測領域を変更させる。 The adjustment mechanism unit 48 inputs a drive signal 49 output from the camera position drive unit 40, and adjusts the position and angle of the camera 21 in the work area 20. The camera position driving unit 40 receives the evaluation parameter 47 of the point cloud data 27 from the reliability evaluation unit 42 so that the surface of the structure 25 corresponding to the unreliable point cloud data 27 is included in the measurement area. Adjust the position and angle of the camera 21. In this way, the evaluation parameter 47 changes the measurement area of the camera 21 in order to improve the reliability of the point cloud data 27.

さらに第2実施形態の操作支援装置10Bは、構造物25の点群データ27と作業ロボット22の立体データ28との距離にも基づいて、各々の点群データ27の信頼性を評価することができる。作業ロボット22は、作業エリア20における稼働範囲が広いが、実際に使われる作業領域は限定的である場合が多い。特に作業ロボット22が対象構造物25aに接近して作業を行う場合、作業領域は対象構造物25aの近傍だけに限定される。 Further, the operation support device 10B of the second embodiment can evaluate the reliability of each point cloud data 27 based on the distance between the point cloud data 27 of the structure 25 and the three-dimensional data 28 of the work robot 22. can. The work robot 22 has a wide operating range in the work area 20, but the work area actually used is often limited. In particular, when the work robot 22 works in close proximity to the target structure 25a, the work area is limited to the vicinity of the target structure 25a.

そこで,作業ロボット22の作業位置に近い点群データ27ほど重要度が高いものとして信頼性の評価パラメータ47を低めに、逆に作業位置から遠方の点群データ27の評価パラメータは高めに設定する。 Therefore, the reliability evaluation parameter 47 is set lower as the point cloud data 27 closer to the work position of the work robot 22 is more important, and conversely, the evaluation parameter of the point cloud data 27 farther from the work position is set higher. ..

位置・角度が固定されたカメラ21による計測領域は、広い作業エリア20の中で限定的である。そこで、評価パラメータ47の低い(作業ロボット22に近接している)構造物25の表面領域ほど、点群データ27の更新領域36となる頻度を高め、カメラ21の位置・角度を調節し計測領域を変更する。これにより、作業エリア20が広域にわたる場合であっても、作業ロボット22の近傍の作業領域を形成する点群データ27は高い信頼性が確保される。 The measurement area by the camera 21 whose position and angle are fixed is limited in the large work area 20. Therefore, the lower the evaluation parameter 47 is, the more frequently the surface region of the structure 25 (closer to the work robot 22) becomes the update region 36 of the point cloud data 27, and the position / angle of the camera 21 is adjusted to adjust the measurement region. To change. As a result, even when the work area 20 covers a wide area, the point cloud data 27 forming the work area in the vicinity of the work robot 22 is ensured with high reliability.

さらに、作業ロボット22の近傍の作業領域を形成する点群データ27は信頼性を高めつつ、広大な作業エリア20の全域にわたる形状マップ37を生成することができる。これにより、対象構造物25aの位置に遠方からアプローチするような、作業ロボット22の広範囲の動作計画にも、形状マップ37の活用の幅が広がる。なお,本実施形態において、作業ロボット22の作業対象となる対象構造物25aの近傍領域を構成する点群データ27の信頼性を高めることを目的としたが、これに限らず、作業エリア20の特性や作業目的に応じて点群データ27の信頼性を高めるエリアを個別に設定しても良い。 Further, the point cloud data 27 forming the work area in the vicinity of the work robot 22 can generate the shape map 37 over the entire area of the vast work area 20 while improving the reliability. As a result, the range of utilization of the shape map 37 is expanded to a wide range of motion planning of the work robot 22 such as approaching the position of the target structure 25a from a distance. In the present embodiment, the purpose is to improve the reliability of the point cloud data 27 constituting the vicinity region of the target structure 25a to be worked by the work robot 22, but the present invention is not limited to this, and the work area 20 is not limited to this. Areas that enhance the reliability of the point cloud data 27 may be individually set according to the characteristics and the work purpose.

図7のフローチャートに基づいて作業ロボットの操作支援方法及び操作支援プログラムの実施形態を説明する(適宜、図6参照)。形状計測センサの一例であるカメラ21が計測した構造物25(25a,25b)の計測信号26を逐次的に受信する(S11)。さらに、この計測信号26から再現される構造物25の三次元形状が含まれる点群データ27をカメラ21の座標系から作業エリア20の座標系に変換する(S12)。 An operation support method for the work robot and an embodiment of the operation support program will be described with reference to the flowchart of FIG. 7 (see FIG. 6 as appropriate). The measurement signal 26 of the structure 25 (25a, 25b) measured by the camera 21, which is an example of the shape measurement sensor, is sequentially received (S11). Further, the point cloud data 27 including the three-dimensional shape of the structure 25 reproduced from the measurement signal 26 is converted from the coordinate system of the camera 21 to the coordinate system of the work area 20 (S12).

次に、作業ロボット22の三次元形状を示す立体データ28を制御情報31に基づいて作業エリア20の座標系に展開する(S13)。そして、作業エリア20の座標系において点群データ27と立体データ28との重複領域35を検出する(S14)。さらに、この重複領域35を除く更新領域36(図5)において点群データ27を更新し(S15)、作業エリア20の形状マップ37を生成しモニタ18に表示する(S16)。 Next, the three-dimensional data 28 showing the three-dimensional shape of the work robot 22 is developed in the coordinate system of the work area 20 based on the control information 31 (S13). Then, the overlapping region 35 between the point cloud data 27 and the three-dimensional data 28 is detected in the coordinate system of the work area 20 (S14). Further, the point cloud data 27 is updated in the update area 36 (FIG. 5) excluding the overlapping area 35 (S15), the shape map 37 of the work area 20 is generated, and the point cloud data 37 is displayed on the monitor 18 (S16).

次に、形状マップ37を構成する各々の点群データ27に関連付けられたカメラ計測時刻45に基づいて経過時間46を計算し(S17)、この経過時間46に基づいて各々の点群データ27の信頼性の評価パラメータを計算する。この評価パラメータが基準値を下回る場合(S18 Yes)、モニタ18の形状マップ37の該当領域に警告を表示するとともに、作業ロボット22を初期化する(該当領域から作業ロボット22を退避させる)かもしくはカメラ21の位置・角度を調整する(S19)。そして、作業ロボット22の操作が終了するまで(S11)から(S19)のフローを繰り返す(S20 No: Yes END)。 Next, the elapsed time 46 is calculated based on the camera measurement time 45 associated with each point cloud data 27 constituting the shape map 37 (S17), and each point cloud data 27 is calculated based on this elapsed time 46. Calculate reliability evaluation parameters. When this evaluation parameter is below the reference value (S18 Yes), a warning is displayed in the corresponding area of the shape map 37 of the monitor 18 and the working robot 22 is initialized (the working robot 22 is retracted from the corresponding area). Adjust the position and angle of the camera 21 (S19). Then, the flow from (S11) to (S19) is repeated until the operation of the work robot 22 is completed (S20 No: Yes END).

以上述べた少なくともひとつの実施形態の作業ロボットの操作支援装置によれば、カメラの点群データと作業ロボットの立体データとの重複領域を検出することにより、作業エリアにおける構造物の形状を高い信頼性で認識することが可能となる。 According to the operation support device of the work robot of at least one embodiment described above, the shape of the structure in the work area is highly reliable by detecting the overlapping area between the point cloud data of the camera and the three-dimensional data of the work robot. It becomes possible to recognize by sex.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。また、操作支援装置の構成要素は、コンピュータのプロセッサで実現することも可能であり、操作支援プログラムにより動作させることが可能である。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention. Further, the components of the operation support device can be realized by the processor of the computer, and can be operated by the operation support program.

以上説明した作業ロボットの操作支援装置10は、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、又はCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fとを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。 The operation support device 10 for the work robot described above is a control device in which processors such as a dedicated chip, FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), or CPU (Central Processing Unit) are highly integrated. , Memory devices such as ROM (Read Only Memory) and RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) and SSD (Solid State Drive), display devices such as displays, mice and keyboards. It is equipped with an input device such as, and a communication I / F, and can be realized by a hardware configuration using a normal computer.

また作業ロボットの操作支援装置プログラムは、ROM等に予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。 Further, the operation support device program for the work robot is provided by incorporating it into a ROM or the like in advance. Alternatively, the program is provided as a file in an installable or executable format stored on a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may try to do it.

また、本実施形態に係る作業ロボットの操作支援プログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしてもよい。また、装置10は、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワーク又は専用線で相互に接続し、組み合わせて構成することもできる。 Further, the operation support program for the work robot according to the present embodiment may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. Further, the device 10 can also be configured by connecting separate modules that independently exhibit the functions of the components to each other by a network or a dedicated line and combining them.

10(10A,10B)…操作支援装置、11…計測信号受信部(受信部)、12…座標変換部、15…展開部、16…重複領域検出部(検出部)、17…形状マップ生成部(生成部)、18…モニタ、20…作業エリア、21…カメラ(形状計測センサ)、22…作業ロボット、25…構造物、25a…対象構造物、25b…周辺構造物、26…計測信号、27…点群データ、28…立体データ、30…作業ロボット制御部、31…制御情報、32…ロボットパーツ形状モデル、33…制御信号、34…グリッパ、35…重複領域、36…更新領域、37…形状マップ、38…リンク、39…サーボモータ、40…カメラ位置駆動部、41…経過時間計算部(計算部)、42…信頼性評価部、45…カメラ計測時刻、46…経過時間、47…評価パラメータ、48…調節機構部、49…駆動信号。 10 (10A, 10B) ... Operation support device, 11 ... Measurement signal receiving unit (receiving unit), 12 ... Coordinate conversion unit, 15 ... Expanding unit, 16 ... Overlapping area detection unit (detection unit), 17 ... Shape map generation unit (Generation unit), 18 ... Monitor, 20 ... Work area, 21 ... Camera (shape measurement sensor), 22 ... Work robot, 25 ... Structure, 25a ... Target structure, 25b ... Peripheral structure, 26 ... Measurement signal, 27 ... Point group data, 28 ... Solid data, 30 ... Working robot control unit, 31 ... Control information, 32 ... Robot parts shape model, 33 ... Control signal, 34 ... Gripper, 35 ... Overlapping area, 36 ... Update area, 37 ... Shape map, 38 ... Link, 39 ... Servo motor, 40 ... Camera position drive unit, 41 ... Elapsed time calculation unit (calculation unit), 42 ... Reliability evaluation unit, 45 ... Camera measurement time, 46 ... Elapsed time, 47 ... evaluation parameter, 48 ... adjustment mechanism, 49 ... drive signal.

Claims (7)

作業エリアで形状計測センサが計測した構造物の計測信号を逐次的に受信する受信部と、
前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換される座標変換部と、
作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開される展開部と、
前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出する検出部と、
前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成する生成部と、を備える作業ロボットの操作支援装置。
A receiver that sequentially receives the measurement signals of the structure measured by the shape measurement sensor in the work area,
A coordinate conversion unit that converts point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
A three-dimensional data showing the three-dimensional shape of the work robot is developed in the coordinate system of the work area based on the control information, and the expansion unit.
A detection unit that detects an overlapping area between the point cloud data and the three-dimensional data in the coordinate system of the work area.
An operation support device for a work robot, comprising a generation unit that updates the point cloud data in an update area other than the overlap area and generates a shape map of the work area.
請求項1に記載の作業ロボットの操作支援装置において、
前記形状マップを構成する各々の前記点群データに関連付けられた前記形状計測センサの計測時刻に基づいて経過時間を計算する計算部と、
前記経過時間に基づいて、各々の前記点群データの信頼性を評価する信頼性評価部と、を備える作業ロボットの操作支援装置。
In the operation support device for the work robot according to claim 1.
A calculation unit that calculates the elapsed time based on the measurement time of the shape measurement sensor associated with each of the point cloud data constituting the shape map, and a calculation unit.
An operation support device for a work robot, comprising a reliability evaluation unit that evaluates the reliability of each of the point cloud data based on the elapsed time.
請求項2に記載の作業ロボットの操作支援装置において、
前記信頼性の評価パラメータに基づいて、前記形状計測センサの計測領域から前記作業ロボットを退避させる初期化を実行させる作業ロボットの操作支援装置。
In the operation support device for the work robot according to claim 2.
An operation support device for a work robot that performs initialization to retract the work robot from the measurement area of the shape measurement sensor based on the reliability evaluation parameter.
請求項2又は請求項3に記載の作業ロボットの操作支援装置において、
前記信頼性の評価パラメータに基づいて、前記形状計測センサを位置変更し、計測領域を変更させる作業ロボットの操作支援装置。
In the operation support device for the work robot according to claim 2 or 3.
An operation support device for a work robot that changes the position of the shape measurement sensor and changes the measurement area based on the reliability evaluation parameter.
請求項2から請求項4のいずれか1項に記載の作業ロボットの操作支援装置において、
前記信頼性は、前記構造物の前記点群データと前記作業ロボットの前記立体データとの距離にも基づいて評価される作業ロボットの操作支援装置。
The operation support device for the work robot according to any one of claims 2 to 4.
The reliability is an operation support device for a work robot, which is evaluated based on the distance between the point cloud data of the structure and the three-dimensional data of the work robot.
受信部が、作業エリアでカメラが計測した構造物の計測信号を逐次的に受信するステップと、
座標変換部で、前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換されるステップと、
展開部で、作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開されるステップと、
検出部が、前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出するステップと、
生成部が、前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成するステップと、を含む作業ロボットの操作支援方法。
A step in which the receiving unit sequentially receives the measurement signal of the structure measured by the camera in the work area.
In the coordinate conversion unit, the point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
In the expansion unit, the step in which the three-dimensional data showing the three-dimensional shape of the work robot is expanded in the coordinate system of the work area based on the control information, and
A step in which the detection unit detects an overlapping region between the point cloud data and the three-dimensional data in the coordinate system of the work area.
A work robot operation support method including a step in which a generation unit updates the point cloud data in an update area other than the overlapping area and generates a shape map of the work area.
コンピュータに、
作業エリアで形状計測センサが計測した構造物の計測信号を逐次的に受信するステップ、
前記計測信号から再現される前記構造物の三次元形状を含む点群データが前記形状計測センサの座標系から前記作業エリアの座標系に変換されるステップ、
作業ロボットの三次元形状を示す立体データが、制御情報に基づいて、前記作業エリアの座標系に展開されるステップ、
前記作業エリアの座標系において前記点群データと前記立体データとの重複領域を検出するステップ、
前記重複領域を除く更新領域において前記点群データを更新し、前記作業エリアの形状マップを生成するステップ、を実行させる作業ロボットの操作支援プログラム。
On the computer
Step to sequentially receive the measurement signal of the structure measured by the shape measurement sensor in the work area,
A step in which point cloud data including the three-dimensional shape of the structure reproduced from the measurement signal is converted from the coordinate system of the shape measurement sensor to the coordinate system of the work area.
A step in which three-dimensional data showing the three-dimensional shape of a work robot is developed in the coordinate system of the work area based on control information.
A step of detecting an overlapping area between the point cloud data and the three-dimensional data in the coordinate system of the work area.
An operation support program for a work robot that updates a point cloud data in an update area excluding the overlapping area and executes a step of generating a shape map of the work area.
JP2020087151A 2020-05-19 2020-05-19 Working robot operation support device, method, and program Active JP7490452B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087151A JP7490452B2 (en) 2020-05-19 2020-05-19 Working robot operation support device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087151A JP7490452B2 (en) 2020-05-19 2020-05-19 Working robot operation support device, method, and program

Publications (2)

Publication Number Publication Date
JP2021181134A true JP2021181134A (en) 2021-11-25
JP7490452B2 JP7490452B2 (en) 2024-05-27

Family

ID=78605908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087151A Active JP7490452B2 (en) 2020-05-19 2020-05-19 Working robot operation support device, method, and program

Country Status (1)

Country Link
JP (1) JP7490452B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523386B2 (en) 2011-04-15 2014-06-18 三菱電機株式会社 Collision avoidance device
JP2014079824A (en) 2012-10-15 2014-05-08 Toshiba Corp Work screen display method and work screen display device
JP2016040890A (en) 2014-08-13 2016-03-24 株式会社リコー Imaging device, information processing method, and information processing program
JP6415291B2 (en) 2014-12-09 2018-10-31 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP7490452B2 (en) 2024-05-27

Similar Documents

Publication Publication Date Title
US11220002B2 (en) Robot simulation device
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP4506685B2 (en) Mobile robot
JP4961860B2 (en) Robot apparatus and control method of robot apparatus
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP6816070B2 (en) Interference avoidance device and robot system
JP2009006410A (en) Remote operation support device and remote operation support program
JP2014014912A (en) Robot system, robot, robot control device, robot control method and robot control program
KR102452924B1 (en) Force-sense visualization apparatus, robot, and force-sense visualization program
JP2008023630A (en) Arm-guiding moving body and method for guiding arm
JP2015174155A (en) Robot, method of controlling robot, and control program of robot
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
JP2019119027A (en) Method of controlling robot system, and robot system
JP6948164B2 (en) Work robot arm attitude control system and method
JP4849178B2 (en) Mobile robot
JP2021181134A (en) Operation assisting device for work robot, method and program
JP2005161498A (en) Robot remote operation control device
US11926064B2 (en) Remote control manipulator system and remote control assistance system
JP7376318B2 (en) annotation device
TWI748234B (en) Three-dimensional reconstruction device, three-dimensional reconstruction system, three-dimensional reconstruction method, and recording medium for recording three-dimensional reconstruction program
JP2021045816A (en) Device, method and program for supporting operation of redundant degree of freedom robot arm
JP2021114222A (en) Robot system and method of estimating its position
JP2021174089A (en) Information processing device, information processing system, information processing method and program
JP2012022600A (en) Mask image creation system
US20230010302A1 (en) Generation of image for robot operation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240515

R150 Certificate of patent or registration of utility model

Ref document number: 7490452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150