JP7230626B2 - robot equipment - Google Patents

robot equipment Download PDF

Info

Publication number
JP7230626B2
JP7230626B2 JP2019056900A JP2019056900A JP7230626B2 JP 7230626 B2 JP7230626 B2 JP 7230626B2 JP 2019056900 A JP2019056900 A JP 2019056900A JP 2019056900 A JP2019056900 A JP 2019056900A JP 7230626 B2 JP7230626 B2 JP 7230626B2
Authority
JP
Japan
Prior art keywords
monitor
tilt angle
camera
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019056900A
Other languages
Japanese (ja)
Other versions
JP2020157394A (en
Inventor
峻一 山崎
拓 清水
祥 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019056900A priority Critical patent/JP7230626B2/en
Publication of JP2020157394A publication Critical patent/JP2020157394A/en
Application granted granted Critical
Publication of JP7230626B2 publication Critical patent/JP7230626B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット装置に関する。 The present invention relates to a robotic device.

ロボット装置として、例えば、特許文献1に記載された装置が知られている。このロボット装置において、オペレータは、カメラで撮像された画像をモニタで確認しながらロボットの操作を行うことができる。 As a robot device, for example, the device described in Patent Document 1 is known. In this robot apparatus, the operator can operate the robot while checking the image captured by the camera on the monitor.

特許第4558682号Patent No. 4558682

このようなロボット装置においては、ロボットによる作業箇所が撮像されるように、カメラの撮像方向(向き)が変化する。この場合、オペレータがモニタに表示されるカメラの撮像画像を見ながらロボットの操作を行う際に、カメラの撮像方向の傾斜度合いも考慮してロボットを移動させる必要が生じることがある。しかしながら、オペレータは、モニタの表示画像を見ただけではカメラの傾斜度合いを容易に把握することは困難であり、ロボットの意図した操作を行うことができないことがある。このように、カメラの撮像方向が変化する場合であっても、オペレータがロボットの操作を容易に行うことができる装置が求められている。 In such a robot apparatus, the imaging direction (orientation) of the camera is changed so that the robot's work location is imaged. In this case, when the operator operates the robot while viewing the captured image of the camera displayed on the monitor, it may be necessary to consider the degree of inclination of the imaging direction of the camera when moving the robot. However, it is difficult for the operator to easily grasp the degree of tilt of the camera just by looking at the displayed image on the monitor, and the operator may not be able to perform the intended operation of the robot. Thus, there is a demand for a device that allows an operator to easily operate a robot even when the imaging direction of the camera changes.

そこで、本発明は、オペレータがロボットの操作を容易に行うことが可能なロボット装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a robot apparatus that allows an operator to easily operate the robot.

本発明の一側面に係るロボット装置は、関節を有するロボットと、撮像方向を変更可能であり、ロボットによる作業箇所を撮像するカメラと、カメラの撮像方向の傾斜角度であるカメラ傾斜角度を取得する傾斜角度取得部と、カメラの撮像画像を表示するモニタと、取得されたカメラ傾斜角度に応じて、モニタの画面が向く方向の傾斜角度であるモニタ傾斜角度を制御するモニタ制御部と、を備える。 A robot apparatus according to one aspect of the present invention includes a robot having joints, a camera capable of changing an imaging direction and imaging a work location by the robot, and acquiring a camera tilt angle that is the tilt angle of the imaging direction of the camera. A tilt angle acquisition unit, a monitor that displays an image captured by the camera, and a monitor control unit that controls the monitor tilt angle, which is the tilt angle of the direction in which the monitor screen faces, according to the acquired camera tilt angle. .

このロボット装置では、カメラ傾斜角度に応じて、モニタ傾斜角度が制御される。これにより、オペレータは、モニタを視認することにより、モニタ傾斜角度に基づいてカメラの傾斜度合いを容易に把握できる。従って、オペレータは、把握したカメラの傾斜度合いを考慮しつつ、ロボットの操作を容易に行うことができる。 In this robot device, the tilt angle of the monitor is controlled according to the tilt angle of the camera. As a result, the operator can easily grasp the tilt degree of the camera based on the monitor tilt angle by viewing the monitor. Therefore, the operator can easily operate the robot while considering the degree of inclination of the camera that has been grasped.

ロボット装置において、傾斜角度取得部は、カメラ傾斜角度として、上下方向におけるカメラの撮像方向の傾斜角度であるカメラチルト角を取得し、モニタ制御部は、モニタ傾斜角度として、上下方向におけるモニタの画面が向く方向の傾斜角度であるモニタチルト角を制御してもよい。ここで、例えば、モニタの表示画像内に地面(床面)が含まれていると、オペレータは、オペレータ自身の重力方向と表示画像における地面の垂直方向とが一致していると認識してしまうことがある。この場合、オペレータは、カメラの傾斜度合いを考慮せずにオペレータ自身の重力方向に基づいてロボットの操作を行い易くなり、意図した操作を行うことができないことがある。しかしながら、このような場合であってもモニタ制御部がモニタチルト角を制御することにより、オペレータは、カメラチルト角の傾斜度合いを容易に把握することができる。そして、オペレータは、把握したカメラチルト角の傾斜度合いを考慮してロボットの上下方向の操作を容易に行うことができる。 In the robot device, the tilt angle acquiring unit acquires the camera tilt angle, which is the tilt angle of the imaging direction of the camera in the vertical direction, as the camera tilt angle, and the monitor control unit acquires the monitor screen in the vertical direction as the monitor tilt angle. A monitor tilt angle, which is the tilt angle in the direction in which the is facing, may be controlled. Here, for example, if the ground (floor surface) is included in the display image of the monitor, the operator will recognize that the gravity direction of the operator and the vertical direction of the ground in the display image match. Sometimes. In this case, the operator tends to operate the robot based on the operator's own gravity direction without considering the degree of inclination of the camera, and may not be able to perform the intended operation. However, even in such a case, the monitor control section controls the monitor tilt angle, so that the operator can easily grasp the degree of inclination of the camera tilt angle. Then, the operator can easily operate the robot in the vertical direction in consideration of the degree of tilt of the camera tilt angle that has been grasped.

ロボット装置において、モニタ制御部は、取得されたカメラチルト角に基づいて、モニタの上下方向の位置を制御してもよい。この場合、オペレータは、カメラチルト角の傾斜度合いをより一層容易に把握でき、ロボットの操作を容易に行うことが可能となる。 In the robot apparatus, the monitor control unit may control the vertical position of the monitor based on the acquired camera tilt angle. In this case, the operator can more easily grasp the inclination degree of the camera tilt angle, and can easily operate the robot.

ロボット装置は、ロボットを操作するためにロボットのオペレータによって移動させられる操作入力部と、オペレータによって移動させられる操作入力部の位置を検出する位置検出部と、位置検出部によって検出された操作入力部の位置に基づいて、ロボットを駆動させるロボット制御部と、を更に備えていてもよい。この場合、ロボット装置は、オペレータによる操作入力部の移動に基づいてロボットを駆動できる。 The robot apparatus includes an operation input unit that is moved by the operator of the robot to operate the robot, a position detection unit that detects the position of the operation input unit that is moved by the operator, and an operation input unit that is detected by the position detection unit. and a robot controller that drives the robot based on the position of the . In this case, the robot device can drive the robot based on the movement of the operation input unit by the operator.

ロボット装置において、位置検出部は、モニタの画面の傾斜角度の変化と共に傾斜可能にモニタに取り付けられていてもよい。例えば、オペレータが操作入力部を上下に動かした場合、モニタ傾斜角度(カメラ傾斜角度)が異なるとセンサから出力される検出結果も異なる。すなわち、オペレータが同じ操作を行っても、カメラ傾斜角度に応じた検出結果が出力される。このような検出結果に基づいてロボットが駆動されることで、オペレータがカメラ傾斜角度を考慮して操作入力部を移動させなくても、カメラ傾斜角度を考慮したロボットの駆動が自動で行われる。従って、オペレータは、カメラ傾斜角度を考慮することなく、ロボットの操作を容易に行うことができる。 In the robot apparatus, the position detection unit may be attached to the monitor so as to be tiltable as the tilt angle of the screen of the monitor changes. For example, when the operator moves the operation input unit up and down, the sensor outputs different detection results if the monitor tilt angle (camera tilt angle) changes. That is, even if the operator performs the same operation, the detection result corresponding to the camera tilt angle is output. By driving the robot based on such a detection result, the robot is automatically driven in consideration of the camera tilt angle without the operator having to move the operation input unit in consideration of the camera tilt angle. Therefore, the operator can easily operate the robot without considering the tilt angle of the camera.

ロボット装置において、ロボット制御部は、位置検出部によって検出された操作入力部の位置をモニタ傾斜角度に基づいて補正して、ロボットを駆動させてもよい。この場合、オペレータは、カメラ傾斜角度を考慮して操作入力部を移動させなくても、カメラ傾斜角度を考慮したロボットの駆動が自動で行われる。従って、オペレータは、カメラ傾斜角度を考慮することなく、ロボットの操作を容易に行うことができる。 In the robot apparatus, the robot control section may correct the position of the operation input section detected by the position detection section based on the monitor tilt angle and drive the robot. In this case, even if the operator does not move the operation input unit in consideration of the camera tilt angle, the robot is automatically driven in consideration of the camera tilt angle. Therefore, the operator can easily operate the robot without considering the tilt angle of the camera.

ロボット装置は、ロボットのオペレータに対して3次元画像を表示する3次元モニタを更に備え、モニタ制御部は、3次元モニタによって表示される3次元画像を制御すると共に3次元モニタによって表示される仮想の3次元空間内にカメラの撮像画像を表示するモニタを表示させ、カメラ傾斜角度に基づいて3次元空間内におけるモニタのモニタ傾斜角度を制御してもよい。この場合、ロボット装置は、3次元空間内に表示されたモニタの傾斜によって、オペレータに対してカメラの傾斜度合いを認識させることができる。これにより、オペレータは、3次元モニタを用いてロボットの操作を容易に行うことができる。 The robot apparatus further includes a three-dimensional monitor for displaying a three-dimensional image to the operator of the robot, and the monitor control unit controls the three-dimensional image displayed by the three-dimensional monitor and the virtual image displayed by the three-dimensional monitor. A monitor that displays an image captured by the camera may be displayed in the three-dimensional space, and the monitor tilt angle of the monitor in the three-dimensional space may be controlled based on the camera tilt angle. In this case, the robot apparatus can make the operator recognize the degree of inclination of the camera from the inclination of the monitor displayed in the three-dimensional space. This allows the operator to easily operate the robot using the three-dimensional monitor.

ロボット装置は、ロボットを操作するためにロボットのオペレータによって移動させられる操作入力部と、ロボットによって移動させられる操作入力部の位置を検出する位置検出部と、位置検出部によって検出された操作入力部の位置に基づいて、ロボットを駆動させるロボット制御部と、を更に備え、ロボット制御部は、位置検出部によって検出された操作入力部の位置を取得されたカメラ傾斜角度に基づいて補正して、ロボットを駆動させてもよい。この場合、オペレータは、カメラ傾斜角度を考慮して操作入力部を移動させなくても、カメラ傾斜角度を考慮したロボットの駆動が自動で行われる。従って、オペレータは、カメラ傾斜角度を考慮することなく、ロボットの操作を容易に行うことができる。 The robot apparatus includes an operation input unit that is moved by an operator of the robot to operate the robot, a position detection unit that detects the position of the operation input unit moved by the robot, and an operation input unit that is detected by the position detection unit. a robot control unit that drives the robot based on the position of the robot, the robot control unit correcting the position of the operation input unit detected by the position detection unit based on the acquired camera tilt angle, You can drive the robot. In this case, even if the operator does not move the operation input unit in consideration of the camera tilt angle, the robot is automatically driven in consideration of the camera tilt angle. Therefore, the operator can easily operate the robot without considering the tilt angle of the camera.

本発明の一側面によれば、オペレータがロボットの操作を容易に行うことができる。 According to one aspect of the present invention, an operator can easily operate a robot.

図1は、マニピュレータ装置のマニピュレータ及びカメラを示す概略構成図である。FIG. 1 is a schematic configuration diagram showing a manipulator and a camera of a manipulator device. 図2は、マニピュレータ装置の操作ユニットを示す概略構成図である。FIG. 2 is a schematic configuration diagram showing an operation unit of the manipulator device. 図3は、マニピュレータ装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing the functional configuration of the manipulator device. 図4は、カメラの傾斜を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the tilt of the camera. 図5は、モニタの傾斜及び上下方向の移動を説明するための模式図である。FIG. 5 is a schematic diagram for explaining tilting and vertical movement of the monitor. 図6(a)及び図6(b)は、カメラの撮像画像を示す図である。FIGS. 6A and 6B are diagrams showing images captured by the camera. 図7は、オペレータがマニピュレータを操作する様子を示す模式図である。FIG. 7 is a schematic diagram showing how the operator operates the manipulator. 図8は、オペレータがマニピュレータを操作する様子を示す模式図である。FIG. 8 is a schematic diagram showing how the operator operates the manipulator. 図9は、変形例における操作検出部の取り付け位置を示す模式図である。FIG. 9 is a schematic diagram showing the attachment position of the operation detection unit in the modified example. 図10は、変形例においてオペレータがマニピュレータを操作する様子を示す模式図である。FIG. 10 is a schematic diagram showing how the operator operates the manipulator in the modified example. 図11は、変形例におけるVRゴーグルを用いて提示される仮想の3次元空間内のモニタを示す模式図である。FIG. 11 is a schematic diagram showing a monitor in a virtual three-dimensional space presented using VR goggles in the modification.

以下、本発明に係るロボット装置をマニピュレータを制御するマニピュレータ装置に適用した実施形態について図面を参照しながら説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。 An embodiment in which a robot apparatus according to the present invention is applied to a manipulator apparatus for controlling a manipulator will be described below with reference to the drawings. In the following description, the same or corresponding elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

図1~図3に示されるように、マニピュレータ装置(ロボット装置)1は、ロボットユニット10、及び操作ユニット20を備えている。このマニピュレータ装置1は、例えば、人が立ち入れない場所等における作業を遠隔操作によって行う場合などに用いられる。本実施形態において、マニピュレータ装置1は、作業対象物Wに対して各種の作業(位置を移動させる作業等)を行う。 As shown in FIGS. 1 to 3, a manipulator device (robot device) 1 includes a robot unit 10 and an operation unit 20. FIG. This manipulator device 1 is used, for example, when performing work in a place inaccessible to humans by remote control. In the present embodiment, the manipulator device 1 performs various operations on the work object W (such as moving the position).

図1及び図3に示されるように、ロボットユニット10は、マニピュレータ(ロボット)11、カメラユニット12、ロボット側制御装置13、及びロボット側通信装置14を備えている。マニピュレータ11、カメラユニット12、及びロボット側制御装置13は、一例として、作業対象物Wの近傍に設けられた機台Sに設置されている。但し、マニピュレータ11等は機台Sに設置されることに限定されない。例えば、マニピュレータ11等は、自走可能な無人車両に搭載されていてもよい。 As shown in FIGS. 1 and 3, the robot unit 10 includes a manipulator (robot) 11, a camera unit 12, a robot-side control device 13, and a robot-side communication device . The manipulator 11, the camera unit 12, and the robot-side control device 13 are installed on a machine stand S provided near the work object W, as an example. However, the manipulator 11 and the like are not limited to being installed on the machine base S. For example, the manipulator 11 and the like may be mounted on a self-propelled unmanned vehicle.

マニピュレータ11は、アーム部11a、及び把持部11bを備えている。アーム部11aは、少なくとも一つの関節をしている。例えば、アーム部11aとして、六つの関節を有する6軸マニピュレータが用いられてもよい。マニピュレータ11の基端部は、機台Sに取り付けられている。マニピュレータ11の先端部には、把持部11bが取り付けられている。把持部11bは、作業対象物Wを把持する機構により構成されている。例えば、マニピュレータ11は、把持部11bによって作業対象物Wを把持し、アーム部11aの関節を可動させることによって作業対象物Wを移動させる。 The manipulator 11 has an arm portion 11a and a grip portion 11b. The arm portion 11a has at least one joint. For example, a six-axis manipulator having six joints may be used as the arm portion 11a. A base end portion of the manipulator 11 is attached to the base S. A grip portion 11 b is attached to the tip of the manipulator 11 . The gripping part 11b is configured by a mechanism for gripping the work object W. As shown in FIG. For example, the manipulator 11 grips the work object W with the grip part 11b and moves the work object W by moving the joints of the arm part 11a.

カメラユニット12は、カメラ12a、カメラ駆動部12b、及び傾斜角度検出センサ12cを備えている。本実施形態において、カメラユニット12は、機台Sに設けられたカメラ支持フレームSaに取り付けられている。カメラ12aは、撮像方向を変更可能であり、マニピュレータ11による作業箇所を撮像する。本実施形態においては、カメラ12aとしてステレオカメラが用いられる。カメラ12aによって撮像される画像は、動画であってもよく、静止画であってもよい。カメラ12aが撮像した画像データは、ロボット側制御装置13に入力される。 The camera unit 12 includes a camera 12a, a camera drive section 12b, and an inclination angle detection sensor 12c. In this embodiment, the camera unit 12 is attached to a camera support frame Sa provided on the machine base S. As shown in FIG. The camera 12 a can change the imaging direction, and images the work location by the manipulator 11 . In this embodiment, a stereo camera is used as the camera 12a. An image captured by the camera 12a may be a moving image or a still image. Image data captured by the camera 12 a is input to the robot-side control device 13 .

カメラ駆動部12bは、カメラ12aの向き(撮像方向)を変化させる。ここでは、カメラ駆動部12bは、ロボット側制御装置13から入力されたカメラ制御信号に基づいて、カメラ12aのパン角及びチルト角を変化させる。カメラ12aの向きを変化させるためのカメラ駆動部12bの機構としては、周知の種々の機構が採用され得る。 The camera drive unit 12b changes the orientation (imaging direction) of the camera 12a. Here, the camera drive unit 12b changes the pan angle and tilt angle of the camera 12a based on the camera control signal input from the robot-side control device 13. FIG. Various well-known mechanisms can be adopted as the mechanism of the camera driving section 12b for changing the orientation of the camera 12a.

傾斜角度検出センサ12cは、カメラ12aの撮像方向の傾斜角度であるカメラ傾斜角度を検出する。本実施形態において、傾斜角度検出センサ12cは、カメラ傾斜角度として、上下方向におけるカメラ12aの撮像方向の傾斜角度であるカメラチルト角を検出する。傾斜角度検出センサ12cによって検出されたカメラチルト角データは、ロボット側制御装置13に入力される。 The tilt angle detection sensor 12c detects a camera tilt angle, which is the tilt angle of the imaging direction of the camera 12a. In this embodiment, the tilt angle detection sensor 12c detects a camera tilt angle, which is the tilt angle of the imaging direction of the camera 12a in the vertical direction, as the camera tilt angle. Camera tilt angle data detected by the tilt angle detection sensor 12 c is input to the robot-side control device 13 .

ロボット側通信装置14は、操作ユニット20の操作側通信装置25と通信を行うための通信機器である。ロボット側通信装置14は、操作側通信装置25と無線通信を行ってもよく、有線通信を行ってもよい。ロボット側通信装置14は、カメラ12aが撮像した画像データ、及び傾斜角度検出センサ12cによって検出されたカメラチルト角データを操作側通信装置25に送信する。また、ロボット側通信装置14は、マニピュレータ11を作動させるためのマニピュレータ制御信号、及びカメラ駆動部12bを作動させるためのカメラ制御信号を操作側通信装置25から受信する。 The robot-side communication device 14 is communication equipment for communicating with the operation-side communication device 25 of the operation unit 20 . The robot-side communication device 14 may perform wireless communication with the operating-side communication device 25, or may perform wired communication. The robot-side communication device 14 transmits image data captured by the camera 12 a and camera tilt angle data detected by the tilt angle detection sensor 12 c to the operating-side communication device 25 . The robot-side communication device 14 also receives a manipulator control signal for operating the manipulator 11 and a camera control signal for operating the camera drive unit 12b from the operating-side communication device 25 .

ロボット側制御装置13は、マニピュレータ11及びカメラユニット12における各制御を実行する制御機器である。ロボット側制御装置13は、例えば、CPU、ROM及びRAM等のハードウェアと、ROMに記憶されたプログラム等のソフトウェアとにより構成されるコンピュータが用いられる。図3に示されるように、ロボット側制御装置13は、機能的には、マニピュレータ制御部(ロボット制御部)13a、及びカメラ制御部13bを備えている。 The robot-side control device 13 is control equipment that executes each control in the manipulator 11 and the camera unit 12 . The robot-side control device 13 is, for example, a computer configured by hardware such as a CPU, ROM, and RAM, and software such as programs stored in the ROM. As shown in FIG. 3, the robot-side control device 13 functionally includes a manipulator control section (robot control section) 13a and a camera control section 13b.

マニピュレータ制御部13aは、操作ユニット20の操作検出部23によって検出された操作入力部22の位置等に基づいて、マニピュレータ11を駆動させる。ここでは、マニピュレータ制御部13aは、ロボット側通信装置14が受信したマニピュレータ制御信号をマニピュレータ11に対して出力することにより、マニピュレータ11を駆動させる。これにより、マニピュレータ11に設けられたアクチュエータがマニピュレータ制御信号に従ってアーム部11a及び把持部11bを駆動することによって、マニピュレータ11がマニピュレータ制御信号に応じて作動する。 The manipulator control section 13 a drives the manipulator 11 based on the position of the operation input section 22 detected by the operation detection section 23 of the operation unit 20 . Here, the manipulator control unit 13 a drives the manipulator 11 by outputting the manipulator control signal received by the robot-side communication device 14 to the manipulator 11 . As a result, the actuator provided in the manipulator 11 drives the arm portion 11a and the grip portion 11b in accordance with the manipulator control signal, thereby operating the manipulator 11 in accordance with the manipulator control signal.

カメラ制御部13bは、カメラユニット12の作動の制御を行う。カメラ制御部13bは、ロボット側通信装置14が受信したカメラ制御信号をカメラユニット12に対して出力することにより、カメラ駆動部12b等を駆動させる。このように、カメラ制御部13bは、カメラ制御信号に基づいてカメラ12aの撮像方向及びズーム等を制御する。 The camera control section 13 b controls the operation of the camera unit 12 . The camera control unit 13b outputs the camera control signal received by the robot-side communication device 14 to the camera unit 12, thereby driving the camera driving unit 12b and the like. In this manner, the camera control unit 13b controls the imaging direction, zoom, etc. of the camera 12a based on the camera control signal.

図2及び図3に示されるように、操作ユニット20は、モニタユニット21、操作入力部22、操作検出部(位置検出部)23、操作側制御装置24、及び操作側通信装置25を備えている。 As shown in FIGS. 2 and 3, the operation unit 20 includes a monitor unit 21, an operation input section 22, an operation detection section (position detection section) 23, an operation-side control device 24, and an operation-side communication device 25. there is

モニタユニット21は、モニタ21a、及びモニタ駆動部21bを備えている。モニタ21aは、操作側制御装置24から入力された画像表示信号に基づいて、カメラ12aが撮像した画像を表示する。本実施形態において、カメラ12aは、マニピュレータ装置1のオペレータPに対して立体的に画像が認識されるように3次元画像を表示する。例えば、オペレータPは、モニタ21aの表示画像を立体的に視認するための3Dメガネ等を装着していてもよい。これにより、オペレータPは、マニピュレータ装置1の作業箇所内の各物体の3次元的な位置関係を把握できる。 The monitor unit 21 includes a monitor 21a and a monitor driving section 21b. The monitor 21 a displays the image captured by the camera 12 a based on the image display signal input from the operating-side control device 24 . In this embodiment, the camera 12a displays a three-dimensional image so that the operator P of the manipulator device 1 can perceive the image stereoscopically. For example, the operator P may wear 3D glasses or the like for stereoscopically viewing the displayed image on the monitor 21a. Thereby, the operator P can grasp the three-dimensional positional relationship of each object in the work place of the manipulator device 1 .

モニタ駆動部21bは、モニタ21aを支持する。モニタ駆動部21bは、操作側制御装置24から入力されたモニタ駆動信号に基づいて、モニタ21aの画面が向く方向の傾斜角度であるモニタ傾斜角度を変化させることができる。ここでは、モニタ駆動部21bは、モニタ傾斜角度として、上下方向におけるモニタ21aの画面が向く方向の傾斜角度であるモニタチルト角を変化させる。なお、モニタ駆動信号は、詳しくは後述するようにカメラチルト角データに基づいて生成されている。また、モニタ駆動部21bは、モニタチルト角に加え、操作側制御装置24から入力されたモニタ駆動信号に基づいて、モニタ21aの上下方向の位置を変化させることができる。 The monitor driving section 21b supports the monitor 21a. The monitor drive unit 21b can change the monitor tilt angle, which is the tilt angle of the direction in which the screen of the monitor 21a faces, based on the monitor drive signal input from the operating-side control device 24 . Here, the monitor drive unit 21b changes the monitor tilt angle, which is the tilt angle of the direction in which the screen of the monitor 21a faces in the vertical direction, as the monitor tilt angle. Note that the monitor drive signal is generated based on camera tilt angle data, as will be described later in detail. In addition to the monitor tilt angle, the monitor drive unit 21b can change the vertical position of the monitor 21a based on the monitor drive signal input from the operating-side control device 24. FIG.

本実施形態において、モニタ駆動部21bは、図2に示されるように、モニタ21aの画面がオペレータPの頭部を向いた状態で、オペレータPの頭部を中心として円弧状に上下方向に移動するように、モニタ21aのモニタチルト角を変化させ且つモニタ21aを上下方向に移動させる。モニタ21aのモニタチルト角を変化させる機構及びモニタ21aを上下に移動させる機構としては、周知の種々の機構が採用され得る。 In this embodiment, as shown in FIG. 2, the monitor drive unit 21b moves vertically in an arc around the operator P's head while the screen of the monitor 21a faces the operator P's head. The monitor tilt angle of the monitor 21a is changed and the monitor 21a is moved up and down so that it does. As the mechanism for changing the monitor tilt angle of the monitor 21a and the mechanism for moving the monitor 21a up and down, various well-known mechanisms can be employed.

操作入力部22は、マニピュレータ11を操作するためにオペレータPによって操作される操作機器である。ここでは、操作入力部22は、マニピュレータ11を操作するためにオペレータPによって移動させられる。例えば、オペレータPは、アーム部11aを可動させて把持部11bの位置を移動させたい場合、操作入力部22を把持して操作入力部22を移動させる。 The operation input unit 22 is an operation device operated by the operator P to operate the manipulator 11 . Here, the operation input unit 22 is moved by the operator P to operate the manipulator 11 . For example, when the operator P desires to move the arm portion 11a to move the position of the grip portion 11b, the operator P grips the operation input portion 22 and moves the operation input portion 22 .

また、操作入力部22は、把持部11bを操作するために行われるオペレータPの入力操作、及びカメラユニット12を操作(カメラ12aの撮像方向の操作及びズーム操作等)するために行われるオペレータPの入力操作等、各種の入力操作を受け付ける。操作入力部22は、これらの入力操作を受け付けると、受け付けた入力操作に基づいて入力操作信号を生成する。操作入力部22は、生成した入力操作信号を操作検出部23へ送信する。例えば、操作入力部22は、赤外線等を用いて非接触で操作検出部23に入力操作信号を送信する。 In addition, the operation input unit 22 is used for the input operation of the operator P performed to operate the grip portion 11b, and the operator P performed to operate the camera unit 12 (operation of the imaging direction of the camera 12a, zoom operation, etc.). It accepts various input operations such as the input operation of When receiving these input operations, the operation input unit 22 generates input operation signals based on the received input operations. The operation input unit 22 transmits the generated input operation signal to the operation detection unit 23 . For example, the operation input unit 22 transmits input operation signals to the operation detection unit 23 in a non-contact manner using infrared rays or the like.

操作検出部23は、オペレータPが操作入力部22に対して行った操作を検出する。ここでは、操作検出部23は、オペレータPによって移動させられる操作入力部22の位置を非接触で検出する。操作検出部23は、3次元のセンサ座標系内における操作入力部22の位置を検出する。例えば、操作検出部23は、赤外線等を用いて、センサ座標系内における操作入力部22の位置を非接触で検出してもよい。操作検出部23は、周知の種々の方法を用いて、操作入力部22の位置を非接触で検出することができる。操作検出部23は、例えば、モニタユニット21が設置されるテーブル等に固定されている。 The operation detection unit 23 detects an operation performed by the operator P on the operation input unit 22 . Here, the operation detection unit 23 detects the position of the operation input unit 22 moved by the operator P in a non-contact manner. The operation detection unit 23 detects the position of the operation input unit 22 within the three-dimensional sensor coordinate system. For example, the operation detection unit 23 may detect the position of the operation input unit 22 within the sensor coordinate system in a non-contact manner using infrared rays or the like. The operation detection unit 23 can detect the position of the operation input unit 22 in a non-contact manner using various well-known methods. The operation detection unit 23 is fixed, for example, to a table or the like on which the monitor unit 21 is installed.

なお、操作検出部23は、操作入力部22の位置を非接触で検出することに限定されない。操作検出部23は、非接触で検出すること以外にも、種々の方法によって操作入力部22の位置を検出できる。例えば、操作検出部23は、バイラテラルなマスタスレーブシステム等によって、操作入力部22の位置を検出してもよい。 Note that the operation detection unit 23 is not limited to detecting the position of the operation input unit 22 in a non-contact manner. The operation detection unit 23 can detect the position of the operation input unit 22 by various methods other than non-contact detection. For example, the operation detection unit 23 may detect the position of the operation input unit 22 using a bilateral master-slave system or the like.

また、操作検出部23は、操作入力部22から送信された入力操作信号を非接触で受信する。操作検出部23は、検出した操作入力部22の位置データ及び受信した入力操作信号を、操作側制御装置24へ出力する。なお、操作検出部23は、操作入力部22から送信された入力操作信号を非接触で受信することに限定されない。 The operation detection unit 23 also receives the input operation signal transmitted from the operation input unit 22 in a non-contact manner. The operation detection unit 23 outputs the detected position data of the operation input unit 22 and the received input operation signal to the operation-side control device 24 . Note that the operation detection unit 23 is not limited to receiving the input operation signal transmitted from the operation input unit 22 in a non-contact manner.

操作側通信装置25は、ロボットユニット10のロボット側通信装置14と通信を行うための通信機器である。操作側通信装置25は、マニピュレータ11を作動させるためのマニピュレータ制御信号、及びカメラ駆動部12bを作動させるためのカメラ制御信号をロボット側通信装置14へ送信する。また、操作側通信装置25は、ロボット側通信装置14から送信された画像データ、及びカメラチルト角データを受信する。 The operating-side communication device 25 is a communication device for communicating with the robot-side communication device 14 of the robot unit 10 . The operating-side communication device 25 transmits to the robot-side communication device 14 a manipulator control signal for operating the manipulator 11 and a camera control signal for operating the camera driving section 12b. Further, the operating-side communication device 25 receives image data and camera tilt angle data transmitted from the robot-side communication device 14 .

操作側制御装置24は、操作ユニット20における各制御を実行する制御機器である。操作側制御装置24は、ロボット側制御装置13と同様の構成を有するコンピュータが用いられる。図3に示されるように、操作側制御装置24は、機能的には、モニタ制御部24a、傾斜角度取得部24b、及び操作制御部24cを備えている。 The operation-side control device 24 is control equipment that executes each control in the operation unit 20 . A computer having the same configuration as the robot-side control device 13 is used as the operation-side control device 24 . As shown in FIG. 3, the operation-side control device 24 functionally includes a monitor control section 24a, an inclination angle acquisition section 24b, and an operation control section 24c.

モニタ制御部24aは、モニタ21aに表示される画像の制御を行う。モニタ制御部24aは、操作側通信装置25によって受信された画像データに基づいて、モニタ21aに画像を表示させるための画像表示信号を生成する。モニタ制御部24aは、生成した画像表示信号をモニタユニット21に入力する。これにより、モニタ21aには、カメラ12aが撮像した画像が表示される。なお、モニタ制御部24aは、モニタ21aに3次元画像を表示させる場合、画像データに基づいて3次元画像を表示させるための画像表示信号を生成し、モニタ21aに入力すればよい。 The monitor control unit 24a controls an image displayed on the monitor 21a. Based on the image data received by the operating-side communication device 25, the monitor control unit 24a generates an image display signal for displaying an image on the monitor 21a. The monitor control section 24 a inputs the generated image display signal to the monitor unit 21 . As a result, the image captured by the camera 12a is displayed on the monitor 21a. When displaying a three-dimensional image on the monitor 21a, the monitor control unit 24a may generate an image display signal for displaying the three-dimensional image based on the image data and input it to the monitor 21a.

また、モニタ制御部24aは、傾斜角度取得部24bで取得されたカメラチルト角に基づいてモニタ駆動部21bを駆動し、モニタ21aのモニタチルト角を制御する。ここでは、モニタ制御部24aは、傾斜角度取得部24bで取得されたカメラチルト角に応じてモニタチルト角を制御するためのモニタ駆動信号を生成し、生成したモニタ駆動信号をモニタ駆動部21bへ出力することによってモニタチルト角を制御する。 The monitor control unit 24a also drives the monitor drive unit 21b based on the camera tilt angle acquired by the tilt angle acquisition unit 24b, and controls the monitor tilt angle of the monitor 21a. Here, the monitor control unit 24a generates a monitor drive signal for controlling the monitor tilt angle according to the camera tilt angle acquired by the tilt angle acquisition unit 24b, and sends the generated monitor drive signal to the monitor drive unit 21b. Control the monitor tilt angle by outputting.

さらに、モニタ制御部24aは、傾斜角度取得部24bで取得されたカメラチルト角データに基づいてモニタ駆動部21bを駆動し、モニタ21aの上下方向の位置を制御する。ここでは、モニタ制御部24aは、傾斜角度取得部24bで取得されたカメラチルト角に基づいて、モニタ21aの上下方向の位置を制御するためのモニタ駆動信号を生成し、生成したモニタ駆動信号をモニタ駆動部21bへ出力することによってモニタ21aの上下方向の位置を制御する。 Further, the monitor control unit 24a drives the monitor drive unit 21b based on the camera tilt angle data acquired by the tilt angle acquisition unit 24b, and controls the vertical position of the monitor 21a. Here, the monitor control unit 24a generates a monitor drive signal for controlling the vertical position of the monitor 21a based on the camera tilt angle acquired by the tilt angle acquisition unit 24b, and outputs the generated monitor drive signal. The vertical position of the monitor 21a is controlled by outputting to the monitor drive unit 21b.

すなわち、モニタ駆動信号には、モニタチルト角を制御するための信号と、モニタ21aの上下方向の位置を制御するための信号とが含まれている。これにより、モニタ制御部24aは、モニタ駆動信号を用いてモニタ21aのモニタチルト角及びモニタ21aの上下方向の位置を制御する。 That is, the monitor drive signal includes a signal for controlling the monitor tilt angle and a signal for controlling the vertical position of the monitor 21a. Accordingly, the monitor control unit 24a uses the monitor drive signal to control the monitor tilt angle of the monitor 21a and the vertical position of the monitor 21a.

なお、モニタ制御部24aは、図2に示されるように、モニタ21aの画面がオペレータPの頭部を向いた状態で、オペレータPの頭部を中心としてモニタ21aが円弧状に上下方向に移動するように、モニタ21aのモニタチルト角を変化させ且つモニタ21aを上下方向に移動させるためのモニタ駆動信号を生成する。 As shown in FIG. 2, the monitor control unit 24a moves the monitor 21a upward and downward in an arc around the operator P's head while the screen of the monitor 21a faces the operator P's head. A monitor drive signal is generated for changing the monitor tilt angle of the monitor 21a and for moving the monitor 21a vertically.

本実施形態において、モニタ制御部24aは、水平方向に対するカメラ12aの撮像方向の傾斜角度(カメラチルト角)の大きさと、水平方向に対するモニタ21aの画面が向く方向の傾斜角度(モニタチルト角)の大きさとが互いに一致するように、カメラチルト角に基づいてモニタチルト角を制御する。すなわち、カメラ12aの撮像方向と、モニタ21aの画面に垂直な線とが平行となっている。 In this embodiment, the monitor control unit 24a controls the tilt angle (camera tilt angle) of the imaging direction of the camera 12a with respect to the horizontal direction, and the tilt angle (monitor tilt angle) of the direction in which the screen of the monitor 21a faces with respect to the horizontal direction. The monitor tilt angle is controlled based on the camera tilt angle so that the magnitude and the magnitude match each other. That is, the imaging direction of the camera 12a and the line perpendicular to the screen of the monitor 21a are parallel.

例えば、図4において実線で示されるカメラ12aのように、カメラ12aが水平方向を向いている。この場合、モニタ制御部24aは、カメラチルト角に基づいて、図5において実線で示されるモニタ21aのように、モニタ21aの画面がオペレータPの頭部を向き且つモニタ21aをオペレータPの頭部の高さ位置に位置させるためのモニタ駆動信号を生成する。この場合、図6(a)に示されるように、モニタ21aには、作業対象物Wの上部が映っている。このため、オペレータPは、モニタ21aの傾斜及びモニタ21aに表示される画像に基づいて、カメラ12aの傾斜度合い(カメラ12aが水平方向を向いていること)を容易に把握できる。 For example, the camera 12a faces horizontally, as shown by the solid line in FIG. In this case, based on the camera tilt angle, the monitor control unit 24a controls the screen of the monitor 21a to face the operator P's head and the monitor 21a to face the operator P's head, as shown by the solid line in FIG. A monitor drive signal is generated for positioning the height position of the monitor. In this case, as shown in FIG. 6A, the upper part of the work object W is displayed on the monitor 21a. Therefore, the operator P can easily grasp the tilt degree of the camera 12a (that the camera 12a faces the horizontal direction) based on the tilt of the monitor 21a and the image displayed on the monitor 21a.

また、例えば、図4において破線で示されるカメラ12aのように、カメラ12aが下方向を向いている。この場合、モニタ制御部24aは、カメラチルト角に基づいて、図5において破線で示されるモニタ21aのように、モニタ21aの画面がオペレータPの頭部を向き且つモニタ21aをオペレータPの頭部の高さ位置よりも下方の位置に位置させるためのモニタ駆動信号を生成する。すなわち、カメラ12aが斜め下方を向き、モニタ21aが斜め上方を向いている。この場合、図6(b)に示されるように、モニタ21aには、作業対象物Wの下部及び地面Gが映っている。このため、オペレータPは、モニタ21aの傾斜及びモニタ21aに表示される画像に基づいて、カメラ12aの傾斜度合い(カメラ12aが斜め下方側を向いていること)を容易に把握できる。 Also, the camera 12a faces downward, for example, like the camera 12a indicated by the dashed line in FIG. In this case, based on the camera tilt angle, the monitor control unit 24a controls the screen of the monitor 21a to face the operator P's head and the monitor 21a to the operator P's head, as indicated by the dashed line in FIG. A monitor drive signal is generated for positioning the position below the height position of the . That is, the camera 12a faces obliquely downward, and the monitor 21a faces obliquely upward. In this case, as shown in FIG. 6B, the lower part of the work object W and the ground G are displayed on the monitor 21a. Therefore, the operator P can easily grasp the degree of inclination of the camera 12a (that the camera 12a faces obliquely downward) based on the inclination of the monitor 21a and the image displayed on the monitor 21a.

傾斜角度取得部24bは、カメラ12aの撮像方向の傾斜角度であるカメラ傾斜角度を取得する。ここでは、傾斜角度取得部24bは、カメラ傾斜角度として、操作側通信装置25が受信したカメラチルト角データ(カメラチルト角)を取得する。 The tilt angle acquisition unit 24b acquires the camera tilt angle, which is the tilt angle of the imaging direction of the camera 12a. Here, the tilt angle acquisition unit 24b acquires the camera tilt angle data (camera tilt angle) received by the operating-side communication device 25 as the camera tilt angle.

なお、傾斜角度取得部24bは、操作側通信装置25を介して傾斜角度検出センサ12cによって検出されたカメラ傾斜角度を取得すること以外にも、操作検出部23によって検出されたカメラ12aの向きを操作するための入力操作に基づいてカメラ傾斜角度を取得してもよい。すなわち、傾斜角度取得部24bは、実際のカメラ12aの傾斜を検出するのではなく、カメラ12aを作動させるための信号をカメラ傾斜角度として取得してもよい。このように、傾斜角度取得部24bは、種々の方法によってカメラ傾斜角度を取得することができる。 In addition to acquiring the camera tilt angle detected by the tilt angle detection sensor 12c via the operating-side communication device 25, the tilt angle acquisition unit 24b also obtains the orientation of the camera 12a detected by the operation detection unit 23. A camera tilt angle may be acquired based on an input operation for operating. That is, instead of detecting the actual tilt of the camera 12a, the tilt angle acquisition unit 24b may acquire a signal for operating the camera 12a as the camera tilt angle. In this way, the tilt angle obtaining unit 24b can obtain the camera tilt angle by various methods.

操作制御部24cは、操作検出部23から入力された操作入力部22の位置データ、及び把持部11bを操作するための入力操作信号に基づいて、マニピュレータ11を作動させるためのマニピュレータ制御信号を生成する。 The operation control unit 24c generates a manipulator control signal for operating the manipulator 11 based on the position data of the operation input unit 22 input from the operation detection unit 23 and the input operation signal for operating the gripping unit 11b. do.

ここで、本実施形態においてマニピュレータ装置1は、カメラ12aの座標系(以下「カメラ座標系」という)を基準として、マニピュレータ11の動作を制御する。これにより、オペレータPは、図7に示されるように、モニタ21aに表示された画像(カメラ12aの撮像画像)を基準として、マニピュレータ11(把持部11b)を上下左右に移動させることができる。すなわち、オペレータPは、図7のモニタ21a内に示される矢印B1のように把持部11bを右方向に移動させたい場合、矢印A1で示されるように操作入力部22を右方向に移動させればよい。 Here, in the present embodiment, the manipulator device 1 controls the operation of the manipulator 11 based on the coordinate system of the camera 12a (hereinafter referred to as "camera coordinate system"). Accordingly, as shown in FIG. 7, the operator P can move the manipulator 11 (grasping portion 11b) vertically and horizontally based on the image displayed on the monitor 21a (image captured by the camera 12a). That is, when the operator P wants to move the grip portion 11b rightward as indicated by the arrow B1 shown in the monitor 21a in FIG. 7, the operator P moves the operation input portion 22 rightward as indicated by the arrow A1. Just do it.

ここで、センサ座標系、及びカメラ座標系について説明する。例えば、図2、図7及び図8に示されるように、操作検出部23が操作入力部22の位置を検出するときのセンサ座標系は、X1軸、Y1軸及びZ1軸によって構成される3次元の直交座標系を有する。具体的には、例えば、Z1軸は、鉛直方向に沿った軸である。X1軸は、オペレータPがマニピュレータ11を操作するためにモニタ21aを向いた状態において、オペレータPの左右方向に沿った軸である。Y1軸は、X1軸及びZ1軸に直交する軸である。また、図7及び図8に示されるように、カメラ座標系は、X2軸、Y2軸及びZ2軸によって構成される3次元の直交座標系を有する。具体的には、例えば、Y2軸は、カメラ12aの撮像の中心軸である。Z2軸は、例えば、Y2軸が水平方向となるようにカメラ12aの向きを調整した場合において、Y2軸に対して直交し且つ鉛直方向に沿った軸である。X2軸は、Y2軸及びZ2軸に直交する軸である。 Here, the sensor coordinate system and camera coordinate system will be described. For example, as shown in FIGS. 2, 7 and 8, the sensor coordinate system when the operation detection unit 23 detects the position of the operation input unit 22 is composed of the X1 axis, the Y1 axis and the Z1 axis. It has a dimensional Cartesian coordinate system. Specifically, for example, the Z1 axis is an axis along the vertical direction. The X1 axis is an axis along the left-right direction of the operator P when the operator P faces the monitor 21a in order to operate the manipulator 11 . The Y1-axis is an axis perpendicular to the X1-axis and the Z1-axis. Also, as shown in FIGS. 7 and 8, the camera coordinate system has a three-dimensional orthogonal coordinate system composed of X2-axis, Y2-axis and Z2-axis. Specifically, for example, the Y2 axis is the central axis of imaging by the camera 12a. The Z2 axis is perpendicular to the Y2 axis and extends vertically, for example, when the direction of the camera 12a is adjusted so that the Y2 axis is horizontal. The X2-axis is an axis orthogonal to the Y2-axis and Z2-axis.

センサ座標系におけるX1軸、Y1軸及びZ1軸は、カメラ座標系におけるX2軸、Y2軸及びZ2軸にそれぞれ対応している。 The X1-axis, Y1-axis and Z1-axis in the sensor coordinate system respectively correspond to the X2-axis, Y2-axis and Z2-axis in the camera coordinate system.

本実施形態において操作制御部24cは、図7に示されるように、例えば、オペレータPが操作入力部22をX1軸に沿って移動させた場合、マニピュレータ11の把持部11bがX2軸に沿って移動するようにマニピュレータ制御信号を生成する。操作制御部24cは、図8に示されるように、例えば、オペレータPが操作入力部22をY1軸に沿って移動させた場合、マニピュレータ11の把持部11bがY2軸に沿って移動するようにマニピュレータ制御信号を生成する。操作制御部24cは、図8に示されるように、例えば、オペレータPが操作入力部22をZ1軸に沿って移動させた場合、マニピュレータ11の把持部11bがZ2軸に沿って移動するようにマニピュレータ制御信号を生成する。 In this embodiment, as shown in FIG. 7, for example, when the operator P moves the operation input unit 22 along the X1 axis, the operation control unit 24c moves the grasping unit 11b of the manipulator 11 along the X2 axis. Generate manipulator control signals to move. As shown in FIG. 8, the operation control unit 24c controls the grip portion 11b of the manipulator 11 to move along the Y2 axis when the operator P moves the operation input unit 22 along the Y1 axis. Generate manipulator control signals. As shown in FIG. 8, the operation control unit 24c controls the gripping unit 11b of the manipulator 11 to move along the Z2 axis when the operator P moves the operation input unit 22 along the Z1 axis. Generate manipulator control signals.

このように、操作制御部24cは、カメラ座標系を基準としてマニピュレータ11(把持部11b)が移動するようにマニピュレータ制御信号を生成する。 In this manner, the operation control unit 24c generates the manipulator control signal so that the manipulator 11 (the gripping unit 11b) moves with respect to the camera coordinate system.

具体的には、例えば、図8に示されるように、カメラ12aが斜め下方向を向いている状態において、オペレータPが矢印A2で示されるように操作入力部22を鉛直方向(Z1軸)の下方側に移動させた場合、把持部11bは、矢印B2で示されるようにZ2軸に沿って斜め下方に移動する。 Specifically, for example, as shown in FIG. 8, with the camera 12a facing obliquely downward, the operator P moves the operation input unit 22 in the vertical direction (Z1 axis) as indicated by an arrow A2. When moved downward, the grip portion 11b moves obliquely downward along the Z2 axis as indicated by an arrow B2.

例えば、図8において矢印B3で示されるように把持部11bを鉛直方向の下方側に移動させたい場合、オペレータPは、矢印A3で示されるように鉛直方向の下方且つ前方に向けて操作入力部22を移動させればよい。ここで、上述したように、カメラチルト角に応じてモニタ21aが傾斜している。このため、オペレータPは、カメラ座標系の傾斜(カメラチルト角)を把握できる。すなわち、オペレータPは、カメラ座標系とセンサ座標系とのずれを把握できる。従って、オペレータPは、矢印B3で示されるように把持部11bを鉛直方向の下方側に移動させる際に、操作入力部22をどの程度斜め下方向に移動させればよいか(どの程度前方に移動させればよいか)を容易に把握できる。 For example, when the operator P wants to move the grip portion 11b downward in the vertical direction as indicated by an arrow B3 in FIG. 22 should be moved. Here, as described above, the monitor 21a is tilted according to the camera tilt angle. Therefore, the operator P can grasp the inclination (camera tilt angle) of the camera coordinate system. That is, the operator P can grasp the deviation between the camera coordinate system and the sensor coordinate system. Therefore, when the operator P moves the grip portion 11b downward in the vertical direction as indicated by the arrow B3, how much the operation input portion 22 should be moved diagonally downward (how far forward) should be moved) can be easily grasped.

また、操作制御部24cは、操作検出部23から入力されたカメラユニット12を操作するための入力操作信号に基づいて、カメラユニット12を作動(カメラ12aの向き及びズーム動作等)させるためのカメラ制御信号を生成する。 Further, the operation control unit 24c operates the camera unit 12 (direction of the camera 12a, zoom operation, etc.) based on an input operation signal for operating the camera unit 12 input from the operation detection unit 23. Generate control signals.

操作制御部24cは、生成したマニピュレータ制御信号及びカメラ信号を操作側通信装置25へ出力する。これにより、マニピュレータ制御信号及びカメラ信号は、操作側通信装置25を介してロボットユニット10へ送信される。 The operation control unit 24 c outputs the generated manipulator control signal and camera signal to the operation-side communication device 25 . Thereby, the manipulator control signal and the camera signal are transmitted to the robot unit 10 via the operating-side communication device 25 .

以上のように、このマニピュレータ装置1では、モニタ21aのカメラチルト角に応じて、モニタ21aのモニタチルト角が制御される。これにより、オペレータPは、モニタ21aを視認することにより、モニタチルト角に基づいてカメラ12aの傾斜度合いを容易に把握できる。従って、オペレータは、把握したカメラ12aの傾斜度合い(カメラチルト角)を考慮しつつ、マニピュレータ11の操作を容易に行うことができる。 As described above, in this manipulator device 1, the monitor tilt angle of the monitor 21a is controlled according to the camera tilt angle of the monitor 21a. Accordingly, the operator P can easily grasp the tilt degree of the camera 12a based on the monitor tilt angle by viewing the monitor 21a. Therefore, the operator can easily operate the manipulator 11 while considering the degree of inclination (camera tilt angle) of the camera 12a that has been grasped.

ここで、例えば、モニタ21aの表示画像内に地面G(床面)が含まれていると、オペレータPは、オペレータ自身の重力方向と表示画像における地面Gの垂直方向とが一致していると認識してしまうことがある。この場合、オペレータPは、カメラ12aの傾斜度合いを考慮せずにオペレータ自身の重力方向に基づいてマニピュレータ11の操作を行い易くなり、意図した操作を行うことができないことがある。すなわち、例えば図8に示されるように、把持部11bを矢印B3のように下方側に移動させる際に、オペレータPは、操作入力部22を矢印A2のように下方側に移動させてしまうことがある。しかしながら、このような場合であってもモニタ制御部24aがモニタチルト角を制御することにより、オペレータPは、カメラチルト角の傾斜度合いを容易に把握することができる。そして、オペレータPは、把握したカメラチルト角の傾斜度合いを考慮してマニピュレータ11(把持部11b)の上下方向の操作を容易に行うことができる。 Here, for example, if the ground G (floor surface) is included in the display image of the monitor 21a, the operator P assumes that the operator's own gravity direction and the vertical direction of the ground G in the display image match. You may recognize it. In this case, the operator P may easily operate the manipulator 11 based on the operator's own gravitational direction without considering the degree of inclination of the camera 12a, and may not be able to perform the intended operation. That is, as shown in FIG. 8, for example, when moving the grip portion 11b downward as indicated by an arrow B3, the operator P may move the operation input portion 22 downward as indicated by an arrow A2. There is However, even in such a case, the monitor control unit 24a controls the monitor tilt angle, so that the operator P can easily grasp the inclination degree of the camera tilt angle. Then, the operator P can easily operate the manipulator 11 (the grip portion 11b) in the vertical direction in consideration of the degree of inclination of the camera tilt angle that has been grasped.

モニタ制御部24aは、カメラチルト角に基づいて、モニタチルト角に加えてモニタ21aの上下方向の位置を制御する。これにより、オペレータPは、モニタ21aを視認することによってカメラチルト角の傾斜度合いをより一層容易に把握でき、マニピュレータ11の操作を容易に行うことができる。 The monitor control unit 24a controls the vertical position of the monitor 21a in addition to the monitor tilt angle based on the camera tilt angle. Accordingly, the operator P can more easily grasp the inclination degree of the camera tilt angle by viewing the monitor 21a, and can easily operate the manipulator 11. FIG.

以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、操作検出部23は、図9に示されるように、モニタ21aのフレーム等に固定されていてもよい。すなわち、操作検出部23は、モニタ21aの画面の傾斜角度の変化と共に傾斜可能にモニタ21aに取り付けられていてもよい。この場合、モニタ21aの傾斜に合わせて操作検出部23のセンサ座標系Tも傾斜する。すなわち、図10に示されるように、カメラ座標系の傾斜(チルト角)とセンサ座標系の傾斜(チルト角)とが一致する。この場合、オペレータPは、図10において矢印B4で示されるように把持部11bを下方に移動させたい場合、操作入力部22を矢印A4のように下方に移動させればよい。すなわち、オペレータPは、上記実施形態のようにカメラ座標系とセンサ座標系とのずれを考慮することなく、マニピュレータ11を直観的に操作することが可能となり、マニピュレータ11の操作をより一層容易に行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments. For example, the operation detection unit 23 may be fixed to the frame of the monitor 21a or the like, as shown in FIG. That is, the operation detection unit 23 may be attached to the monitor 21a so as to be tiltable as the tilt angle of the screen of the monitor 21a changes. In this case, the sensor coordinate system T of the operation detection unit 23 is also tilted according to the tilt of the monitor 21a. That is, as shown in FIG. 10, the inclination (tilt angle) of the camera coordinate system and the inclination (tilt angle) of the sensor coordinate system match. In this case, when the operator P wants to move the grip portion 11b downward as indicated by an arrow B4 in FIG. 10, the operation input portion 22 may be moved downward as indicated by an arrow A4. That is, the operator P can intuitively operate the manipulator 11 without considering the deviation between the camera coordinate system and the sensor coordinate system as in the above-described embodiment, making the operation of the manipulator 11 even easier. It can be carried out.

また、操作検出部23が図9に示されるようにモニタ21aに取り付けられていなくても、マニピュレータ装置1は、カメラ座標系とセンサ座標系とを一致させることができる。具体的には、例えば、操作検出部23は、図2に示されるように、テーブル等に固定されている。この場合、マニピュレータ制御部13aは、操作検出部23によって検出された操作入力部22の位置をモニタチルト角に基づいて補正して、マニピュレータ11を駆動させる。すなわち、マニピュレータ制御部13aは、カメラ座標系とセンサ座標系とが一致するように、マニピュレータ制御信号を補正してマニピュレータ11を駆動する。これにより、オペレータPは、カメラ座標系とセンサ座標系とのずれを考慮することなく、マニピュレータ11の直観的な操作が可能となり、マニピュレータ11の操作をより一層容易に行うことができる。 Moreover, even if the operation detection unit 23 is not attached to the monitor 21a as shown in FIG. 9, the manipulator device 1 can match the camera coordinate system and the sensor coordinate system. Specifically, for example, the operation detection unit 23 is fixed to a table or the like, as shown in FIG. In this case, the manipulator control unit 13 a corrects the position of the operation input unit 22 detected by the operation detection unit 23 based on the monitor tilt angle, and drives the manipulator 11 . That is, the manipulator control unit 13a drives the manipulator 11 by correcting the manipulator control signal so that the camera coordinate system and the sensor coordinate system match. Accordingly, the operator P can intuitively operate the manipulator 11 without considering the deviation between the camera coordinate system and the sensor coordinate system, and can operate the manipulator 11 more easily.

なお、マニピュレータ制御部13aは、モニタ制御部24aがモニタ21aを制御するときの信号をモニタチルト角として取得してもよい。また、図2に示されるように、モニタ21aの傾斜角度を検出する傾斜角度検出センサ26が設けられている場合、マニピュレータ制御部13aは、傾斜角度検出センサ26によって検出されたモニタチルト角を取得してもよい。また、モニタチルト角は、カメラチルト角に応じて制御される。このため、マニピュレータ制御部13aは、カメラチルト角を取得し、取得したカメラチルト角に基づいてモニタチルト角を算出してもよい。 Note that the manipulator control unit 13a may acquire a signal when the monitor control unit 24a controls the monitor 21a as the monitor tilt angle. Further, as shown in FIG. 2, when the tilt angle detection sensor 26 for detecting the tilt angle of the monitor 21a is provided, the manipulator control unit 13a acquires the monitor tilt angle detected by the tilt angle detection sensor 26. You may Also, the monitor tilt angle is controlled according to the camera tilt angle. Therefore, the manipulator control unit 13a may acquire the camera tilt angle and calculate the monitor tilt angle based on the acquired camera tilt angle.

また、マニピュレータ装置1は、モニタユニット21に代えて、図11に示されるようにマニピュレータ11のオペレータPに対して3次元画像を表示するVR(virtual reality)ゴーグル(3次元モニタ)30を備えていてもよい。VRゴーグル30は、オペレータPの目の前に位置するようにオペレータPの頭部に装着される。この場合、モニタ制御部24aは、VRゴーグル30によって表示される3次元画像を制御すると共にVRゴーグル30によって表示される仮想の3次元空間V内にカメラ12aの撮像画像を表示するモニタ31を表示させる。モニタ制御部24aは、モニタ31の他に、マニピュレータ11を操作するための操作メニュー等を仮想の3次元空間V内に表示させてもよい。 In place of the monitor unit 21, the manipulator device 1 includes VR (virtual reality) goggles (three-dimensional monitor) 30 for displaying a three-dimensional image to the operator P of the manipulator 11 as shown in FIG. may The VR goggles 30 are worn on the head of the operator P so as to be positioned in front of the operator P's eyes. In this case, the monitor control unit 24a controls the three-dimensional image displayed by the VR goggles 30 and displays the monitor 31 that displays the captured image of the camera 12a in the virtual three-dimensional space V displayed by the VR goggles 30. Let The monitor control unit 24a may display an operation menu or the like for operating the manipulator 11 in the virtual three-dimensional space V in addition to the monitor 31. FIG.

モニタ制御部24aは、実施形態におけるモニタ21aと同様に、傾斜角度取得部24bで取得されたカメラチルト角に基づいて、仮想の3次元空間V内におけるモニタ31のモニタチルト角を制御し且つ上下方向の位置を制御する。なお、図11では、VRゴーグル30によってオペレータPの目の前に提示される仮想の3次元空間Vが模式的に示されている。 Similar to the monitor 21a in the embodiment, the monitor control unit 24a controls the monitor tilt angle of the monitor 31 in the virtual three-dimensional space V based on the camera tilt angle acquired by the tilt angle acquisition unit 24b, Control the orientation position. Note that FIG. 11 schematically shows a virtual three-dimensional space V presented in front of the operator P by the VR goggles 30 .

VRゴーグル30を用いた場合、操作検出部23はテーブル等に固定されており、図9を用いて説明した変形例のように操作検出部23を傾斜させる(センサ座標系を傾斜させる)ことはできない。このため、マニピュレータ制御部13aは、操作検出部23によって検出された操作入力部22の位置をカメラチルト角に基づいて補正して、マニピュレータ11を駆動させてもよい。すなわち、マニピュレータ制御部13aは、カメラ座標系とセンサ座標系とが一致するように、マニピュレータ制御信号を補正してマニピュレータ11を駆動してもよい。これにより、オペレータPは、カメラ座標系とセンサ座標系とのずれを考慮することなく、マニピュレータ11の直観的な操作が可能となり、マニピュレータ11の操作をより一層容易に行うことができる。 When the VR goggles 30 are used, the operation detection unit 23 is fixed to a table or the like, and tilting the operation detection unit 23 (tilting the sensor coordinate system) as in the modification described with reference to FIG. Can not. Therefore, the manipulator control unit 13 a may correct the position of the operation input unit 22 detected by the operation detection unit 23 based on the camera tilt angle and drive the manipulator 11 . That is, the manipulator control unit 13a may drive the manipulator 11 by correcting the manipulator control signal so that the camera coordinate system and the sensor coordinate system match. Accordingly, the operator P can intuitively operate the manipulator 11 without considering the deviation between the camera coordinate system and the sensor coordinate system, and can operate the manipulator 11 more easily.

なお、上記実施形態及び変形例において、傾斜角度取得部24bはカメラ12aの撮像方向の傾斜角度として水平方向の傾斜角度(カメラパン角)を取得する。そして、モニタ制御部24aは、カメラ12aの水平方向の傾斜角度に応じて、モニタ21aの画面が向く方向の水平方向の傾斜角度(モニタパン角)を制御してもよい。また、モニタ制御部24aは、カメラ12aのカメラチルト角及びカメラパン角に応じて、モニタ21aのモニタチルト角及びモニタパン角を制御してもよい。これらの場合であっても、オペレータPは、モニタ21aの傾斜角度に基づいてカメラ12aの傾斜度合いを容易に把握できる。従って、オペレータPは、把握したカメラ12aの傾斜度合いを考慮しつつ、マニピュレータ11の操作を容易に行うことができる。 In the above-described embodiment and modification, the tilt angle acquisition unit 24b acquires the horizontal tilt angle (camera pan angle) as the tilt angle of the imaging direction of the camera 12a. Then, the monitor control unit 24a may control the horizontal tilt angle (monitor pan angle) of the direction in which the screen of the monitor 21a faces according to the horizontal tilt angle of the camera 12a. Also, the monitor control unit 24a may control the monitor tilt angle and the monitor pan angle of the monitor 21a according to the camera tilt angle and the camera pan angle of the camera 12a. Even in these cases, the operator P can easily grasp the degree of tilt of the camera 12a based on the tilt angle of the monitor 21a. Therefore, the operator P can easily operate the manipulator 11 while considering the grasped degree of inclination of the camera 12a.

また、モニタ制御部24aがモニタ21a(モニタ31)の上下方向の位置を変化させることは必須ではない。モニタ制御部24aは、モニタ21a(モニタ31)の向きのみを変化させてもよい。 Also, it is not essential for the monitor control unit 24a to change the vertical position of the monitor 21a (monitor 31). The monitor control unit 24a may change only the orientation of the monitor 21a (monitor 31).

なお、本発明に係るロボット装置は、いわゆるロボットアームとしてのマニピュレータ11を遠隔操作するマニピュレータ装置1に適用されることに限定されない。ロボット装置は、少なくとも一つ以上の関節(少なくとも2軸以上の軸)を有する種々のロボットを遠隔制御できる。 In addition, the robot apparatus according to the present invention is not limited to being applied to the manipulator apparatus 1 that remotely controls the manipulator 11 as a so-called robot arm. The robot apparatus can remotely control various robots having at least one or more joints (at least two or more axes).

1 マニピュレータ装置(ロボット装置)
11 マニピュレータ(ロボット)
12a カメラ
13a マニピュレータ制御部(ロボット制御部)
21a、31 モニタ
22 操作入力部
23 操作検出部(位置検出部)
24a モニタ制御部
24b 傾斜角度取得部
30 VRゴーグル(3次元モニタ)
V 仮想の3次元空間
1 Manipulator device (robot device)
11 manipulator (robot)
12a camera 13a manipulator control unit (robot control unit)
21a, 31 monitor 22 operation input unit 23 operation detection unit (position detection unit)
24a monitor control unit 24b tilt angle acquisition unit 30 VR goggles (three-dimensional monitor)
V virtual three-dimensional space

Claims (8)

関節を有するロボットと、
撮像方向を変更可能であり、前記ロボットによる作業箇所を撮像するカメラと、
前記カメラの撮像方向の傾斜角度であるカメラ傾斜角度を取得する傾斜角度取得部と、
前記カメラの撮像画像を表示するモニタと、
取得された前記カメラ傾斜角度に応じて、前記モニタの画面が向く方向の傾斜角度であるモニタ傾斜角度を制御するモニタ制御部と、を備え、
前記傾斜角度取得部は、前記カメラ傾斜角度として、上下方向における前記カメラの撮像方向の傾斜角度であるカメラチルト角を取得し、
前記モニタ制御部は、前記モニタ傾斜角度として、上下方向における前記モニタの画面が向く方向の傾斜角度であるモニタチルト角を制御する、ロボット装置。
a robot having joints;
a camera whose imaging direction can be changed and which images a work place by the robot;
a tilt angle acquisition unit that acquires a camera tilt angle that is the tilt angle of the imaging direction of the camera;
a monitor that displays an image captured by the camera;
a monitor control unit that controls a monitor tilt angle, which is a tilt angle in a direction in which the screen of the monitor faces, according to the acquired camera tilt angle;
The tilt angle acquisition unit acquires, as the camera tilt angle, a camera tilt angle that is a tilt angle of an imaging direction of the camera in a vertical direction,
The robot apparatus, wherein the monitor control unit controls, as the monitor tilt angle, a monitor tilt angle that is a tilt angle of a direction in which the screen of the monitor faces in a vertical direction.
前記ロボットを操作するために前記ロボットのオペレータによって移動させられる操作入力部と、
前記オペレータによって移動させられる前記操作入力部の位置を検出する位置検出部と、
前記位置検出部によって検出された前記操作入力部の位置に基づいて、前記ロボットを駆動させるロボット制御部と、
を更に備える、請求項に記載のロボット装置。
an operation input unit moved by an operator of the robot to operate the robot;
a position detection unit that detects the position of the operation input unit moved by the operator;
a robot control unit that drives the robot based on the position of the operation input unit detected by the position detection unit;
The robotic device of claim 1 , further comprising:
前記位置検出部は、前記モニタの画面の傾斜角度の変化と共に傾斜可能に前記モニタに取り付けられている、請求項に記載のロボット装置。 3. The robot apparatus according to claim 2 , wherein said position detection unit is attached to said monitor so as to be tiltable as the tilt angle of the screen of said monitor changes. 前記ロボット制御部は、前記位置検出部によって検出された前記操作入力部の位置を前記モニタ傾斜角度に基づいて補正して、前記ロボットを駆動させる、請求項に記載のロボット装置。 3. The robot apparatus according to claim 2 , wherein said robot control section corrects the position of said operation input section detected by said position detection section based on said monitor tilt angle, and drives said robot. 関節を有するロボットと、
撮像方向を変更可能であり、前記ロボットによる作業箇所を撮像するカメラと、
前記カメラの撮像方向の傾斜角度であるカメラ傾斜角度を取得する傾斜角度取得部と、
前記カメラの撮像画像を表示するモニタと、
取得された前記カメラ傾斜角度に応じて、前記モニタの画面が向く方向の傾斜角度であるモニタ傾斜角度を制御するモニタ制御部と、
前記ロボットのオペレータに対して3次元画像を表示する3次元モニタと、を備え、
前記モニタ制御部は、前記3次元モニタによって表示される前記3次元画像を制御すると共に前記3次元モニタによって表示される仮想の3次元空間内に前記カメラの撮像画像を表示する前記モニタを表示させ、前記カメラ傾斜角度に基づいて前記3次元空間内における前記モニタの前記モニタ傾斜角度を制御する、ロボット装置。
a robot having joints;
a camera whose imaging direction can be changed and which images a work place by the robot;
a tilt angle acquisition unit that acquires a camera tilt angle that is the tilt angle of the imaging direction of the camera;
a monitor that displays an image captured by the camera;
a monitor control unit that controls a monitor tilt angle, which is a tilt angle of a direction in which a screen of the monitor faces, according to the obtained camera tilt angle;
a three-dimensional monitor that displays a three-dimensional image to an operator of the robot;
The monitor control unit controls the three-dimensional image displayed by the three-dimensional monitor and causes the monitor to display the captured image of the camera in a virtual three-dimensional space displayed by the three-dimensional monitor. 2. A robot apparatus for controlling said monitor tilt angle of said monitor in said three-dimensional space based on said camera tilt angle.
前記ロボットを操作するために前記ロボットのオペレータによって移動させられる操作入力部と、
前記ロボットによって移動させられる前記操作入力部の位置を検出する位置検出部と、
前記位置検出部によって検出された前記操作入力部の位置に基づいて、前記ロボットを駆動させるロボット制御部と、
を更に備え、
前記ロボット制御部は、前記位置検出部によって検出された前記操作入力部の位置を取得された前記カメラ傾斜角度に基づいて補正して、前記ロボットを駆動させる、請求項5に記載のロボット装置。
an operation input unit moved by an operator of the robot to operate the robot;
a position detection unit that detects the position of the operation input unit moved by the robot;
a robot control unit that drives the robot based on the position of the operation input unit detected by the position detection unit;
further comprising
6. The robot apparatus according to claim 5, wherein the robot control section corrects the position of the operation input section detected by the position detection section based on the obtained camera tilt angle, and drives the robot.
前記傾斜角度取得部は、前記カメラ傾斜角度として、上下方向における前記カメラの撮像方向の傾斜角度であるカメラチルト角を取得し、
前記モニタ制御部は、前記モニタ傾斜角度として、上下方向における前記モニタの画面が向く方向の傾斜角度であるモニタチルト角を制御する、請求項5又は6に記載のロボット装置。
The tilt angle acquisition unit acquires, as the camera tilt angle, a camera tilt angle that is a tilt angle of an imaging direction of the camera in a vertical direction,
7. The robot apparatus according to claim 5 , wherein said monitor control unit controls, as said monitor tilt angle, a monitor tilt angle which is a tilt angle of a direction in which a screen of said monitor faces in a vertical direction.
前記モニタ制御部は、取得された前記カメラチルト角に基づいて、前記モニタの上下方向の位置を制御する、請求項1~4、及び7のいずれか一項に記載のロボット装置。 8. The robot apparatus according to any one of claims 1 to 4 and 7, wherein the monitor control unit controls the vertical position of the monitor based on the obtained camera tilt angle.
JP2019056900A 2019-03-25 2019-03-25 robot equipment Active JP7230626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019056900A JP7230626B2 (en) 2019-03-25 2019-03-25 robot equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019056900A JP7230626B2 (en) 2019-03-25 2019-03-25 robot equipment

Publications (2)

Publication Number Publication Date
JP2020157394A JP2020157394A (en) 2020-10-01
JP7230626B2 true JP7230626B2 (en) 2023-03-01

Family

ID=72641022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056900A Active JP7230626B2 (en) 2019-03-25 2019-03-25 robot equipment

Country Status (1)

Country Link
JP (1) JP7230626B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4558682B2 (en) 2006-06-15 2010-10-06 株式会社日立製作所 Manipulator remote control method for mobile robot system
JP2011206180A (en) 2010-03-29 2011-10-20 Olympus Corp Operation input unit and manipulator system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3215616B2 (en) * 1995-11-16 2001-10-09 株式会社日立製作所 Robot guidance method and guidance system
JPH09179502A (en) * 1995-12-22 1997-07-11 Matsushita Electric Works Ltd Display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4558682B2 (en) 2006-06-15 2010-10-06 株式会社日立製作所 Manipulator remote control method for mobile robot system
JP2011206180A (en) 2010-03-29 2011-10-20 Olympus Corp Operation input unit and manipulator system

Also Published As

Publication number Publication date
JP2020157394A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US10980605B2 (en) Remote control robot system
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
JP5022868B2 (en) Information processing apparatus and information processing method
JP2016107379A (en) Robot system including augmented reality corresponding display
JP6445092B2 (en) Robot system displaying information for teaching robots
JP2007216350A (en) Mobile type robot
JP2013184257A (en) Robot apparatus, method for controlling robot apparatus, and computer program
US11358286B2 (en) Robot system and method of operating the same
JP6959762B2 (en) Remote control robot system
JP7272825B2 (en) robot system
JP2011101915A (en) Robot system
JP2022186719A (en) Dismantling system
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP4277825B2 (en) Robot teaching system
JP7230626B2 (en) robot equipment
WO2019208174A1 (en) Industrial vehicle remote system, industrial vehicle, remote device, industrial vehicle remote program, and industrial vehicle remote method
JP7224559B2 (en) Remote control manipulator system and remote control support system
JPH0430981A (en) Control unit for television camera of remote control type robot
WO2011148729A1 (en) Method for moving movement machine
WO2020203819A1 (en) Remote operating device
JPH10249786A (en) Manipulator control device and operation supporting device
JP2013173209A (en) Robot apparatus and control method of the same, and computer program
JP2022131113A (en) Welding work device
JPH0645347Y2 (en) Stereoscopic monitoring device for remote control
JP2023009642A (en) Remote operation system, operation device and remote operation support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R151 Written notification of patent or utility model registration

Ref document number: 7230626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151