JP2019093471A - ロボットシステム及びそれを用いて物を作る方法 - Google Patents

ロボットシステム及びそれを用いて物を作る方法 Download PDF

Info

Publication number
JP2019093471A
JP2019093471A JP2017224267A JP2017224267A JP2019093471A JP 2019093471 A JP2019093471 A JP 2019093471A JP 2017224267 A JP2017224267 A JP 2017224267A JP 2017224267 A JP2017224267 A JP 2017224267A JP 2019093471 A JP2019093471 A JP 2019093471A
Authority
JP
Japan
Prior art keywords
robot
controller
operator
imaging data
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017224267A
Other languages
English (en)
Other versions
JP6944354B2 (ja
Inventor
聡 日比野
Satoshi Hibino
聡 日比野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2017224267A priority Critical patent/JP6944354B2/ja
Priority to PCT/JP2018/039944 priority patent/WO2019102789A1/ja
Priority to EP18880642.6A priority patent/EP3715066A4/en
Priority to US16/766,362 priority patent/US11613022B2/en
Priority to CN201880075405.8A priority patent/CN111432991B/zh
Priority to KR1020207012924A priority patent/KR102375802B1/ko
Publication of JP2019093471A publication Critical patent/JP2019093471A/ja
Application granted granted Critical
Publication of JP6944354B2 publication Critical patent/JP6944354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0075Manipulators for painting or coating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/041Cylindrical coordinate type
    • B25J9/042Cylindrical coordinate type comprising an articulated arm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • B25J9/046Revolute coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)

Abstract

【課題】監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に対応可能なロボットシステム及びそれを用いて物を作る方法を提供する。【解決手段】ロボット本体1とロボット本体1の動作を制御するロボット制御器3とを有するロボット10と、自律飛行可能な無人飛行体4と、を備え、無人飛行体4は、ロボット本体1の作業の撮像データ及びロボット本体1の作業対象の位置情報の少なくとも一方を取得するとともにロボット制御器3に送信するように構成されており、ロボット制御器3は、撮像データ及び作業対象の位置情報の少なくとも一方を受信し、撮像データ及び作業対象の位置情報の少なくとも一方を利用してロボット本体1の動作を制御するように構成されている。【選択図】図1

Description

本発明は、ロボットシステム及びそれを用いて物を作る方法に関する。
従来、遠隔操作されるロボットにおいて、ロボットの作業の様子をカメラによって監視することが知られている。例えば、特許文献1に記載の技術では、遠隔操作されるロボットの作業の様子が1台の監視カメラで撮像され、監視カメラで取り込まれた画像が遠隔地で表示される。そして、1台の監視カメラが複数箇所に選択的に置き替えられる。これにより、1台の監視カメラによって遠隔操作ロボットを監視することができる。
特開平6−015594号公報
ところで、最近、ロボットの用途、即ち、ロボットを適用する対象物(以下、ロボット適用対象物という)が拡大しつつある。それらの中には、監視カメラの死角になる作業対象が多いロボット適用対象物がある。このようなロボット適用対象物として、例えば、船舶、航空機、橋梁、大きな建物等が挙げられる。このようなロボット適用対象物の場合、上記従来技術では、監視カメラの設置箇所を増やすには限度があるので、対応することが困難である。また、このようなロボット適用対象物には、多数の作業対象があるため、ロボットを個々の作業対象の近傍に移動させる必要がある。このような場合、少なくとも作業対象の位置情報が必要である。上記従来技術では、作業対象の位置情報について全く言及していない。
本発明は上記課題を解決するためになされたものであり、監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に対応可能なロボットシステム及びそれを用いて物を作る方法を提供することを目的とする。
上記課題を解決するために、本発明のある態様(Aspect)に係るロボットシステムは、ロボット本体と前記ロボット本体の動作を制御するロボット制御器とを有するロボットと、 自律飛行可能な無人飛行体と、を備え、前記無人飛行体は、前記ロボット本体の作業の撮像データ及び前記ロボット本体の作業対象の位置情報の少なくとも一方を取得するとともに前記ロボット制御器に送信するように構成されており、前記ロボット制御器は、前記撮像データ及び前記作業対象の位置情報の少なくとも一方を受信し、前記撮像データ及び前記作業対象の位置情報の少なくとも一方を利用して前記ロボット本体の動作を制御するように構成されている。
この構成によれば、無人飛行体がロボット本体の作業の撮像データ及びロボット本体の作業対象の位置情報の少なくとも一方を取得するとともにロボット制御器に送信し、ロボット制御器が、この撮像データを利用してロボット本体の動作を制御する場合には、例えば、ロボット制御器が撮像データに基づいてロボット本体の作業の映像を表示器に表示し、操作者がロボット操作器によってロボット制御器を介してロボット本体の動作を制御するようにロボットシステムを構成すると、無人飛行体をロボット適用対象物の作業対象を撮像するのに適した位置に移動させることにより、操作者が表示器に表示されるロボット本体の作業の映像を見ながらロボット本体を操作することができる。一方、無人飛行体がロボット本体の作業対象の位置情報を取得するとともにロボット制御器に送信し、ロボット制御器がこの位置情報を利用してロボット本体の動作を制御する場合には、ロボット本体を移動可能に構成することによって、ロボット制御器がロボット本体の作業対象の位置情報を利用してロボット本体を ロボット本体の作業位置に移動させることができる。その結果、監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に対応することができる。
前記ロボットシステムは、操作者が前記ロボット本体を操作するためのロボット操作器と、前記操作者に前記ロボット本体の作業の映像を提示するための表示器と、をさらに備え、前記無人飛行体は、前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信するように構成され、前記ロボット制御器は、前記撮像データを受信し、前記撮像データに基づいて前記表示器に前記ロボット本体の作業の映像を表示し、且つ、前記操作者による前記ロボット操作器の操作に従って前記ロボット本体の動作を制御するように構成されていてもよい。
この構成によれば、無人飛行体を、ロボット適用対象物の作業対象を撮像するのに適した位置に移動させることにより、操作者が表示器に表示されるロボット本体の作業の映像を見ながらロボット本体を操作することができる。従って、監視カメラの死角になる作業対象が多いロボット適用対象物に好適に対応することができる。
前記無人飛行体は、前記ロボット本体の作業を撮像する撮像器と、前記撮像器からの撮像データを前記ロボット制御器に送信する飛行体通信器と、を備え、前記ロボットは、前記送信器から送信される前記撮像データを受信するロボット通信器を備えてもよい。
この構成によれば、操作者が表示器に表示されるロボット本体の作業の映像を見ながらロボット本体を操作することができるロボットシステムを好適に構築することができる。
前記ロボット本体が取り付けられた移動装置と、前記操作者が前記移動装置を操作するための移動装置操作器と、をさらに備え、前記移動装置は、前記ロボット本体を鉛直方向及び水平方向に移動可能に構成されていてもよい。
この構成によれば、操作者が移動装置操作器を操作することによって、ロボット本体を鉛直方向及び水平方向に移動させることができる。その結果、ロボット本体の作業を好適に行うことができる。
前記ロボット本体は走行可能に構成され、前記ロボット操作器は、前記ロボット本体の作業及び走行を操作するように構成され、前記ロボット制御器は、前記操作者による前記ロボット操作器の前記ロボット本体の走行に関する操作に従って前記ロボット本体の走行を制御するように構成されていてもよい。
この構成によれば、操作者が表示器に表示されるロボット本体の作業対象の位置情報を見ながら、ロボット本体を作業対象位置に走行させることができる。
前記ロボット制御器は、所定の制御プログラムに従って前記ロボット本体の動作を制御するように構成されていてもよい。
この構成によれば、ロボット本体を自動的に動作させることができる。
前記ロボット制御器は、前記無人飛行体を用いて前記ロボット本体の作業対象を特定するように構成されていてもよい。
この構成によれば、無人飛行体を用いて広い範囲を監視することができるので、容易にロボット本体の作業対象を特定することができる。
前記ロボット本体は走行可能に構成され、前記無人飛行体は、前記ロボット本体の作業対象の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、前記ロボット制御器は、前記作業対象の位置情報を受信すると、前記ロボット本体の位置と前記作業対象の位置情報とに基づいて前記ロボット本体を前記作業対象位置に走行させるように構成されていてもよい。
この構成によれば、ロボット本体を自動的に作業対象位置に走行させることができる。
前記無人飛行体は、前記ロボット本体の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、前記ロボット制御器は、受信した前記ロボット本体の位置と前記作業対象の位置情報とに基づいて前記ロボット本体を前記作業対象位置に走行させるように構成されていてもよい。
この構成によれば、自動的にロボット本体の位置情報を取得し、且つロボット本体を自動的に作業対象位置に走行させることができる。
前記無人飛行体は、さらに前記ロボット本体から前記作業対象に至る経路に存在する障害物の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、前記ロボット制御器は、受信した前記障害物の位置情報に基づいて、前記障害物を回避して前記ロボット本体を前記作業対象位置に走行させるように構成されていてもよい。
この構成によれば、自動的に、ロボット本体から作業対象に至る経路に存在する障害物を回避してロボット本体を前記作業対象位置に走行させることができる。
前記ロボット本体が多関節の産業用ロボットアームであってもよい。
この構成によれば、ロボット本体が多関節の産業用ロボットアームであるので、その適用対象物及び作業対象に汎用性がある。従って、監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に好適に対応可能なロボットアームロボットシステムを提供することができる。
また、本発明の他の態様(Aspect)に係るロボットシステムを用いて物を作る方法は、ロボットシステムを用いて物を作る方法であって、前記ロボットシステムは、ロボット本体と前記ロボット本体の動作を制御するロボット制御器とを有するロボットと、自律飛行可能な無人飛行体と、を備え、前記方法は、前記無人飛行体によって、前記物に対する前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信することと、前記ロボット制御器によって、前記撮像データを受信し且つ前記撮像データを利用して前記ロボット本体の動作を制御することと、を含む。
この構成によれば、例えば、ロボット制御器が撮像データに基づいてロボット本体の作業の映像を表示器に表示し、操作者がロボット操作器によってロボット制御器を介してロボット本体の動作を制御するようにロボットシステムを構成することによって、無人飛行体をロボット適用対象物の作業対象を撮像するのに適した位置に移動させ、操作者がロボット本体の作業を表示される映像を見ながらロボット本体を操作することができる。
前記ロボットシステムは、操作者が前記ロボット本体を操作するためのロボット操作器と、前記操作者に前記ロボット本体の作業の映像を提示するための表示器と、前記操作者が前記無人飛行体を操作するための飛行体操作器と、をさらに備え、前記物に対する前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信することを、前記操作者による前記飛行体操作器の操作に従って行い、前記ロボット制御器によって、前記撮像データを受信し且つ前記撮像データを利用して前記ロボット本体の動作を制御することが、前記ロボット制御器によって、前記撮像データに基づいて前記表示器に前記物に対する前記ロボット本体の作業の映像を表示し且つ前記操作者による前記ロボット操作器の操作に従って前記ロボット本体の動作を制御することであってもよい。
この構成によれば、操作者が表示器に表示されるロボット本体の作業対象の位置情報を見ながら、ロボット本体を作業対象位置に走行させることができる。
前記ロボット本体が多関節の産業用ロボットアームであり、前記物が船舶、車両、航空機、橋梁、及び建物のいずれかであってもよい。
この構成によれば、ロボット本体が多関節の産業用ロボットアームであるので、その適用対象物及び作業対象に汎用性がある。一方、船舶、車両、航空機、橋梁、及び建物は、監視カメラの死角になる作業対象が多いロボット適用対象物、又はロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物である。従って、これらのロボット適用対象物に対してロボットシステムが特に顕著な効果を奏する。
本発明によれば、監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に対応可能なロボットシステム及びそれを用いて物を作る方法を提供することができる。
図1は、本発明の実施形態1に係るロボットシステムのハードウエアの構成例を示す模式図である。 図2は、図1のロボットシステムの適用状態を示す模式図である。 図3は、図1のロボットシステムの制御系統の構成例を示すブロック図である。 図4は、図1のロボットシステムの使用方法を示すフローチャートである。 図5は、本発明の実施形態1の変形例に係るロボットシステムの適用状態を示す模式図である。 図6は、図5に示されたロボットシステムの制御系統の構成例を示すブロック図である。 図7は、本発明の実施形態2に係るロボットシステムのハードウエアの構成例を示す模式図である。 図8は、図7のロボットシステムの制御系統の構成例を示すブロック図である。 図9は、図7のロボットシステムの適用状態を示す模式図である。 図10は、図9の単位棚の構成を模式的に示す正面図である。 図11は、図7のロボットシステムの動作(使用方法)を示すフローチャートである。
以下、本発明の実施形態について、添付図面を参照しつつ説明する。なお、以下では、全ての図を通じて、同一又は相当する要素には同一の参照符号を付してその重複する説明を省略する。また、添付図面は、本発明を説明するための図である。それ故、本発明に無関係な要素が省略される場合、誇張のため寸法が正確でない場合、簡略化される場合、複数の図面において同一の要素の形状が互いに一致しない場合等がある。
(実施形態1)
[ハードウエアの構成]
図1は、本発明の実施形態1に係るロボットシステムの構成例を示す模式図である。図2は、図1のロボットシステムの適用状態を示す模式図である。
図1を参照すると、ロボットシステム100は、ロボット本体1とロボット本体1の動作を制御するロボット制御器3とを有するロボット10と、自律飛行可能な無人飛行体4と、を備える。無人飛行体4は、ロボット本体1の作業の撮像データを取得するとともにロボット制御器3に送信するように構成されている。ロボット制御器3は、撮像データを受信し、撮像データを利用してロボット本体1の動作を制御するように構成されている。
ここでは、ロボットシステム100は、操作者9(図1に示さず。図5参照。)がロボット本体1を操作するためのロボット操作器2と、操作者9にロボット本体1の作業の映像を提示するためのモニタ(表示器)5と、をさらに備える。無人飛行体4は、ロボット本体1の作業の撮像データを取得するとともにロボット制御器3に送信するように構成され、ロボット制御器3は、撮像データを受信し、撮像データに基づいて表示器5にロボット本体1の作業の映像を表示し、且つ、操作者9によるロボット操作器2の操作に従ってロボット本体1の動作を制御するように構成されている。
以下、具体的にロボットシステム100の構成を説明する。ロボットシステム100は、ロボット10と、ロボット10を移動させる移動装置32と、無人飛行体4と、ロボット操作器2と、モニタ(表示器)5と、飛行体操作器6と、移動装置操作器7と、操作用通信器8と、を備える。
<ロボット>
ロボット10は、ロボット本体1とロボット制御器3とを備える。ロボット本体1は、ここでは、多関節の産業用ロボットアームで構成されている。
{ロボット本体}
ロボット本体1は、基台15と、基台15に支持された腕部13と、腕部13の先端に支持された手首部14と、手首部14に装着されたエンドエフェクタとしてのハンド41と、を備えている。ハンド41は、ここでは、塗装ガンで構成される。
ロボット本体1は、図1に示すように3以上の複数の関節JT1〜JT6を有する多関節ロボットアームであって、複数のリンク11a〜11fが順次連結されて構成されている。より詳しくは、第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11cの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捩じり回転可能に連結されている。そして、第6リンク11fの先端部にはメカニカルインターフェースが設けられている。このメカニカルインターフェースには、ロボットアーム11の作業内容に対応したエンドエフェクタとしてのハンド41が着脱可能に装着される。
上記の第1関節JT1、第1リンク11a、第2関節JT2、第2リンク11b、第3関節JT3、及び第3リンク11cから成るリンクと関節の連結体によって、ロボットアーム11の腕部13が形成されている。また、上記の第4関節JT4、第4リンク11d、第5関節JT5、第5リンク11e、第6関節JT6、及び第4リンク11fから成るリンクと関節の連結体によって、ロボットアーム11の手首部14が形成されている。
関節JT1〜JT6には、それが連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータ(図示せず)が設けられている。駆動モータは、例えば、ロボット制御器3から送信される制御信号によってサーボアンプを介してサーボ制御されるサーボモータである。また、関節JT1〜JT6には、駆動モータの回転角を検出するための回転角センサ(図示せず)と、駆動モータの電流を検出するための電流センサ(図示せず)とが設けられている。
{制御器}
制御器3は、例えば、プロセッサとメモリとを備える。制御器3は、メモリに格納された所定の動作プログラムをプロセッサが読み出して実行することにより、ロボット本体1の動作を制御する。制御器3は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、論理回路等で構成される。制御器3は、回転角センサの検出信号と電流センサの検出信号とをフードバック信号として用いてロボット本体1の腕部13及び手首部14の制御信号を生成し、腕部13及び手首部14の動作をフィードバック制御する。さらに、ロボット制御器3は、上述の所定の動作プログラムに従ってロボット本体1のハンド41の動作を制御する。
<移動装置>
ロボット10は移動装置32に取り付けられる。移動装置32は、ロボット本体1を鉛直方向及び水平方向に移動可能に構成される。
図2を参照すると、移動装置32は、例えば、設置面に設置される基台51を有する。基台51上には支柱52が立設される。支柱52に、可動体53が、移動機構54(図2に示さず。図3参照)によって、鉛直方向及び水平方向に移動可能に設けられる。移動機構54は、例えば、周知の2軸移動機構によって構成される。可動体53は、例えば、水平な棒状の枠体によって構成される。可動体53の一方の端部にロボット本体1が設置される。
<無人飛行体>
図1を参照すると、無人飛行体4は、例えばドローンで構成される。無人飛行体4は、例えば、本体21と、本体21に設けられた4つの回転翼20とを含む。本体21には、カメラ22が設けられる。無人飛行体4は、操作モードと自立飛行モードとを有し、飛行体操作器6からの操作指令を受け取らない状態では自律飛行し、飛行体操作器6から飛行体操作指令を受け取ると、操作モードに切り替わり、飛行体操作指令に従って飛行する。カメラ22は、直交する2平面内で姿勢を変更することが可能に構成されており、且つ自動焦点機能を有する。カメラ22は、ロボット10の作業を撮像するために用いられる。
<操作器群>
ロボットシステム100には、操作机29が配置される。操作机29はロボット10の適用対象から離れた場所に配置される。操作机29の上には、ロボット操作器2と、モニタ(表示器)5と、飛行体操作器6と、移動装置操作器7とが配置される。また、操作机29には操作用通信器8が設けられる。ロボット操作器2は、ジョイスティック、マスターロボット等で構成され、その操作に応じたロボット操作指令を出力する。飛行体操作器6には、飛行体操作部とカメラ操作部とが設けられている。飛行体操作部は、ジョイスティック、操縦桿等で構成され、その操作に応じた飛行体操作指令を出力する。カメラ操作部は押しボタン、ダイヤル等の適宜な操作機構で構成され、その操作に応じたカメラ操作指令を出力する。移動装置操作器7は、ジョイスティック等で構成され、その操作に応じた移動指令を出力する。
[適用環境]
図2を参照すると、本実施形態1では、ロボット10が、例えば、船舶31のぎ装に適用される。換言すると、本実施形態1では、ロボット10ムの適用対象物が船舶31であり、ロボット10(ロボット本体1)の作業がぎ装であり、ロボット10(ロボット本体1)の作業対象が、船舶31のぎ装される部位である。
船舶31は、大きいため、固定の監視カメラでは死角ができやすい。また、ロボット10の作業部位が多数存在する。このため、船舶31は、本実施形態1のロボットシステム100を適用すると、特に、顕著な効果が得られる。
図2の例では、ロボット本体1は、先端部に備えるハンド41としての塗装ガンによって、船舶31の船体の側面31aの塗装を行う。また、無人飛行体4が、カメラ22によって、ロボット本体1の作業を撮像する。
[制御系統の構成]
図3は、図1のロボットシステムの制御系統の構成例を示すブロック図である。図3を参照すると、操作机29は、ロボット操作器2と、モニタ5と、飛行体操作器6と、移動装置操作器7と、操作用通信器8と、を備える。操作用通信器8は、ロボット操作器2、飛行体操作器6、及び移動装置操作器7から送信される指令をロボット通信器42又は飛行体通信器24に送信する。また、操作用通信器8は、ロボット通信器42から受信する表示制御信号をモニタ5に送信する。モニタ5は、受信した表示制御信号に応じた画像を表示する。
ロボット10は、ロボット制御器3と、ロボット本体1と、ロボット通信器42と、を備える。ロボット通信器42は、ロボット制御器3から送信される表示制御信号を操作用通信器8に送信し、且つ、操作用通信器8及び飛行体通信器24から受信するロボット操作指令及び撮像データをロボット制御器3に送信する。ロボット制御器3は、ロボット制御部18と、モニタ制御部19と、を含む。ロボット制御部18は、ロボット通信器42を介して受け取るロボット操作器2からのロボット操作指令に従って、ロボット本体1の動作を制御する。モニタ制御部19は、ロボット通信器42を介して、モニタ5に表示制御信号を送信し、モニタ5に表示制御信号に応じた画像を表示させる。特に、モニタ制御部19は、ロボット通信器42を介してカメラ制御部26からの撮像データを受け取り、当該撮像データに応じた画像をモニタ5に表示させる。
無人飛行体4は、飛行体制御器23と、飛行機構27と、カメラ22と、飛行体通信器24とを備える。飛行機構27は、無人飛行体4を、所望の方向に飛行させる機構であり、回転翼20の駆動源及び回転翼の角度調整機構を含む。飛行体通信器24は、飛行体制御器23から送信される撮像データをロボット通信器42に送信し、且つ、飛行体操作器6から受信する操作指令を飛行体制御器23に送信する。飛行体制御器23は、飛行制御部25とカメラ制御部26とを含む。飛行制御部25は、自律モードにおいて、所定のプログラムに従って、無人飛行体4が所定の飛行を行うよう飛行機構27を制御する。また、飛行制御部25は、飛行体通信器24を介して飛行体操作器6からの飛行体操作指令を受け取ると、当該飛行体操作指令に従って、無人飛行体4が当該飛行体操作指令に応じた飛行を行うよう飛行機構27を制御する。カメラ制御部26は、飛行体操作器6から飛行体通信器24を介してカメラ操作指令を受け取ると、当該カメラ操作指令に従って、カメラ22の動作(ON−OFF及び姿勢)を制御する。また、カメラ制御部26は、カメラ22が撮像した撮像データを、飛行体通信器24に送信する。
移動装置32は、移動制御器55と、移動機構54と、移動装置通信器56と、を備える。移動装置通信器56は、操作用通信器8から受信する移動指令を移動制御器55に送信する。図2を参照すると、移動制御器55は、移動指令に応じて可動体53が移動するよう移動機構54を制御する。
操作用通信器8と、ロボット通信器42、飛行体通信器24、及び移動装置通信器56との間の通信、及びロボット通信器42と飛行体通信器24との間の通信は、ここでは無線であるが、有線であってもよい。
[動作]
次に、以上のように構成されたロボットシステム100の動作(使用方法)を説明する。ロボットシステム100の動作(使用方法)は、換言すると、ロボットシステム100を用いて物を作る方法である。ここでは、図2に示すように、ロボット本体1が船舶31の船体の塗装を行う場合を例に取って説明する。
図4は、図1のロボットシステム100の使用方法を示すフローチャートである。
<準備作業>
図1乃至図4を参照すると、まず、操作者9が、無人飛行体4を目視しながら、無人飛行体4が所望の位置に飛行するよう、飛行体操作器6の飛行体操作部を操作する(ステップS1)。
すると、飛行体制御器23の飛行制御部25が、飛行機構27を制御して、無人飛行体4を飛行体操作部の操作に応じて飛行させる。操作者9は、無人飛行体4が、所望の位置に位置すると、飛行体操作部から手を離す。すると、無人飛行体4は、自律モードに移行し、その位置に止まるように飛行する。一方、この間、無人飛行体4のカメラが撮像した撮像データが飛行体制御器23のカメラ制御部26からロボット制御器3のモニタ制御部19に送信され、モニタ制御部19によって、その撮像データに対応する画像がモニタ5に表示される。操作者9は、モニタ5を見ながら、ロボット本体1の作業対象(ここでは船舶31の船体の側面31aの所望の塗装部位)がモニタ5に表示されるように、飛行体操作器6のカメラ操作部を操作する。すると、飛行体制御器23のカメラ制御部26が、その操作に応じてカメラ22の姿勢を変化させ、それにより、ロボット本体1の作業対象(塗装部位)がモニタ5に表示される。
<本番作業>
次いで、操作者9は、モニタ5を見ながら、ロボット本体1がロボット本体1の作業対象に近づくように移動装置操作器7を操作する。すると、移動装置32の移動制御器55が、移動機構54を制御して、ロボット本体1を、ロボット本体1の作業対象に近づける。次いで、操作者9は、ロボット操作器2を操作して、ロボット本体1の塗装ガンによって、船舶31の船体の側面31aの所望の塗装部位に塗装を開始する。一方、無人飛行体4のカメラ22は、この塗装作業を撮像し、その撮像データをカメラ制御部26に送信する。カメラ制御部26は、この撮像データをロボット制御器3のモニタ制御部19に送信する(ステップS2)。
モニタ制御部19(ロボット制御器3)は、この撮像データに対応する映像である、撮像された塗装作業の映像をモニタ5に表示する(ステップS3)
操作者9は、このモニタ5に表示される塗装作業の映像を見ながら、ロボット操作器2を操作して塗装を行う。そして、当該塗装部位の塗装が完了すると、操作者9は、ロボット本体1が次の作業対象(船舶31の船体の側面31aの次の塗装部位)に移動するよう移動装置操作器7を操作する。すると、移動装置32の移動制御器55が、移動機構54を制御して、ロボット本体1を、ロボット本体1の次の作業対象に近づける。次いで、モニタ5の映像を見ながら、操作者9は、ロボット操作器2を操作して、ロボット本体1の塗装ガンによって、次の作業対象(船舶31の船体の側面31aの次の塗装部位)に塗装を行う(ステップS4)。
これ以降、ステップS2乃至ステップS4を繰り返し、予定された塗装作業が終了すると、船舶31の船体の塗装を終了する。
[作用効果]
以上に説明したように、本実施形態1によれば、無人飛行体4がロボット本体1の作業の撮像データを取得するとともにロボット制御器3に送信し、ロボット制御器3がこの撮像データに基づいてロボット本体1作業の映像を表示器(モニタ5)に示し、操作者9がロボット操作器2によってロボット制御器3を介してロボット本体1の動作を制御するので、無人飛行体4をロボット適用対象物(船舶31)の作業対象(船体の側面31aの塗装部位)を撮像するのに適した位置に移動させることにより、操作者9が表示器(モニタ5)に表示されるロボット本体1の作業の映像を見ながらロボット本体1を操作することができる。従って、固定の監視カメラの死角になる作業対象(船体の側面31aの塗装部位)が多いロボット適用対象物(船舶)に好適に対応することができる。
また、ロボットシステム100が、ロボット本体1が取り付けられた移動装置32と、操作者9が移動装置32を操作するための移動装置操作器7と、をさらに備え、移動装置32は、ロボット本体1を鉛直方向及び水平方向に移動可能に構成されているので、操作者9が移動装置操作器7を操作することによって、ロボット本体1を鉛直方向及び水平方向に移動させることができる。その結果、ロボット本体1の作業を好適に行うことができる。
(実施形態1の変形例)
図5は、本発明の実施形態1の変形例に係るロボットシステムの適用状態を示す模式図である。図6は、図5に示されたロボットシステムの制御系統の構成例を示すブロック図である。
図5に示すように、実施形態1の変形例のロボットシステム200は、移動装置33が走行可能に構成されている点において、実施形態1(基本構成)のロボットシステム100と異なり、その他の構成は実施形態1のロボットシステム100と同じである。以下、この相違点について説明する。
図5を参照すると、移動装置33は、例えば、周知のクレーン車で構成されている。この移動装置33は、車両34と、車両34の荷台部分に設けられた屈折式のジブ(ブーム)35とを備える。そして、ジブ35の先端部に多関節型の産業用ロボットアームからなるロボット本体1が設置されている。船舶31は、実施形態1の船舶31と比べると大きい。このため、ロボット本体1によって船舶31の船体の側面31aを塗装する際にロボット本体1を広範囲に移動させる必要がある。なお、参照符号36は、噴霧状の塗料を示し、参照符号37は、船舶31の船体の側面31aの塗り分けの境界線を示す。
本変形例では、移動装置操作器7は、操作者9が、移動装置33を所望の速度で所望の方向に走行させ、且つ、屈折式のジブ35を、所望の方向に回転させ、且つ、所望の程度に屈伸させることが可能なように構成されている。
本変形例では、操作者9が移動装置33を適宜操作することによって、ロボット本体1を所望の位置に移動させることができる。具体的には、操作者9が、飛行体操作器6を操作することによって、ロボット本体1の適用対象である船舶31と移動装置33とがモニタ5に同時に表示されるように、無人飛行体4及びカメラ22を遠隔制御する。その一方で、操作者9は、モニタ5に表示される船舶31と移動装置33を見ながら移動装置操作器7を操作して、ロボット本体1が船舶31の船体の側面31aの所望の塗装部位に近づくように、移動装置33の車両34を走行させるとともにジブ35を屈伸させる。かくして、本変形例では、操作者9が、ロボット本体1を広範囲に移動させることができる。その結果、船舶31が大きくても、船舶31の船体の側面31aを好適に塗装することができる。
(実施形態2)
本発明の実施形態2のロボットシステム300は、ロボット本体1及び無人飛行体4がそれぞれ所定のプログラムに従って動作する点が実施形態1のロボットシステム100と主に相違する。以下、実施形態1のロボットシステム100との相違点を説明する。
[構成]
図7は、本発明の実施形態2に係るロボットシステムのハードウエアの構成例を示す模式図である。
図7を参照すると、ロボットシステム300は、台車70を備える。台車70は、ここでは、基部に車輪70aを備える箱体で構成されている。台車70は、車輪70aによって移動可能であり、所望の場所に停止することができる。車輪70aは、図示されない駆動機構によって駆動される。この駆動機構は、駆動源として、例えば、サーボモータを備える。車輪70aとこの駆動機構とが移動機構54(図8参照)を構成する。
台車70の上面には、ロボット本体1としてのロボットアームが設置されている。ロボットアームは、後述する所定の作業を行う。従って、ロボットアームは、アームを有し、且つ所定の作業を行うことが可能なものであればよい。例えば、水平多関節ロボット、垂直多関節ロボット、パラレルリンクロボット、直交ロボット等が例示される。ここでは、ロボットアームは、双腕の水平多関節ロボットである。
ロボットアームは、台車70の上面に設置され、上下方向に延びる円柱状の基部71と、基部71に支持された右アーム及び左アームを備える。右アームは、基端部が基部71の中心軸である第1回動軸線の周りに回動自在に基部71に支持された右第1リンク72Aと、基端部が第1回動軸線と平行な第2回動軸線の周りに回動自在に右第1リンク72Aの先端部に支持された右第2リンク73Aと、右第2リンク73Aの先端部に第2回動軸線に垂直な第3回動軸線の周りに捻じれ回転可能で且つ昇降可能に支持された右リスト部74Aと、右リスト部74Aの下端に取り付けられた右ハンド76Aとを含む。右第1リンク72A、右第2リンク73A、及び右リスト部74Aが右アーム部75Aを構成する。
左アームは、基端部が基部71の中心軸である第1回動軸線の周りに回動自在に基部71に支持された左第1リンク72Bと、基端部が第1回動軸線と平行な第4回動軸線の周りに回動自在に左第1リンク72Bの先端部に支持された左第2リンク73Bと、左第2リンク73Bの先端部に第4回動軸線に垂直な第5回動軸線の周りに捻じれ回転可能で且つ昇降可能に支持された左リスト部74Bと、左リスト部74Bの下端に取り付けられた左ハンド76Bとを含む。左第1リンク72B、左第2リンク73B、及び左リスト部74Bが左アーム部75Bを構成する。ここでは、右ハンド76Aは、右リスト部74Aの下端部に固定された基体77Aと、基体77Aから右リスト部74Aの第3回動軸線に平行に延びる細長い板状の爪部材78Aとを含む。左ハンド76Bは、左リスト部74Bの下端部に固定された基体77Bと、基体77Bから左リスト部74Bの第5回動軸線に平行に延びる細長い板状の爪部材78Bとを含む。左右のアームは、独立して動作したり、互いに協働して動作したりすることができる。ここでは、ロボット10は、一対の爪部材78A、78Bをフォーク状に揃えて、後述する栽培ベッド83(図10参照)を搬送する。
台車70の内部にはロボット制御器3及びロボット通信器42が収容されている。ロボット制御器3は、メモリに格納された所定の制御プログラムをプロセッサが読み出して実行することにより、ロボット本体1、台車70、及び無人飛行体4の動作を完全に自動制御する。ロボット本体1(ロボットアーム)とロボット制御器3とがロボット10を構成する。
図8を参照すると、ロボット制御器3は、所定の制御プログラムに従って、台車70の移動機構54及びロボット本体1の動作を制御する。
また、ロボット制御器3は、所定の制御プログラムに従って、飛行制御信号を無人飛行体4の飛行体制御器23の飛行制御部25に送信する。無人飛行体4は、自律モードと、実施形態1の操作モードに相当する外部制御モードとを有する。飛行制御部25は、自律モードにおいて、所定のプログラムに従って、無人飛行体4が所定の飛行を行うよう飛行機構27を制御する。また、飛行制御部25は、飛行体通信器24を介してロボット制御器3からの飛行制御信号を受け取ると、外部制御モードに切り替わり、当該飛行制御信号に従って、無人飛行体4が当該飛行制御信号に応じた飛行を行うよう飛行機構27を制御する。
無人飛行体4は、第1カメラ22と第2カメラ28とを備える。第1カメラ22は、実施形態1のカメラ22と同じである。第2カメラ28は、直交する2平面内で姿勢を変更することが可能で、且つ、無人飛行体4の水平面内において360度の範囲で向き(光軸方向)を変えることが可能に構成されている。第2カメラ28は、自動焦点機能を有する。
ロボット制御器3は、所定の制御プログラムに従って、カメラ制御信号を無人飛行体4の飛行体制御器23のカメラ制御部26に送信する。カメラ制御部26は、このカメラ制御信号に従って、第1カメラ22の姿勢並びに第2カメラ28の姿勢及び向きをそれぞれ制御する。第1カメラ22の動作及び第1カメラ22に関するカメラ制御部26の動作は、実施形態1と同様である。但し、ここでは、カメラ制御部26は、第1カメラの撮像データをロボット制御器3に送信する。
第2カメラ28は、例えば、3次元カメラで構成され、その撮像データをカメラ制御部26に送信する。カメラ制御部26は、その撮像データを画像処理することによって、第2カメラ28と被写体との間の距離を検出する。本実形態2では、例えば、被写体が所定形状を有するか、あるいは被写体に所定の識別マークが付されており、カメラ制御部26は、当該所定の形状又は当該所定の識別マークを記憶していて、撮像データに当該所定の形状又は当該所定の識別マークに一致する領域が存在するか否か判定することによって、撮像データから被写体を検出(抽出)する。
無人飛行体4は、例えば、GPSを備えており、カメラ制御部26は、GPSの位置情報から無人飛行体4(正確には無人飛行体4の基準位置)の空間位置を検出する。そして、無人飛行体4の空間位置と、第2カメラ28の無人飛行体4における位置と、第2カメラ28の姿勢及び向きと、第2カメラ28と被写体との間の距離とに基づいて、被写体の空間位置を検出する。そして、この検出した被写体の空間位置をロボット制御器3に送信する。ここでは、被写体として、少なくとも、ロボット本体1、作業対象としての栽培ベッド83(図9参照)、ロボット本体1が移動する場合の障害物としての集合棚82が設定されている。
[適用環境]
図9は、図7のロボットシステム300の適用状態を示す模式図である。図10は、図9の単位棚の構成を模式的に示す正面図である。
図9を参照すると、本実施形態2におけるロボットシステム300のロボット本体1の適用対象は、無人の野菜生育成工場80である。野菜生育成工場80は、例えば、完全閉鎖型である。野菜生育成工場80は、天井が高く且つ比較的広い内部空間を有する工場81を備える。工場81の内部には、複数の集合棚82が、ロボット10が所定の作業を行い且つ走行することが可能な間隔を置いて配置されている。各集合棚82は、所定数の単位棚82aが互いに側面を接して配置されている。
図10を参照すると、単位棚82aは、例えば、3段に仕切られており、上段及び中段が野菜の生育成に用いられる。野菜の生育成には、移動式の栽培ベッド83が用いられる。栽培ベッド83は、発泡スチロール等の本体83aに一対の脚部83bが設けられて構成される。本体83a上で野菜が生育成される。また、一対の脚部83bの間の空間84にロボット10の一対の爪部材78A、78Bが挿入される。上段及び中段においては、天井に、それぞれ、栽培ベッド83上の野菜に所定の光を照射するための照明器具85が設けられ、且つ、栽培ベッド83上の野菜に養液を供給し且つ栽培ベッド83から使用済の養液を排出するための装置(図示せず)が設けられている。
複数の集合棚には、野菜の複数の生育ステップが割り当てられており、各々の集合棚はそれぞれの生育ステップに応じた生育環境に維持される。各栽培ベッド83は、当該栽培ベッド83上の野菜の生育程度に応じて、複数の集合棚を順次移動される。
ロボット制御器3には、図9に示す工場81のレイアウト、すなわち、工場81の内部空間の寸法、集合棚82の配置及び寸法、各集合棚82内における単位棚82aの配置及び寸法、各単位棚82aにおける各段の配置及び寸法等が記憶されている。
[動作]
<基本動作>
本実施形態2では、無人飛行体4のみがGPSを備えており、ロボット10は、GPSを備えない。その理由は以下の通りである。本実施形態2では、GPSの位置誤差が、工場81の大きさに比べて相対的に大きい。もし、無人飛行体4とロボット10との双方がGPSの位置情報に基づいて、それぞれの位置及び集合棚82等を特定すると、GPSの誤差が加算されて、ロボット10の作業に支障が生じる可能性があるからである。もちろん、GPSの位置誤差が、工場81の大きさに比べて相対的に小さい場合には、無人飛行体4とロボット10との双方がGPSを備えてもよい。
本実施形態2では、ロボット制御器3が、無人飛行体4を工場81内において周回させながら、カメラ制御部26を介して、所定の周期及び適宜な姿勢で、第2カメラ22の向き(光軸方向)を、無人飛行体4の水平面内において360度変化させる。換言すると、第2カメラ22を無人飛行体4の水平面内において回転させる。そして、カメラ制御部26が、上述のように、被写体の撮像及び被写体との距離検出を行うことによって、ロボット本体1の空間位置と障害物である各集合棚(正確にはその基準位置)82の空間位置を検出し、これらをロボット制御器3に送信する。
<具体的動作>
図11は、図7のロボットシステム300の動作(使用方法)を示すフローチャートである。ロボットシステム300の動作は、ロボット10のロボット制御器3の制御によって遂行される。
図10及び図11を参照すると、ロボット制御器3は、工場81において、無人飛行体4を周回させる(ステップS11)。この間、上述のように、第2カメラを回転させて、ロボット本体1の空間位置と障害物である各集合棚(正確にはその基準位置)82の空間位置をカメラ制御部26から取得する。
そして、ロボット制御器3は、条件に適合するアイテムが存在するか否か判定する(ステップS12)。「アイテム」は、ロボット10が何等かの作業を行う必要がある事象を意味する。ここでは、例えば、栽培ベッド83上の野菜の生育程度に応じて、当該栽培ベッド83が載置される集合棚82を変更(移動)することである。「条件」は、ロボット10が何等かの作業を行う条件を意味する。ここでは、栽培ベッド83上の野菜の生育程度が、当該栽培ベッド83が載置される集合棚82を変更する条件を意味する。具体的には、ロボット制御器3は、無人飛行体4のカメラ制御部26を介して第1カメラ22を制御することにより、第1カメラ22に各集合棚82の各栽培ベッド83上の野菜を撮像させ、その撮像データに基づいて、各栽培ベッド83上の野菜の生育程度を監視する。具体的には、ロボット制御器3は、例えば、撮像データを画像処理して、野菜の高さを検出する。一方、ロボット制御器3は、複数の生育ステップと各ステップにおける野菜の上限高さとを対応させた対比テーブルを記憶しており、ロボット制御器3は、検出した野菜の高さをこの対比テーブルと比較し、各栽培ベッド83上の野菜の高さが、各栽培ベッド83が載置されている単位棚82aが属する集合棚82に割り当てられている生育ステップに対応する野菜の上限高さを超えるか否か判定する。
「超えない」場合には、「条件に適合するアイテムが存在しない」と判定し(ステップS12でNO)、その後、生育成業務を終了するか否か判定し(ステップS16)、生育成業務を終了しない場合(ステップS16でNO)、ステップS11に戻る。なお、生育成業務を終了する場合(ステップS16でYES)、このロボットシステム300の動作を終了する。この場合、無人飛行体4は、所定位置に着陸される。
一方、「超える」場合には、「条件に適合するアイテムが存在する」と判定し(ステップS12でYES)、ステップS13に進む。以下、この「条件に適合するアイテム」に対応する栽培ベッド83を「適合栽培ベッド」と呼ぶ。
ステップS13では、ロボット制御器3は、適合場所を特定する。この「適合場所」は、ここでは、適合栽培ベッド83が載置されている単位棚82aの段である。具体的には、ロボット制御器3は、無人飛行体4のカメラ制御部26を介して、第2カメラ28が第1カメラ22と同じ姿勢及び向きを取るよう第2カメラ22を制御する。すると、カメラ制御部26が、上述のように動作して、適合栽培ベッドの空間位置を検出し、これをロボット制御器3に送信する。この場合、カメラ制御部26は、栽培ベッド83の形状を記憶しており、この記憶された栽培ベッド83の形状に基づいて画像処理により、適合栽培ベッド83を被写体(作業対象)として抽出し、その距離を検出する。そして、この距離を用いて上述のように適合栽培ベッド83の空間位置を検出し、これをロボット制御器3に送信する。ロボット制御器3は、この適合栽培ベッド83の空間位置と自身が記憶している工場81のレイアウトとに基づいて、適合栽培ベッド83が載置されている単位棚82aの段を特定するとともに、当該適合栽培ベッド83の空間位置を特定する。
また、ロボット制御器3は、適合栽培ベッド83上の野菜の高さに対応する生育ステップが割り当てられている集合棚82を特定し、且つ、特定された集合棚82において、空いている段を有する単位棚82aを特定する。以下、この単位棚82aの空いている段を移動先段と呼ぶ。次いで、ロボット制御器3は、無人飛行体4のカメラ制御部26から送信されるロボット本体1の空間位置に基づいて、ロボット10(台車70)の現在位置を特定する。そして、ロボット制御器3は、無人飛行体4のカメラ制御部26から送信される各集合棚(その基準位置)82の空間位置と工場81のレイアウトとに基づいて、集合棚82を回避するようにロボット10(台車70)の移動経路を設定する。
次いで、ロボット制御器3は、適合場所にロボット10を移動させる(ステップS14)。具体的には、ロボット制御器3は、台車70の移動機構54を制御して、上記移動経路を通って、ロボット10を適合栽培ベッド83の正面に移動させる。
次いで、ロボット制御器3は、ロボット10に必要な作業を行わせる(ステップS15)。具体的には、ロボット制御器3は、ロボット本体1に、一対の爪部材78A、76Bを適合栽培ベッド83の一対の脚部83bの間に空間84に挿入させ、次いで、一対の爪部材78A、76Bを少し上昇させて適合栽培ベッド83を持ち上げさせる。次いで、ロボット制御器3は、ロボット本体1に、適合栽培ベッド83を、単位棚82aから引き出させる。次いで、ロボット制御器3は、無人飛行体4のカメラ制御部26から送信される各集合棚(その基準位置)82の空間位置と工場81のレイアウトとに基づいて、集合棚82を回避するようにロボット10(台車70)の移動経路を設定する。
次いで、ロボット制御器3は、ロボット10を、上記移動経路を通って、移動先段の正面に移動させる。
次いで、ロボット制御器3は、ロボット本体1に、適合栽培ベッド83を移動先段の上部に移動させ、その後、一対の爪部材78A、76Bを少し降下させて適合栽培ベッド83を移動先段の上に載置させ、その後、一対の爪部材78A、76Bを適合栽培ベッド83の一対の脚部83bの間の空間84から抜かせる。これにより、ロボット10の必要な作業が終了する。
次いで、ロボット制御器3は、生育成業務を終了するか否か判定し(ステップS16)、生育成業務を終了しない場合(ステップS16でNO)、ステップS11に戻る。生育成業務を終了する場合(ステップS16でYES)、このロボットシステム300の動作を終了する。
<作用効果>
本実施形態2によれば、ロボット本体1を自動的に動作させることができる。また、ロボット制御器3が、無人飛行体4を用いてロボット本体1の作業対象(適合栽培ベッド83)を特定するので、無人飛行体4を用いて広い範囲を監視することができる。このため、容易にロボット本体1の作業対象を特定することができる。
また、ロボット本体1が走行可能に構成され、無人飛行体4が、ロボット本体1の作業対象(適合栽培ベッド83)の位置情報を取得するとともにロボット制御器3に送信するように構成され、ロボット制御器3が、作業対象の位置情報を受信すると、ロボット本体1の位置と作業対象の位置情報とに基づいてロボット本体1を作業対象位置に走行させるように構成されているので、ロボット本体1を自動的に作業対象位置に走行させることができる。
また、無人飛行体4が、さらにロボット本体1から作業対象に至る経路に存在する障害物(集合棚82)の位置情報を取得するとともにロボット制御器3に送信するように構成され、ロボット制御器3は、受信した障害物の位置情報に基づいて、障害物を回避してロボット本体1を作業対象位置に走行させるように構成されているので、自動的に、ロボット本体1から作業対象に至る経路に存在する障害物を回避してロボット本体1を作業対象位置に走行させることができる。
(その他の実施形態)
上記実施形態1及びその変形例において、ロボット本体1は、多関節のロボットアームには限定されない。ロボット本体1が、パラレルリンク型ロボット、直交型ロボット、その他のタイプのロボットであってもよい。
上記実施形態1及びその変形例において、ロボット本体1の作業が塗装ではなく、例えば、船舶31の船体の組み立てであってもよい。この場合、移動装置32、33は、船舶31の船体の組み立てに適したクレーンが用いられる。
上記実施形態1及びその変形例において、ロボット本体1の適用対象物が、車両、航空機、橋梁、又は建物であってもよい。
上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造および/又は機能の詳細を実質的に変更できる。
本発明のロボットシステム及びそれを用いて物を作る方法は、監視カメラの死角になる作業対象が多いロボット適用対象物及びロボットを個々の作業対象の近傍に移動させる必要があるロボット適用対象物の少なくとも一方に対応可能なロボットシステム及びそれを用いて物を作る方法等として有用である。
1 ロボット本体
2 ロボット操作器
3 ロボット制御器
4 無人飛行体
5 モニタ(表示器)
6 飛行体操作器
7 移動装置操作器
8 操作用通信器
9 操作者
10 ロボット
11 ロボットアーム
18 ロボット制御部
19 モニタ制御部
20 回転翼
21 本体
22 カメラ(第1カメラ)
23 飛行体制御器
24 飛行体通信器
25 飛行制御部
26 カメラ制御部
27 飛行機構
28 第2カメラ
29 操作机
31 船舶
31a 側面
32 移動装置
33 移動装置
41 ハンド
42 ロボット通信器
54 移動機構
55 移動制御器
56 移動装置通信器
70 台車
80 野菜生育成工場
81 工場
82 集合棚
82a 単位棚
83 栽培ベッド
100、200、300 ロボットシステム

Claims (14)

  1. ロボット本体と前記ロボット本体の動作を制御するロボット制御器とを有するロボットと、
    自律飛行可能な無人飛行体と、を備え、
    前記無人飛行体は、前記ロボット本体の作業の撮像データ及び前記ロボット本体の作業対象の位置情報の少なくとも一方を取得するとともに前記ロボット制御器に送信するように構成されており、
    前記ロボット制御器は、前記撮像データ及び前記作業対象の位置情報の少なくとも一方を受信し、前記撮像データ及び前記作業対象の位置情報の少なくとも一方を利用して前記ロボット本体の動作を制御するように構成されている、ロボットシステム。
  2. 前記ロボットシステムは、操作者が前記ロボット本体を操作するためのロボット操作器と、前記操作者に前記ロボット本体の作業の映像を提示するための表示器と、前記操作者が前記無人飛行体を操作するための飛行体操作器と、をさらに備え、
    前記無人飛行体は、前記操作者による前記飛行体操作器の操作に従って前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信するように構成され、
    前記ロボット制御器は、前記撮像データを受信し、前記撮像データに基づいて前記表示器に前記ロボット本体の作業の映像を表示し、且つ、前記操作者による前記ロボット操作器の操作に従って前記ロボット本体の動作を制御するように構成されている、請求項1に記載のロボットシステム。
  3. 前記無人飛行体は、前記ロボット本体の作業を撮像する撮像器と、前記撮像器からの撮像データを前記ロボット制御器に送信する飛行体通信器と、前記操作者による前記飛行体操作器の操作に従って前記無人飛行体の飛行及び前記撮像器の動作を制御する飛行体制御器と、を備え、
    前記ロボットは、前記飛行体通信器から送信される前記撮像データを受信するロボット通信器を備える、請求項2に記載のロボットシステム。
  4. 前記ロボット本体が取り付けられた移動装置と、前記操作者が前記移動装置を操作するための移動装置操作器と、をさらに備え、
    前記移動装置は、前記ロボット本体を鉛直方向及び水平方向に移動可能に構成されている、請求項3に記載のロボットシステム。
  5. 前記移動装置は走行可能に構成され、
    前記移動装置操作器は、前記移動装置のロボット移動動作及び走行を操作可能なように構成され、
    前記ロボット制御器は、前記操作者による前記移動装置操作器の前記移動装置の走行に関する操作に従って前記移動装置の走行を制御するように構成されている、請求項4に記載のロボットシステム。
  6. 前記ロボット制御器は、所定の制御プログラムに従って前記ロボット本体の動作を制御するように構成されている、請求項1に記載のロボットシステム。
  7. 前記ロボット制御器は、前記無人飛行体を用いて前記ロボット本体の作業対象を特定するように構成されている、請求項6に記載のロボットシステム。
  8. 前記ロボットは走行可能に構成され、
    前記無人飛行体は、特定された前記ロボット本体の作業対象の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、
    前記ロボット制御器は、前記作業対象の位置情報を受信すると、前記ロボット本体の位置と前記作業対象の位置情報とに基づいて前記ロボットを前記作業対象位置に走行させるように構成されている、請求項7に記載のロボットシステム。
  9. 前記無人飛行体は、前記ロボット本体の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、
    前記ロボット制御器は、受信した前記ロボット本体の位置と前記作業対象の位置情報とに基づいて前記ロボットを前記作業対象位置に走行させるように構成されている、請求項8に記載のロボットシステム。
  10. 前記無人飛行体は、さらに前記ロボット本体から前記作業対象に至る経路に存在する障害物の位置情報を取得するとともに前記ロボット制御器に送信するように構成され、
    前記ロボット制御器は、受信した前記障害物の位置情報に基づいて、前記障害物を回避して前記ロボットを前記作業対象位置に走行させるように構成されている、請求項7乃至9のいずれかに記載のロボットシステム。
  11. 前記ロボット本体が多関節の産業用ロボットアームである、請求項1乃至10のいずれかに記載のロボットシステム。
  12. ロボットシステムを用いて物を作る方法であって、
    前記ロボットシステムは、ロボット本体と前記ロボット本体の動作を制御するロボット制御器とを有するロボットと、自律飛行可能な無人飛行体と、を備え、
    前記方法は、
    前記無人飛行体によって、前記物に対する前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信することと、
    前記ロボット制御器によって、前記撮像データを受信し且つ前記撮像データを利用して前記ロボット本体の動作を制御することと、を含む、ロボットシステムを用いて物を造る方法。
  13. 前記ロボットシステムは、操作者が前記ロボット本体を操作するためのロボット操作器と、前記操作者に前記ロボット本体の作業の映像を提示するための表示器と、前記操作者が前記無人飛行体を操作するための飛行体操作器と、をさらに備え、
    前記物に対する前記ロボット本体の作業の撮像データを取得するとともに前記ロボット制御器に送信することを、前記操作者による前記飛行体操作器の操作に従って行い、
    前記ロボット制御器によって、前記撮像データを受信し且つ前記撮像データを利用して前記ロボット本体の動作を制御することが、前記ロボット制御器によって、前記撮像データに基づいて前記表示器に前記物に対する前記ロボット本体の作業の映像を表示し且つ前記操作者による前記ロボット操作器の操作に従って前記ロボット本体の動作を制御することである、請求項12に記載のロボットシステムを用いて物を造る方法。
  14. 前記ロボット本体が多関節の産業用ロボットアームであり、前記物が船舶、車両、航空機、橋梁、及び建物のいずれかである、請求項12又は13に記載のロボットシステムを用いて物を造る方法。
JP2017224267A 2017-11-22 2017-11-22 ロボットシステム及びそれを用いて物を作る方法 Active JP6944354B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017224267A JP6944354B2 (ja) 2017-11-22 2017-11-22 ロボットシステム及びそれを用いて物を作る方法
PCT/JP2018/039944 WO2019102789A1 (ja) 2017-11-22 2018-10-26 ロボットシステム及びそれを用いて物を作る方法
EP18880642.6A EP3715066A4 (en) 2017-11-22 2018-10-26 ROBOTIC SYSTEM AND METHOD OF GENERATING ITEMS USING THEREOF
US16/766,362 US11613022B2 (en) 2017-11-22 2018-10-26 Robot system and method of manufacturing object by using the robot system
CN201880075405.8A CN111432991B (zh) 2017-11-22 2018-10-26 机器人系统及使用其制作物品的方法
KR1020207012924A KR102375802B1 (ko) 2017-11-22 2018-10-26 로봇 시스템 및 이를 이용하여 물건을 제작하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017224267A JP6944354B2 (ja) 2017-11-22 2017-11-22 ロボットシステム及びそれを用いて物を作る方法

Publications (2)

Publication Number Publication Date
JP2019093471A true JP2019093471A (ja) 2019-06-20
JP6944354B2 JP6944354B2 (ja) 2021-10-06

Family

ID=66631511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224267A Active JP6944354B2 (ja) 2017-11-22 2017-11-22 ロボットシステム及びそれを用いて物を作る方法

Country Status (6)

Country Link
US (1) US11613022B2 (ja)
EP (1) EP3715066A4 (ja)
JP (1) JP6944354B2 (ja)
KR (1) KR102375802B1 (ja)
CN (1) CN111432991B (ja)
WO (1) WO2019102789A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020142326A (ja) * 2019-03-06 2020-09-10 ファナック株式会社 ロボットシステム
JPWO2021256464A1 (ja) * 2020-06-19 2021-12-23

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3875230A4 (en) * 2018-11-01 2022-07-27 Canon Kabushiki Kaisha EXTERNAL INPUT DEVICE, ROBOT SYSTEM, CONTROL METHOD FOR ROBOT SYSTEM, CONTROL PROGRAM AND RECORDING MEDIA
JP7563212B2 (ja) * 2021-02-05 2024-10-08 トヨタ自動車株式会社 搬送システム及び搬送方法
CN116088499A (zh) * 2022-12-12 2023-05-09 广东电网有限责任公司广州供电局 一种带电作业机器人系统的无人机辅助系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0615594A (ja) * 1992-07-02 1994-01-25 Toshiba Corp 遠隔操作ロボットの監視装置
JPH11291991A (ja) * 1998-04-03 1999-10-26 Shinshakai System Kenkyusho:Kk 移動体の遠隔操縦システム
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
US20160271796A1 (en) * 2015-03-19 2016-09-22 Rahul Babu Drone Assisted Adaptive Robot Control
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631431B2 (ja) * 2000-12-05 2005-03-23 独立行政法人科学技術振興機構 探知装置、探知方法
KR101149515B1 (ko) * 2010-02-12 2012-05-25 삼성중공업 주식회사 용접 장치 및 용접 방법
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
US9214021B2 (en) 2012-10-09 2015-12-15 The Boeing Company Distributed position identification
US10165722B2 (en) * 2014-12-05 2019-01-01 Deere & Company Scouting systems
EP3256650B1 (en) * 2015-02-13 2023-06-28 ESCO Group LLC Monitoring ground-engaging products for earth working equipment
CN204868886U (zh) * 2015-07-10 2015-12-16 桂林电子科技大学 一种灾害现场可飞行的多功能机器人
JP6598154B2 (ja) * 2015-11-05 2019-10-30 株式会社Ihiエアロスペース 爆発物探知システム
CN205486332U (zh) * 2016-01-20 2016-08-17 珠海市钰海电力有限公司 一种智能无人巡检系统
CN106200667A (zh) * 2016-09-05 2016-12-07 南京理工大学 石化生产现场智能巡检系统
CN106334283A (zh) * 2016-10-10 2017-01-18 南京工程学院 一种灭火救援机器人系统及控制方法
CN106965179A (zh) * 2017-04-10 2017-07-21 浙江谱麦科技有限公司 一种工业机器人的视觉定位系统及方法
DE102017116659A1 (de) 2017-07-24 2019-01-24 Vorwerk & Co. Interholding Gmbh Im Außenbereich selbsttätig verfahrbares Arbeitsgerät
CN107329487A (zh) * 2017-08-31 2017-11-07 西南交通大学 一种无人机与机器人空中联动作业平台
US10890921B2 (en) * 2018-05-31 2021-01-12 Carla R. Gillett Robot and drone array
US20230008259A1 (en) * 2021-07-09 2023-01-12 Qualcomm Incorporated Techniques for wideband operation of sidelink communications over unlicensed band

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0615594A (ja) * 1992-07-02 1994-01-25 Toshiba Corp 遠隔操作ロボットの監視装置
JPH11291991A (ja) * 1998-04-03 1999-10-26 Shinshakai System Kenkyusho:Kk 移動体の遠隔操縦システム
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
US20160271796A1 (en) * 2015-03-19 2016-09-22 Rahul Babu Drone Assisted Adaptive Robot Control
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020142326A (ja) * 2019-03-06 2020-09-10 ファナック株式会社 ロボットシステム
JP7272825B2 (ja) 2019-03-06 2023-05-12 ファナック株式会社 ロボットシステム
JPWO2021256464A1 (ja) * 2020-06-19 2021-12-23
WO2021256464A1 (ja) * 2020-06-19 2021-12-23 川崎重工業株式会社 撮像システム及びロボットシステム
JP7459253B2 (ja) 2020-06-19 2024-04-01 川崎重工業株式会社 撮像システム、ロボットシステム及び撮像システムの制御方法

Also Published As

Publication number Publication date
WO2019102789A1 (ja) 2019-05-31
KR20200066673A (ko) 2020-06-10
CN111432991A (zh) 2020-07-17
CN111432991B (zh) 2023-07-07
US11613022B2 (en) 2023-03-28
EP3715066A4 (en) 2021-09-08
US20200376677A1 (en) 2020-12-03
KR102375802B1 (ko) 2022-03-17
JP6944354B2 (ja) 2021-10-06
EP3715066A1 (en) 2020-09-30

Similar Documents

Publication Publication Date Title
WO2019102789A1 (ja) ロボットシステム及びそれを用いて物を作る方法
US10980606B2 (en) Remote-control manipulator system and method of operating the same
US10281930B2 (en) Gimbaled universal drone controller
Heng et al. Autonomous obstacle avoidance and maneuvering on a vision-guided mav using on-board processing
RU2664257C2 (ru) Системы и способы отслеживания местоположения подвижного целевого объекта
Laiacker et al. High accuracy visual servoing for aerial manipulation using a 7 degrees of freedom industrial manipulator
ES2443164T3 (es) Procedimiento y sistema de asistencia para la manipulación de máquinas robotizadas en un entorno congestionado
WO2016033797A1 (en) Multi-sensor environmental mapping
Paul et al. A multirotor platform employing a three-axis vertical articulated robotic arm for aerial manipulation tasks
CN109949370B (zh) 一种用于imu-相机联合标定的自动化方法
CN111015681A (zh) 信通机房巡检机器人系统
Orsag et al. Human-in-the-loop control of multi-agent aerial systems
JP2020142326A (ja) ロボットシステム
CN113001142A (zh) 一种用于大型分块光学组件的双机械臂自动装配系统
US11072439B2 (en) Mobile fixture apparatuses and methods
EP3288828B1 (en) Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle
WO2021256464A1 (ja) 撮像システム及びロボットシステム
Kuntz et al. Towards autonomous cargo deployment and retrieval by an unmanned aerial vehicle using visual servoing
Ladig et al. High precision marker based localization and movement on the ceiling employing an aerial robot with top mounted omni wheel drive system
Lytle et al. Development of a robotic structural steel placement system
CN219629777U (zh) 自动就位的手术机器人系统
CN218715195U (zh) 臂架系统及作业机械
KR20240030730A (ko) 짐벌 기구를 이용한 로봇 매니퓰레이터 제어 장치 및 방법
Viegas Scalable Modular Multi-Agent Robotic System on Ad-hoc Pathways for Automation in Large Spaces
JPH03239488A (ja) 宇宙ロボット用視覚装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250