WO2021166918A1 - Robot - Google Patents

Robot Download PDF

Info

Publication number
WO2021166918A1
WO2021166918A1 PCT/JP2021/005770 JP2021005770W WO2021166918A1 WO 2021166918 A1 WO2021166918 A1 WO 2021166918A1 JP 2021005770 W JP2021005770 W JP 2021005770W WO 2021166918 A1 WO2021166918 A1 WO 2021166918A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
base
arm
robot
respect
Prior art date
Application number
PCT/JP2021/005770
Other languages
French (fr)
Japanese (ja)
Inventor
ギレルメ マエダ
Original Assignee
株式会社Preferred Networks
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Preferred Networks filed Critical 株式会社Preferred Networks
Publication of WO2021166918A1 publication Critical patent/WO2021166918A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

The robot according to an embodiment of the present invention comprises a base, an arm, an imaging unit, and a controller. The base is movable on a travel surface. The arm is provided with an end effector that performs work on an object. The imaging unit captures an image of the object and outputs visual information related to the object. The controller comprises one or a plurality of processors and calculates the position of the object with respect to the base and a target configuration of the arm on the basis of the visual information, and controls movement of the base on the basis of the position of the object with respect to the base and the target configuration of the arm.

Description

ロボットrobot
 本開示は、ロボットの制御技術に関する。 This disclosure relates to robot control technology.
 床面上を自由に走行可能なベース上にロボットアームを搭載した自走式ロボットがある。自走式ロボットは、ターゲットの近傍まで移動した後にロボットアームのエンドエフェクタによりターゲットに関する各種の作業を実行したり、ターゲットをエンドエフェクタにより把持したまま移動することによりターゲットを搬送したりすることができる。このような自走式ロボットでは、ベース及びエンドエフェクタの位置制御の精度が要求される。 There is a self-propelled robot equipped with a robot arm on a base that can freely run on the floor. The self-propelled robot can perform various tasks related to the target by the end effector of the robot arm after moving to the vicinity of the target, or can convey the target by moving while holding the target by the end effector. .. In such a self-propelled robot, the accuracy of position control of the base and the end effector is required.
 このような中、ベースに対するエンドエフェクタの相対位置は、ロボットアームのエンコーダから把握することができる。一方で、自走式ロボットは、走行時に床面に対して滑る場合がある。このため、ホイールに設けられたセンサを用いるWheel Odometryでは、ベースの移動量を正確に測定できない場合があった。また、自走式ロボットが白い壁に面しているなど、周囲環境に特徴が少ない場合もある。このため、LiDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)では、ベースの位置を正確に測定できない場合があった。 Under such circumstances, the relative position of the end effector with respect to the base can be grasped from the encoder of the robot arm. On the other hand, the self-propelled robot may slide against the floor surface during traveling. For this reason, Wheel Odometry using a sensor provided on the wheel may not be able to accurately measure the amount of movement of the base. In some cases, the surrounding environment has few features, such as a self-propelled robot facing a white wall. For this reason, LiDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing) may not be able to accurately measure the position of the base.
国際公開第2016/103303号International Publication No. 2016/103303
 本開示の課題は、自走式ロボットのベース位置制御の精度を向上することである。 The subject of the present disclosure is to improve the accuracy of the base position control of the self-propelled robot.
 実施形態に係るロボットは、請求項に記載される特徴を有する。 The robot according to the embodiment has the characteristics described in the claims.
実施形態に係るロボットの外観の一例を示す模式図。The schematic diagram which shows an example of the appearance of the robot which concerns on embodiment. 実施形態に係るコントローラが有する機能構成の一例を示すブロック図。The block diagram which shows an example of the functional structure which the controller which concerns on embodiment has. 第1の実施形態に係るコントローラにより実行される制御の概要を説明するための図。The figure for demonstrating the outline of the control executed by the controller which concerns on 1st Embodiment. 第1の実施形態に係るコントローラにより実行される制御処理の一例を示すフローチャート。The flowchart which shows an example of the control process executed by the controller which concerns on 1st Embodiment. 第1の実施形態に係るアーム制御処理の一例を示すフローチャート。The flowchart which shows an example of the arm control processing which concerns on 1st Embodiment. 第1の実施形態に係るベース制御処理の一例を示すフローチャート。The flowchart which shows an example of the base control processing which concerns on 1st Embodiment. 第1の実施形態に係るアーム/ベース制御処理について説明するための図。The figure for demonstrating the arm / base control processing which concerns on 1st Embodiment. 第1の実施形態に係るアーム/ベース制御処理について説明するための図。The figure for demonstrating the arm / base control processing which concerns on 1st Embodiment. 第1の実施形態に係るアーム/ベース制御処理について説明するための図。The figure for demonstrating the arm / base control processing which concerns on 1st Embodiment. 第1の実施形態に係るアーム/ベース制御処理について説明するための図。The figure for demonstrating the arm / base control processing which concerns on 1st Embodiment. 第1の実施形態に係るアーム/ベース制御処理について説明するための図。The figure for demonstrating the arm / base control processing which concerns on 1st Embodiment. 第2の実施形態に係るコントローラにより実行される制御の概要を説明するための図。The figure for demonstrating the outline of the control executed by the controller which concerns on 2nd Embodiment. 第2の実施形態に係るアーム制御処理の一例を示すフローチャート。The flowchart which shows an example of the arm control processing which concerns on 2nd Embodiment. 第2の実施形態に係るベース制御処理の一例を示すフローチャート。The flowchart which shows an example of the base control processing which concerns on 2nd Embodiment. 実施形態に係る物体操作システムのハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware composition of the object operation system which concerns on embodiment.
 以下、図面を参照しながら、実施形態に係るロボットについて詳細に説明する。なお、以下に記載する実施形態の構成は、あくまで一例であって、以下の記載内容に限られるものではない。また、当該構成によってもたらされる作用及び効果も、あくまで一例であって、以下の記載内容に限られるものではない。 Hereinafter, the robot according to the embodiment will be described in detail with reference to the drawings. The configuration of the embodiment described below is merely an example, and is not limited to the content described below. In addition, the actions and effects brought about by the configuration are merely examples, and are not limited to the following contents.
(第1の実施形態)
 図1は、実施形態に係るロボット1の外観の一例を示す模式図である。ロボット1は、車輪を備え、車輪によって床面上を自由に走行可能な自走式ロボットであり、対象に所定の作業を施すロボットである。ここで、床面とは、一例として二次元平面である。なお、床面とは、移動のために車輪が転がる面であり、地面も含む。すなわちロボットが走行する走行面である。
(First Embodiment)
FIG. 1 is a schematic view showing an example of the appearance of the robot 1 according to the embodiment. The robot 1 is a self-propelled robot provided with wheels and capable of freely traveling on a floor surface by the wheels, and is a robot that performs a predetermined work on a target. Here, the floor surface is, for example, a two-dimensional plane. The floor surface is a surface on which the wheels roll for movement, and includes the ground. That is, it is a traveling surface on which the robot travels.
 なお、本実施形態では、二次元平面上を移動可能に構成されるロボット1を例示するが、これに限らない。例えば、床面は、起伏を有する曲面であっても構わない。例えば、ロボット1は、3次元空間内を移動可能に構成されていても構わない。つまり、実施形態に係るロボット1としての移動体は、車両、船舶、航空機又はこれらの組合せとして構成されていても構わない。 Note that, in the present embodiment, the robot 1 configured to be movable on a two-dimensional plane is illustrated, but the present invention is not limited to this. For example, the floor surface may be a curved surface having undulations. For example, the robot 1 may be configured to be movable in a three-dimensional space. That is, the moving body as the robot 1 according to the embodiment may be configured as a vehicle, a ship, an aircraft, or a combination thereof.
 ロボット1は、図1に示すように、ベース2、本体3、アーム4、カメラ5及びコントローラ6を有する。 As shown in FIG. 1, the robot 1 has a base 2, a main body 3, an arm 4, a camera 5, and a controller 6.
 ベース2は、本体3を支持する。なお、ベース2及び本体3は、一体に形成されていても構わない。ベース2は、床面上を移動可能に構成される。一例として、ベース2は、バッテリ、モータ及び車輪を有する。バッテリは、モータに電力を供給する。モータは、バッテリから供給される電力により動力を発生する。車輪は、モータから伝達される動力により駆動する。ベース2は、車輪ごとの回転方向、車輪ごとの回転速度、車輪の向きなどに応じて、移動の速度及び方向が制御される。 Base 2 supports the main body 3. The base 2 and the main body 3 may be integrally formed. The base 2 is configured to be movable on the floor surface. As an example, the base 2 has a battery, a motor and wheels. The battery powers the motor. The motor is powered by the electric power supplied by the battery. The wheels are driven by the power transmitted from the motor. The speed and direction of movement of the base 2 are controlled according to the rotation direction of each wheel, the rotation speed of each wheel, the direction of the wheels, and the like.
 また、駆動機構として車輪を例示したが、これに限らない。駆動機構は、ロボット1の使用環境などに応じて適宜選択されればよく、車輪、2つ以上の多脚、クローラ又はこれらの組合せであっても構わない。また、動力発生装置としてモータを例示したが、これに限らない。動力発生装置は、ロボット1の使用環境などに応じて適宜選択されればよく、モータ、内燃機関、外燃機関又はこれらの組合せであっても構わない。また、モータには、バッテリに限らず、商用電源から電力が供給されても構わない。 Although the wheel was illustrated as the drive mechanism, it is not limited to this. The drive mechanism may be appropriately selected according to the usage environment of the robot 1, and may be wheels, two or more multi-legged crawlers, or a combination thereof. Further, although a motor has been exemplified as a power generator, the present invention is not limited to this. The power generator may be appropriately selected according to the usage environment of the robot 1, and may be a motor, an internal combustion engine, an external combustion engine, or a combination thereof. Further, the motor may be supplied with electric power not only from a battery but also from a commercial power source.
 本体3は、アーム4及びカメラ5を支持する。また、本体3は、コントローラ6を内蔵する。 The main body 3 supports the arm 4 and the camera 5. Further, the main body 3 has a built-in controller 6.
 アーム4は、少なくとも1本のロボットアームである。実施形態では、アーム4として1本のロボットアームが利用される場合を例示する。また、実施形態では、複数のリンクを有する多関節のアーム4を例示する。アーム4の各リンクは、互いに回動可能に接続される。各リンクは、例えばアーム4に設けられるモータから伝達される動力により回動する。換言すれば、アーム4は、隣接するリンク間のジョイント角を変位可能に構成される。 Arm 4 is at least one robot arm. In the embodiment, a case where one robot arm is used as the arm 4 is illustrated. Further, in the embodiment, an articulated arm 4 having a plurality of links will be illustrated. Each link of the arm 4 is rotatably connected to each other. Each link is rotated by, for example, a power transmitted from a motor provided on the arm 4. In other words, the arm 4 is configured to be able to displace the joint angle between adjacent links.
 なお、アーム4は、関節を有していなくてもよい。換言すれば、アーム4は、本体3に固定されていても構わない。この場合、目標のアーム構成は、目標のアーム4の位置又は目標のエンドエフェクタ41の位置を意味する。 The arm 4 does not have to have a joint. In other words, the arm 4 may be fixed to the main body 3. In this case, the target arm configuration means the position of the target arm 4 or the position of the target end effector 41.
 アーム4の先端には、着脱可能なエンドエフェクタ41が設けられる。エンドエフェクタ41は、対象に作業を施す。本実施形態では、エンドエフェクタ41として、対象を把持可能に構成されたグリッパを例示する。 A detachable end effector 41 is provided at the tip of the arm 4. The end effector 41 performs work on the target. In the present embodiment, as the end effector 41, a gripper configured to be able to grip an object is illustrated.
 なお、エンドエフェクタ41は、アーム4と一体に形成されていてもよい。また、エンドエフェクタ41は、ロボット1の作業の内容や対象に応じて適宜選択されればよい。 The end effector 41 may be integrally formed with the arm 4. Further, the end effector 41 may be appropriately selected according to the content and target of the work of the robot 1.
 カメラ5は、対象を撮像し、対象に関する視覚情報を出力する撮像部である。カメラ5は、一例として、本体3の上部に配置される。実施形態では、深度測定可能に構成されたRGB-Dセンサ及び撮像光学系を有するカメラ5を例示する。つまり、対象に関する視覚情報は、対象を含むカメラ5の撮像範囲に関する3次元点群データ又は画像データである。対象に関する3次元点群データ又は画像データは、対象に関する3次元位置情報の一例である。なお、カメラ5としては、LiDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)により対象の3次元位置(対象に関する3次元位置情報)を測定可能に構成されたカメラが利用されても構わない。また、カメラ5としては、対象を複数の異なる方向から例えば同時に撮影することにより、対象の奥行き方向の情報(すなわち対象に関する3次元位置情報)も記録できるようにしたステレオカメラが利用されてもよい。 The camera 5 is an imaging unit that images an object and outputs visual information about the object. The camera 5 is arranged on the upper part of the main body 3 as an example. In the embodiment, a camera 5 having an RGB-D sensor and an imaging optical system configured to be capable of measuring depth is illustrated. That is, the visual information about the object is three-dimensional point cloud data or image data regarding the imaging range of the camera 5 including the object. The three-dimensional point cloud data or image data relating to the target is an example of the three-dimensional position information relating to the target. As the camera 5, a camera configured to be able to measure the three-dimensional position of the target (three-dimensional position information about the target) by LiDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing) may be used. Further, as the camera 5, a stereo camera capable of recording information in the depth direction of the target (that is, three-dimensional position information regarding the target) by shooting the target from a plurality of different directions at the same time, for example, may be used. ..
 コントローラ6は、ロボット1の動作を制御する。図2は、実施形態に係るコントローラ6が有する機能構成の一例を示すブロック図である。コントローラ6は、図2に示すように、カメラコントローラ6a、プランナ6b、アームコントローラ6c及びベースコントローラ6dとしての機能を実現する。 The controller 6 controls the operation of the robot 1. FIG. 2 is a block diagram showing an example of the functional configuration of the controller 6 according to the embodiment. As shown in FIG. 2, the controller 6 realizes functions as a camera controller 6a, a planner 6b, an arm controller 6c, and a base controller 6d.
 カメラコントローラ6aは、カメラ5の動作を制御する。カメラコントローラ6aは、カメラ5から対象に関する視覚情報を取得する。 The camera controller 6a controls the operation of the camera 5. The camera controller 6a acquires visual information about the target from the camera 5.
 プランナ6bは、視覚情報に基づいて、ベース2に対する対象7の位置を算出する。プランナ6bは、ベース2に対する対象7の位置に基づいて、目標のアーム構成を算出する。目標のアーム構成とは、一例として、エンドエフェクタ41が対象7に作業を施すことができる(つまり対象7に到達するための)アーム4の各リンクのジョイント角の構成である。アーム4の各リンクのジョイント角が決まると、ベース2に対するエンドエフェクタ41の位置が決まる。プランナ6bは、目標のアーム構成に基づいて、ベース2の目標位置を算出する。ここで、ベース2の目標位置及び目標のアーム構成は、ロボット1の目標の位置及び姿勢を示す。プランナ6bは、ベース2の目標位置に対する対象7の位置を算出する。ベース2の目標位置に対する対象7の位置は、ベース2の目標位置に対するエンドエフェクタ41の位置に等しい。プランナ6bは、ベース2に対する対象7の位置とベース2の目標位置に対する対象7の位置との差を減少させるフィードバック制御を実行することにより、ベース2の移動を制御する。すなわちこのフィードバック制御は、ベース2を目標位置に近づける。 The planner 6b calculates the position of the target 7 with respect to the base 2 based on the visual information. The planner 6b calculates the target arm configuration based on the position of the target 7 with respect to the base 2. The target arm configuration is, for example, the configuration of the joint angle of each link of the arm 4 on which the end effector 41 can perform work on the target 7 (that is, to reach the target 7). When the joint angle of each link of the arm 4 is determined, the position of the end effector 41 with respect to the base 2 is determined. The planner 6b calculates the target position of the base 2 based on the target arm configuration. Here, the target position of the base 2 and the target arm configuration indicate the target position and posture of the robot 1. The planner 6b calculates the position of the target 7 with respect to the target position of the base 2. The position of the target 7 with respect to the target position of the base 2 is equal to the position of the end effector 41 with respect to the target position of the base 2. The planner 6b controls the movement of the base 2 by executing feedback control that reduces the difference between the position of the target 7 with respect to the base 2 and the position of the target 7 with respect to the target position of the base 2. That is, this feedback control brings the base 2 closer to the target position.
 アームコントローラ6cは、プランナ6bから供給される目標のアーム構成に基づいて、アーム4の各リンクのジョイント角を制御することにより、アーム4を移動させる。目標のアーム構成は、アーム4の制御量の一例であり、ベース2に対するエンドエフェクタ41の目標位置に基づいて算出される。 The arm controller 6c moves the arm 4 by controlling the joint angle of each link of the arm 4 based on the target arm configuration supplied from the planner 6b. The target arm configuration is an example of the control amount of the arm 4, and is calculated based on the target position of the end effector 41 with respect to the base 2.
 ベースコントローラ6dは、プランナ6bから供給されるベース2の制御量に基づいて、ベース2を移動させる。 The base controller 6d moves the base 2 based on the control amount of the base 2 supplied from the planner 6b.
 以下、図面を参照して、本実施形態に係るロボット1で実行される各処理について説明する。図3は、本実施形態に係るロボット1で実行される制御の概要を説明するための図である。図4は、本実施形態に係るコントローラ6が実行する制御処理の一例を示すフローチャートである。 Hereinafter, each process executed by the robot 1 according to the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram for explaining an outline of the control executed by the robot 1 according to the present embodiment. FIG. 4 is a flowchart showing an example of the control process executed by the controller 6 according to the present embodiment.
 ここでは、図3に示すように、ロボット1の頭部に搭載されたカメラ5を用いて、Cartesian空間(位置及び原点)における所望のターゲット(対象7)にエンドエフェクタ41を到達させる処理を例示する。つまり、以下の説明における制御(タスク)の目的(ゴール)は、対象7を把持可能な位置にエンドエフェクタ41を到達させることである。Cartesian空間は、図3に示すように、原点Owのグローバル座標系(world frame)で表現されるとする。 Here, as shown in FIG. 3, a process of reaching the end effector 41 to a desired target (object 7) in the Cartesian space (position and origin) by using the camera 5 mounted on the head of the robot 1 is exemplified. do. That is, the purpose (goal) of the control (task) in the following description is to bring the end effector 41 to a position where the target 7 can be gripped. As shown in FIG. 3, the Cartesian space is represented by the global coordinate system (world frame) of the origin Ow.
 ここで、以下の説明のために、実施形態に係るロボット1に関して、基準ロボット(Reference Robot)RR及び推定ロボット(Estimated Robot)ERを定義する。基準ロボットRR及び推定ロボットERは、原点Owのグローバル座標系に配置される。 Here, for the following explanation, a reference robot (Reference Robot) RR and an estimated robot (Estimated Robot) ER are defined for the robot 1 according to the embodiment. The reference robot RR and the estimation robot ER are arranged in the global coordinate system of the origin Ow.
 基準ロボットRRは、理論的なロボット1、すなわち仮想的なロボット1である。基準ロボットRRは、ゴールに到達するための基準の方法(reference solution)を提供する。具体的には、基準ロボットRRのエンドエフェクタ41は、常に対象7を把持可能な位置に設定される。つまり、基準ロボットRRは、ベース2の目標位置及びアーム4の目標のアーム構成を示す。したがって、実際のロボット1(real robot)は、基準ロボットRRと同じ位置及び姿勢に到達したとき、エンドエフェクタ41が所望の対象7を把持することができる。このことから、基準ロボットRRは、ロボット1の目標の位置及び姿勢を示す理論的なロボットであると表現できる。基準ロボットRRは、基準座標系(reference frame)を有する。基準座標系は、基準ロボットRRのベース2に関連付けられている。具体的には、基準座標系の原点Orは、基準ロボットRRのベース2上に設定される。 The reference robot RR is a theoretical robot 1, that is, a virtual robot 1. The reference robot RR provides a reference solution for reaching the goal. Specifically, the end effector 41 of the reference robot RR is always set at a position where the target 7 can be gripped. That is, the reference robot RR shows the target position of the base 2 and the target arm configuration of the arm 4. Therefore, when the actual robot 1 (real robot) reaches the same position and posture as the reference robot RR, the end effector 41 can grasp the desired target 7. From this, the reference robot RR can be expressed as a theoretical robot that indicates the target position and posture of the robot 1. The reference robot RR has a reference frame. The reference coordinate system is associated with the base 2 of the reference robot RR. Specifically, the origin Or of the reference coordinate system is set on the base 2 of the reference robot RR.
 推定ロボットERは、実際のロボット1の現在の位置及び姿勢として推定されたロボット1である。推定ロボットERの位置及び姿勢は、実際のロボット1に搭載されるカメラ5により取得された視覚情報に基づいて推定される。視覚情報は、実際のロボット1及び対象7の間の相対性を示す。推定ロボットERは、推定座標系(estimated frame)を有する。推定座標系は、推定ロボットERのベース2に関連付けられている。具体的には、推定座標系の原点Oeは、推定ロボットERのベース2上に設定される。 The estimated robot ER is the robot 1 estimated as the current position and posture of the actual robot 1. The position and posture of the estimated robot ER are estimated based on the visual information acquired by the camera 5 mounted on the actual robot 1. The visual information shows the relativity between the actual robot 1 and the object 7. The estimation robot ER has an estimated coordinate system (estimated frame). The estimated coordinate system is associated with base 2 of the estimated robot ER. Specifically, the origin Oe of the estimated coordinate system is set on the base 2 of the estimated robot ER.
 カメラコントローラ6aは、カメラ5に所定の周期で対象7に関する撮像を実行させる。所定の周期としては、数10Hzなどの周期である。一例として、所定の周期として20Hzが利用可能である。したがって、カメラ5は、所定の周期で視覚情報を出力する。カメラコントローラ6aは、カメラ5からの視覚情報を取得する(S1)。 The camera controller 6a causes the camera 5 to perform imaging on the target 7 at a predetermined cycle. The predetermined cycle is a cycle of several tens of Hz or the like. As an example, 20 Hz is available as a predetermined period. Therefore, the camera 5 outputs visual information at a predetermined cycle. The camera controller 6a acquires visual information from the camera 5 (S1).
 プランナ6bは、図3に示すように、視覚情報に基づいて、推定座標系での対象7の位置を示す位置ベクトルXeを算出する(S2)。位置ベクトルXeは、以下のように表現される。
 Xe=(x,y,z,θ)estimated=(x_e,y_e,z_e,θ_e)
As shown in FIG. 3, the planner 6b calculates a position vector Xe indicating the position of the target 7 in the estimated coordinate system based on the visual information (S2). The position vector Xe is expressed as follows.
Xe = (x, y, z , θ) estimated = (x_e, y_e, z_e, θ_e)
 具体的には、プランナ6bは、図3に示すように、視覚情報に基づいて、カメラ5に対する対象7の位置T1を算出する。続いて、プランナ6bは、カメラ5に対する対象7の位置T1と、ベース2(推定座標系の原点Oe)に対するカメラ5の位置T2とを用いて、推定座標系の原点Oeに対する対象7の位置を示す位置ベクトルXeを算出する。ここで、推定座標系の原点Oeに対するカメラ5の位置T2は、既知の値であり、例えば予め設定されてコントローラ6の記憶領域に格納されているとする。 Specifically, as shown in FIG. 3, the planner 6b calculates the position T1 of the target 7 with respect to the camera 5 based on the visual information. Subsequently, the planner 6b uses the position T1 of the target 7 with respect to the camera 5 and the position T2 of the camera 5 with respect to the base 2 (origin Oe of the estimated coordinate system) to determine the position of the target 7 with respect to the origin Oe of the estimated coordinate system. The indicated position vector Xe is calculated. Here, it is assumed that the position T2 of the camera 5 with respect to the origin Oe of the estimated coordinate system is a known value, and is, for example, preset and stored in the storage area of the controller 6.
 ここで、位置ベクトルXeは、推定ロボットERに対する対象7の位置である。つまり、プランナ6bは、視覚情報に基づいて、グローバル座標系における推定ロボットERの位置(原点Oe)を推定する。換言すれば、プランナ6bは、視覚情報に基づいて、推定ロボットERを設定する。 Here, the position vector Xe is the position of the target 7 with respect to the estimation robot ER. That is, the planner 6b estimates the position (origin Oe) of the estimation robot ER in the global coordinate system based on the visual information. In other words, the planner 6b sets the estimation robot ER based on the visual information.
 なお、図4の流れは、簡単のために、Oe=Owの状態で開始されるとする。つまり、コントローラ6による制御は、グローバル座標系の原点Owの位置に推定ロボットERが配置された状態で開始されるとする。 Note that the flow of FIG. 4 is assumed to start in the state of Oe = Ow for the sake of simplicity. That is, it is assumed that the control by the controller 6 is started in a state where the estimation robot ER is arranged at the position of the origin Ow in the global coordinate system.
 なお、実施形態に係る推定ロボットERの位置は、対象7との相対位置のみに基づいて算出されるため、対象7が移動する場合などには、常にOe=Owの状態であると仮定されても構わない。 Since the position of the estimated robot ER according to the embodiment is calculated based only on the relative position with respect to the target 7, it is assumed that Oe = Ow is always in the state when the target 7 moves. It doesn't matter.
 プランナ6bは、アーム/ベース制御処理を実行する(S3)。アーム/ベース制御処理は、アーム制御処理及びベース制御処理を含む。図5は、本実施形態に係るアーム制御処理の一例を示すフローチャートである。図6は、本実施形態に係るベース制御処理の一例を示すフローチャートである。図7~図11は、それぞれ実施形態に係るアーム/ベース制御処理について説明するための図である。 The planner 6b executes the arm / base control process (S3). The arm / base control process includes an arm control process and a base control process. FIG. 5 is a flowchart showing an example of the arm control process according to the present embodiment. FIG. 6 is a flowchart showing an example of the base control process according to the present embodiment. 7 to 11 are diagrams for explaining the arm / base control process according to the embodiment, respectively.
 なお、アーム制御処理及びベース制御処理の順序は、適宜設定可能である。つまり、アーム制御処理は、ベース制御処理に先立って実行されてもよいし、ベース制御処理と並行して実行されてもよいし、ベース制御処理の後に実行されても構わない。ただし、S11の処理は、アーム制御処理及びベース制御処理のうちの各サイクルにおいて先に実行される処理においてのみ実行されればよい。また、各サイクルにおいてアーム制御処理及びベース制御処理のうちのいずれか一方が実行されない場合もあり得る。以下、アーム制御処理及びベース制御処理が実行される場合であって、アーム制御処理がベース制御処理に先立って実行される場合を例として説明する。 The order of arm control processing and base control processing can be set as appropriate. That is, the arm control process may be executed prior to the base control process, may be executed in parallel with the base control process, or may be executed after the base control process. However, the process of S11 may be executed only in the process that is executed first in each cycle of the arm control process and the base control process. In addition, one of the arm control process and the base control process may not be executed in each cycle. Hereinafter, a case where the arm control process and the base control process are executed and the arm control process is executed prior to the base control process will be described as an example.
(アーム制御処理)
 プランナ6bは、図7及び図8に示すように、対象7を把持可能な目標のアーム構成Uarmを算出する(S11)。ここで、目標のアーム構成Uarmは、基準ロボットRRのアーム4の各リンクのジョイント角度である。算出された目標のアーム構成Uarmは、アームコントローラ6cに供給される。目標のアーム構成Uarmは、j個の各リンクのジョイントに関して、以下のように表現される。
 Uarm=(q1,q2,…qj)
(Arm control processing)
As shown in FIGS. 7 and 8, the planner 6b calculates a target arm configuration ARM capable of gripping the target 7 (S11). Here, the target arm configuration ARM is the joint angle of each link of the arm 4 of the reference robot RR. The calculated target arm configuration ARM is supplied to the arm controller 6c. Arm configuration U arm goal, with respect to the j joint of each link, it is expressed as follows.
U arm = (q1, q2, ... qj)
 アームコントローラ6cは、アーム4を制御するためのコマンド、すなわちプランナ6bからの目標のアーム構成Uarmに基づいて、ロボット1のアーム4の各リンクのジョイント角を制御する(S12)。なお、アーム4は、正確なジョイントエンコーダを有するとする。したがって、ロボット1のアーム4は、直接的に、基準ロボットRRのアーム4の姿勢を正確に再現できる。ここでは1周期時間(例えば50ミリ秒)、アームコントローラ6cによりアーム4が移動された後、アーム制御処理は終了する。 The arm controller 6c is a command for controlling the arm 4, i.e. on the basis of the arm structure U arm goals from planner 6b, controlling the joint angle of each link arm 4 of the robot 1 (S12). It is assumed that the arm 4 has an accurate joint encoder. Therefore, the arm 4 of the robot 1 can directly and accurately reproduce the posture of the arm 4 of the reference robot RR. Here, the arm control process ends after the arm 4 is moved by the arm controller 6c for one cycle time (for example, 50 milliseconds).
(ベース制御処理)
 プランナ6bは、図7及び図8に示すように、S11で算出された目標のアーム構成Uarmに基づいて、基準ロボットRRを配置する(S21)。具体的には、プランナ6bは、基準ロボットRRのアーム4の各リンクのジョイント角度に基づいて、基準ロボットRRの姿勢を計画し、グローバル座標系に対して基準ロボットRRのベース2、すなわち基準座標系を変換及び回転する座標(qx,qy,qt)を算出する。
(Base control processing)
As shown in FIGS. 7 and 8, the planner 6b arranges the reference robot RR based on the target arm configuration ARM calculated in S11 (S21). Specifically, the planner 6b plans the posture of the reference robot RR based on the joint angle of each link of the arm 4 of the reference robot RR, and the base 2 of the reference robot RR, that is, the reference coordinates with respect to the global coordinate system. The coordinates (qx, qy, qt) that transform and rotate the system are calculated.
 プランナ6bは、図3及び図9に示すように、基準座標系における対象7の位置を示す位置ベクトルXrを算出する(S22)。位置ベクトルXrは、基準ロボットRRに対する対象7の位置である。位置ベクトルXrは、以下のように表現される。
 Xr=(x,y,z,θ)reference=(x_r,y_r,z_r,θ_r)
As shown in FIGS. 3 and 9, the planner 6b calculates a position vector Xr indicating the position of the target 7 in the reference coordinate system (S22). The position vector Xr is the position of the target 7 with respect to the reference robot RR. The position vector Xr is expressed as follows.
Xr = (x, y, z, θ) reference = (x_r, y_r, z_r, θ_r)
 プランナ6bは、図3及び図10に示すように、位置ベクトルXe及び位置ベクトルXrの差が減少するように、ベース2の制御量Ubaseを算出する(S23)。算出されたUbaseは、ベースコントローラ6dに供給される。例えば、図3に示すようなフィードバック制御を考える。ここで、図3の比例コントローラは、ゲインPであるとする。このとき、ベース2の制御量Ubase及びゲインPは、それぞれ以下のように表現される。
 P=(P_x,P_y,P_z,P_θ)
 Ubase=(u_x,u_y,u_z,u_θ)
 u_x=p_x×(x_r-x_e)
 u_y=p_y×(y_r-y_e)
 u_z=p_z×(z_r-z_e)
 u_θ=p_θ×(θ_r-θ_e)
As shown in FIGS. 3 and 10, the planner 6b calculates the control amount U base of the base 2 so that the difference between the position vector Xe and the position vector Xr is reduced (S23). The calculated U base is supplied to the base controller 6d. For example, consider feedback control as shown in FIG. Here, it is assumed that the proportional controller in FIG. 3 has a gain P. At this time, the control amount U base and the gain P of the base 2 are expressed as follows, respectively.
P = (P_x, P_y, P_z, P_θ)
U base = (u_x, u_y, u_z, u_θ)
u_x = p_x × (x_r-x_e)
u_y = p_y × (y_ry_e)
u_z = p_z × (z_r-z_e)
u_θ = p_θ × (θ_r-θ_e)
 ただし、本実施形態で例示するロボット1のベース2は、高さ方向(z方向)には変位しない。このため、u_zは、使用されない。つまり、本実施形態で例示するロボット1では、ベース2の制御量Ubaseは、以下のように表現される。
 Ubase=(u_x,u_y,u_θ)
However, the base 2 of the robot 1 illustrated in this embodiment is not displaced in the height direction (z direction). Therefore, u_z is not used. That is, in the robot 1 illustrated in the present embodiment, the control amount U base of the base 2 is expressed as follows.
U base = (u_x, u_y, u_θ)
 このように、プランナ6bは、推定ロボットERに対する対象7の位置と、基準ロボットRRに対する対象7の位置との間の距離(相対的な位置間の距離)を減少させるためのフィードバック制御により、ベース2を制御するためのコマンド、すなわちベース2の制御量Ubaseを生成する。生成されたベース2の制御量Ubaseは、一例として、推定ロボットERを基準としたベクトルで表現される。 In this way, the planner 6b is based on feedback control for reducing the distance (distance between relative positions) between the position of the target 7 with respect to the estimation robot ER and the position of the target 7 with respect to the reference robot RR. A command for controlling 2 is generated, that is, a control amount Feedback of base 2 is generated. The generated control amount U base of the base 2 is represented by a vector with reference to the estimation robot ER as an example.
 ベースコントローラ6dは、プランナ6bからのベース2の制御量Ubaseに基づいて、ロボット1のベース2の移動を制御する(S24)。ベースコントローラ6dによりベース2が移動された後、ベース制御処理は終了する。 The base controller 6d controls the movement of the base 2 of the robot 1 based on the control amount U base of the base 2 from the planner 6b (S24). After the base 2 is moved by the base controller 6d, the base control process ends.
 このように、プランナ6bは、アーム/ベース制御処理(S3)において、ロボット1の制御量Uを算出し、ロボット1の移動を制御する。ここで、ロボット1の制御量Uは、以下のように表現される。
 U=(Uarm,Ubase)=(q1,…,qj,u_x,u_y,u_θ)
In this way, the planner 6b calculates the control amount U of the robot 1 in the arm / base control process (S3) and controls the movement of the robot 1. Here, the control amount U of the robot 1 is expressed as follows.
U = (U arm, U base ) = (q1, ..., qj, u_x, u_y, u_θ)
 ここで、図4を再び参照し、本実施形態に係るコントローラ6が実行する制御処理の説明を続ける。 Here, with reference to FIG. 4 again, the description of the control process executed by the controller 6 according to the present embodiment will be continued.
 プランナ6bは、エンドエフェクタ41が対象7に到達したか否かを判定する(S4)。一例として、プランナ6bは、S16において制御量Ubaseが発生しないとき、すなわち、位置ベクトルXe及び位置ベクトルXrの差が所定の範囲内であるとき、エンドエフェクタ41が対象7に到達したと判定する。なお、本判定は、エンドエフェクタ41に触覚センサが搭載されて、当該触覚センサの出力に基づいて行われても構わない。 The planner 6b determines whether or not the end effector 41 has reached the target 7 (S4). As an example, the planner 6b determines that the end effector 41 has reached the target 7 when the control amount U base does not occur in S16, that is, when the difference between the position vector Xe and the position vector Xr is within a predetermined range. .. In addition, this determination may be performed based on the output of the tactile sensor mounted on the end effector 41.
 エンドエフェクタ41が対象7に到達したとき(S4:Yes)、図4の流れは終了する。一方で、エンドエフェクタ41が対象7に到達していないとき(S4:No)、図4の流れは前述の所定の周期でS1~S4を繰り返す。 When the end effector 41 reaches the target 7 (S4: Yes), the flow of FIG. 4 ends. On the other hand, when the end effector 41 has not reached the target 7 (S4: No), the flow of FIG. 4 repeats S1 to S4 in the predetermined cycle described above.
 このように、本実施形態に係るコントローラ6は、カメラ5から新しい視覚情報が来るたびに、すなわち所定の周期(数10Hz)で位置ベクトルXe,Xrを更新し、2つの相対的な位置間の距離が減少するようにフィードバック制御を行うことにより、ロボット1を制御するためのコマンド再生成を連続的に繰り返す。つまり、高周波数でコントローラ6を動作させることにより、図11に示すように、位置ベクトルXe及び位置ベクトルXrの差を減少させ、対象7にエンドエフェクタ41を到達させることができる。 As described above, the controller 6 according to the present embodiment updates the position vectors Xe and Xr each time new visual information comes from the camera 5, that is, at a predetermined period (several tens of Hz), and between the two relative positions. By performing feedback control so that the distance is reduced, command regeneration for controlling the robot 1 is continuously repeated. That is, by operating the controller 6 at a high frequency, as shown in FIG. 11, the difference between the position vector Xe and the position vector Xr can be reduced, and the end effector 41 can reach the target 7.
 ここで、各サイクル(S1~S4)において、すべての相対的な位置が再計算されるため、本実施形態に係る技術は、移動する対象7に対応可能である。なお、対象7が移動しない場合、当該繰り返しにおいてはS11,S12,S21,S22などのアーム/ベース制御処理(S3)の一部が実行されなくても構わない。あるいは、対象7の傾きや形状などの変化が例えば視覚情報に基づいて検出された場合だけ、当該繰り返しにおいてS11,S12,S21,S22などの流れが実行される仕様もあり得る。 Here, since all relative positions are recalculated in each cycle (S1 to S4), the technique according to the present embodiment can correspond to the moving target 7. If the target 7 does not move, a part of the arm / base control process (S3) such as S11, S12, S21, and S22 may not be executed in the repetition. Alternatively, there may be a specification in which the flow of S11, S12, S21, S22, etc. is executed only when a change in the inclination, shape, or the like of the object 7 is detected based on, for example, visual information.
 なお、基準ロボットRRのアーム構成を含む姿勢は、如何なる方法により計画されても構わない。一例として、基準ロボットRRのアーム構成を含む姿勢は、対象7にエンドエフェクタ41が到達するように逆運動学により計算することができる。なお、基準ロボットRRのアーム構成を含む姿勢は、エンドエフェクタ41が所望の対象7に届くようにベース2及びアーム4の各ジョイントの位置がサーチされる、モーションプランニング又は軌跡最適化によって計算することもできる。 The posture including the arm configuration of the reference robot RR may be planned by any method. As an example, the posture including the arm configuration of the reference robot RR can be calculated by inverse kinematics so that the end effector 41 reaches the object 7. The posture including the arm configuration of the reference robot RR is calculated by motion planning or trajectory optimization in which the positions of the joints of the base 2 and the arm 4 are searched so that the end effector 41 reaches the desired target 7. You can also.
(第2の実施形態)
 以下、主として第1の実施形態との相違点について説明し、重複する部分については説明を適宜省略する。
(Second Embodiment)
Hereinafter, the differences from the first embodiment will be mainly described, and the description of overlapping parts will be omitted as appropriate.
 ここでは、図4を参照して上述したように、プランナ6bが視覚情報に基づいて推定ロボットERを設定した後に実行される、アーム/ベース制御処理(S3)の別の一例について説明する。つまり、以下の流れは、対象の位置(x,y,z)targetを示す位置ベクトルXe=(x,y,z,θ)baseが算出された状態で実行される。 Here, as described above with reference to FIG. 4, another example of the arm / base control process (S3) executed after the planner 6b sets the estimation robot ER based on the visual information will be described. That is, the following flow is executed in a state where the position vector Xe = (x, y, z, θ) base indicating the target position (x, y, z) target is calculated.
 図12は、本実施形態に係るコントローラ6により実行される制御の概要を説明するための図である。図13は、本実施形態に係るアーム制御処理の一例を示すフローチャートである。図14は、本実施形態に係るベース制御処理の一例を示すフローチャートである。 FIG. 12 is a diagram for explaining an outline of the control executed by the controller 6 according to the present embodiment. FIG. 13 is a flowchart showing an example of the arm control process according to the present embodiment. FIG. 14 is a flowchart showing an example of the base control process according to the present embodiment.
 なお、アーム制御処理及びベース制御処理の順序および非実行が適宜設定可能である点は第1の実施形態と同様である。以下、アーム制御処理がベース制御処理に先立って実行される場合を例として説明する。 It should be noted that the order and non-execution of the arm control process and the base control process can be appropriately set, which is the same as that of the first embodiment. Hereinafter, a case where the arm control process is executed prior to the base control process will be described as an example.
(アーム制御処理)
 プランナ6bは、図12に示すように、推定座標系でのエンドエフェクタ41の位置ベクトルXoを算出する(S11a)。ここで算出される位置ベクトルXoは、現在のエンドエフェクタ41の位置を示す。位置ベクトルXoは、前回のアーム4の制御量を用いて算出されてもよいし、アーム4のジョイントエンコーダの出力に基づいて算出されても構わない。
(Arm control processing)
As shown in FIG. 12, the planner 6b calculates the position vector Xo of the end effector 41 in the estimated coordinate system (S11a). The position vector Xo calculated here indicates the current position of the end effector 41. The position vector Xo may be calculated using the previous control amount of the arm 4, or may be calculated based on the output of the joint encoder of the arm 4.
 プランナ6bは、位置ベクトルXe及び位置ベクトルXoに基づいて、目標のアーム構成Uarm、すなわちアーム4の制御量を算出する(S11b)。具体的には、アーム4が固定されたベース2上にあると仮定して、対象7の位置ベクトルXeに基づく逆運動学により、アーム4の各リンクのジョイント角度を算出する。プランナ6bは、算出された制御量(目標のアーム構成Uarm)は、アームコントローラ6cに供給される。アームコントローラ6cによりアーム4の各リンクのジョイント角が制御(S12)された後、アーム制御処理は終了する。 The planner 6b calculates the target arm configuration ARM , that is, the control amount of the arm 4 based on the position vector Xe and the position vector Xo (S11b). Specifically, assuming that the arm 4 is on a fixed base 2, the joint angle of each link of the arm 4 is calculated by inverse kinematics based on the position vector Xe of the object 7. The planner 6b supplies the calculated control amount (target arm configuration ARM ) to the arm controller 6c. After the joint angle of each link of the arm 4 is controlled (S12) by the arm controller 6c, the arm control process ends.
(ベース制御処理)
 プランナ6bは、推定座標系でのエンドエフェクタ41の位置ベクトルXo=(x,y,z,θ)offsetを算出する(S11a)。アーム制御処理の後にベース制御処理が実行される場合、ここで算出される位置ベクトルXoは、移動後のエンドエフェクタ41の位置を示す。この場合、位置ベクトルXoは、アーム4のジョイントエンコーダの出力に基づいて算出されても構わない。また、アーム制御処理の後にベース制御処理が実行される場合のうち、アーム4の移動前である場合、ここで算出される位置ベクトルXoは、目標のアーム構成Uarm(アーム4の制御量)により規定される、エンドエフェクタ41の目標位置である。つまり、位置ベクトルXoは、アーム制御処理のS11bの処理で算出された目標のアーム構成Uarm(アーム4の制御量)に基づいて算出されてもよい。また、ベース制御処理がアーム制御処理に先立って実行される場合には、前回のアーム4の制御量を用いて算出されても構わない。
(Base control processing)
The planner 6b calculates the position vector Xo = (x, y, z, θ) offset of the end effector 41 in the estimated coordinate system (S11a). When the base control process is executed after the arm control process, the position vector Xo calculated here indicates the position of the end effector 41 after the movement. In this case, the position vector Xo may be calculated based on the output of the joint encoder of the arm 4. Also, of the case where the base control process after the arm control process is executed, if it is before the movement of the arm 4, wherein the position vector Xo is calculated (control amount of the arm 4) arm structure of the target U arm This is the target position of the end effector 41 defined by. That is, the position vector Xo may be calculated based on the arm structure of the target calculated in the process of S11b arms control process U arm (control amount of the arm 4). Further, when the base control process is executed prior to the arm control process, it may be calculated using the previous control amount of the arm 4.
 プランナ6bは、図12に示すように、位置ベクトルXe=(x,y,θ)base及び位置ベクトルXo=(x,y,θ)offsetの差が減少するように、ベース2の制御量Ubaseを算出する(S23´)。上述したように、高さ方向(z方向)は考慮しない。算出されたUbaseは、ベースコントローラ6dに供給される。ベースコントローラ6dによりベース2の移動が制御(S24)された後、ベース制御処理は終了する。 As shown in FIG. 12, the planner 6b has a control amount U of the base 2 so that the difference between the position vector Xe = (x, y, θ) base and the position vector Xo = (x, y, θ) offset is reduced. Calculate the base (S23'). As described above, the height direction (z direction) is not considered. The calculated U base is supplied to the base controller 6d. After the movement of the base 2 is controlled (S24) by the base controller 6d, the base control process ends.
 また、図4の流れにおいて、プランナ6bは、位置ベクトルXe及び位置ベクトルXoが所定の閾値よりもゼロに近づいたとき、エンドエフェクタ41が対象7に到達したと判定する(S4)。 Further, in the flow of FIG. 4, the planner 6b determines that the end effector 41 has reached the target 7 when the position vector Xe and the position vector Xo approach zero below a predetermined threshold value (S4).
 このように、本実施形態に係るコントローラ6は、ベース2に対する対象7の位置(位置ベクトルXe)に基づく逆運動学により目標のアーム構成Uarm、すなわちベース2に対するエンドエフェクタ41の目標位置(位置ベクトルXo)を算出し、位置ベクトルXe及び位置ベクトルXoの差を減少させるフィードバック制御を実行することにより、ベース2の移動を制御する。換言すれば、コントローラ6は、エンドエフェクタ41の位置ベクトルXoをオフセットとして用いたフィードバック制御を実行することにより、対象7にエンドエフェクタ41を到達させることができる。この構成によれば、第1の実施形態と同様の効果を得ることができる。また、第1の実施形態と比較して計算コストを低減することができる。 As described above, the controller 6 according to the present embodiment has a target arm configuration Uarm based on the reverse kinematics based on the position (position vector Xe) of the target 7 with respect to the base 2, that is, the target position (position) of the end effector 41 with respect to the base 2. The movement of the base 2 is controlled by calculating the vector Xo) and executing feedback control for reducing the difference between the position vector Xe and the position vector Xo. In other words, the controller 6 can make the target 7 reach the end effector 41 by executing the feedback control using the position vector Xo of the end effector 41 as an offset. According to this configuration, the same effect as that of the first embodiment can be obtained. In addition, the calculation cost can be reduced as compared with the first embodiment.
 以上説明したように、実施形態に係るロボット1は、視覚情報に基づいて、ベース2に対する対象7の位置及びアーム4の目標の構成(目標のアーム構成Uarm)を算出し、ベース2に対する対象7の位置及び目標のアーム構成Uarmに基づいてベース2の移動を制御するコントローラを有する。したがって、実施形態に係るロボット1によれば、対象7に対するベース2の相対位置に基づいてベース位置制御が行われるため、ベース2が床面に対して滑る場合であっても、自走式ロボットのベース位置制御の精度を維持することができる。また、深度測定可能なカメラ5を利用するロボット1によれば、周囲環境に寄らず、自走式ロボットのベース位置制御を実現することができる。したがって、以上説明した少なくとも1つの実施形態によれば、自走式ロボットのベース位置制御の精度を向上することができる。 As described above, the robot 1 according to the embodiment, based on visual information, calculates the position and configuration of the target arm 4 of the target 7 with respect to the base 2 (arm structure U arm of target), subject to the base 2 It has a controller that controls the movement of the base 2 based on the arm configuration ARM of the position 7 and the target. Therefore, according to the robot 1 according to the embodiment, since the base position control is performed based on the relative position of the base 2 with respect to the target 7, the self-propelled robot even when the base 2 slides on the floor surface. The accuracy of the base position control can be maintained. Further, according to the robot 1 that uses the camera 5 capable of measuring the depth, it is possible to realize the base position control of the self-propelled robot regardless of the surrounding environment. Therefore, according to at least one embodiment described above, the accuracy of the base position control of the self-propelled robot can be improved.
 実施形態に係る技術的思想を方法で実現する場合、制御方法は、図3及び図12に例示するように、ロボット1に関して、1又は複数のプロセッサを用いて、視覚情報に基づいて、ベース2に対する対象7の位置及び目標のアーム構成Uarmを算出し、ベース2に対する対象7の位置及び目標のアーム構成Uarmに基づいてベース2の移動を制御する。本制御方法における処理手順、処理内容及び効果等は、上述の実施形態と同様なため、説明は省略する。 When the technical idea according to the embodiment is realized by the method, the control method is based on the visual information with respect to the robot 1 by using one or more processors as illustrated in FIGS. 3 and 12. calculating the arm structure U arm position and the target of the target 7 with respect, to control the movement of the base 2 on the basis of the arm structure U arm position and the target of the target 7 with respect to the base 2. Since the processing procedure, processing content, effect, and the like in this control method are the same as those in the above-described embodiment, the description thereof will be omitted.
 実施形態に係る技術的思想をプログラムで実現する場合、制御プログラムは、ロボット1に関して、1又は複数台のコンピュータに、視覚情報に基づいて、ベース2に対する対象7の位置及び目標のアーム構成Uarmを算出し、ベース2に対する対象7の位置及び目標のアーム構成Uarmに基づいてベース2の移動を制御することを実現させる。制御プログラムにより実現される処理手順、処理内容及び効果等は、上述の実施形態と同様なため、説明は省略する。 When the technical idea according to the embodiment is realized by a program, the control program is applied to one or a plurality of computers with respect to the robot 1, based on visual information, and the position of the target 7 with respect to the base 2 and the target arm configuration ARM. Is calculated, and it is realized that the movement of the base 2 is controlled based on the position of the target 7 with respect to the base 2 and the arm configuration ARM of the target. Since the processing procedure, processing content, effect, etc. realized by the control program are the same as those in the above-described embodiment, the description thereof will be omitted.
 前述した実施形態におけるコントローラ6の一部又は全部は、ハードウェアで構成されていてもよいし、CPU(Central Processing Unit)又はGPU(Graphics Processing Unit)等が実行するソフトウェア(プログラム)の情報処理で構成されてもよい。ソフトウェアの情報処理で構成される場合には、前述した実施形態におけるコントローラ6の少なくとも一部の機能を実現するソフトウェアを、フレキシブルディスク、CD-ROM(Compact Disc-Read Only Memory)又はUSB(Universal Serial Bus)メモリ等の非一時的な記憶媒体(非一時的なコンピュータ可読媒体)に収納し、コンピュータに読み込ませることにより、ソフトウェアの情報処理を実行してもよい。また、通信ネットワークを介して当該ソフトウェアがダウンロードされてもよい。さらに、ソフトウェアがASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等の回路に実装されることにより、情報処理がハードウェアにより実行されてもよい。 A part or all of the controller 6 in the above-described embodiment may be configured by hardware, or may be processed by software (program) executed by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like. It may be configured. When it is composed of information processing of software, the software that realizes at least a part of the functions of the controller 6 in the above-described embodiment is a flexible disk, a CD-ROM (Compact Disc-Read Only Memory), or a USB (Universal Serial). Bus) Information processing of software may be executed by storing it in a non-temporary storage medium (non-temporary computer-readable medium) such as a memory and loading it into a computer. In addition, the software may be downloaded via a communication network. Further, information processing may be executed by hardware by implementing the software in a circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
 ソフトウェアを収納する記憶媒体の種類は限定されるものではない。記憶媒体は、磁気ディスク、又は光ディスク等の着脱可能なものに限定されず、ハードディスク、又はメモリ等の固定型の記憶媒体であってもよい。また、記憶媒体は、コンピュータ内部に備えられてもよいし、コンピュータ外部に備えられてもよい。 The type of storage medium that stores the software is not limited. The storage medium is not limited to a removable one such as a magnetic disk or an optical disk, and may be a fixed storage medium such as a hard disk or a memory. Further, the storage medium may be provided inside the computer or may be provided outside the computer.
 図15は、前述した実施形態における物体操作システム9のハードウェア構成の一例を示すブロック図である。物体操作システム9において、コントローラ6は、一例として、プロセッサ811と、主記憶装置812(メモリ)と、補助記憶装置813(メモリ)と、ネットワークインタフェース814と、デバイスインタフェース815と、を備え、これらがバス816を介して接続されたコンピュータ81として実現されてもよい。 FIG. 15 is a block diagram showing an example of the hardware configuration of the object operation system 9 in the above-described embodiment. In the object manipulation system 9, the controller 6 includes, for example, a processor 811, a main storage device 812 (memory), an auxiliary storage device 813 (memory), a network interface 814, and a device interface 815. It may be realized as a computer 81 connected via the bus 816.
 図15のコンピュータ81は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、図15では、1台のコンピュータ81が示されているが、ソフトウェアが複数台のコンピュータにインストールされて、当該複数台のコンピュータそれぞれがソフトウェアの同一の又は異なる一部の処理を実行してもよい。この場合、コンピュータそれぞれがネットワークインタフェース814等を介して通信して処理を実行する分散コンピューティングの形態であってもよい。つまり、前述した実施形態におけるコントローラ6は、1又は複数の記憶装置に記憶された命令を1台又は複数台のコンピュータが実行することで機能を実現するシステムとして構成されてもよい。また、端末から送信された情報をクラウド上に設けられた1台又は複数台のコンピュータで処理し、この処理結果を端末に送信するような構成であってもよい。 The computer 81 of FIG. 15 includes one component for each component, but may include a plurality of the same components. Further, although one computer 81 is shown in FIG. 15, software is installed on a plurality of computers, and each of the plurality of computers executes the same or different part of the software. May be good. In this case, it may be a form of distributed computing in which each computer communicates via a network interface 814 or the like to execute processing. That is, the controller 6 in the above-described embodiment may be configured as a system that realizes a function by executing instructions stored in one or a plurality of storage devices by one or a plurality of computers. Further, the information transmitted from the terminal may be processed by one or a plurality of computers provided on the cloud, and the processing result may be transmitted to the terminal.
 前述した実施形態におけるコントローラ6の各種演算は、1又は複数のプロセッサを用いて、又は、ネットワークを介した複数台のコンピュータを用いて、並列処理で実行されてもよい。また、各種演算が、プロセッサ内に複数ある演算コアに振り分けられて、並列処理で実行されてもよい。また、本開示の処理、手段等の一部又は全部は、ネットワークを介してコンピュータ81と通信可能なクラウド上に設けられたプロセッサ及び記憶装置の少なくとも一方により実行されてもよい。このように、前述した実施形態における各装置は、1台又は複数台のコンピュータによる並列コンピューティングの形態であってもよい。 The various operations of the controller 6 in the above-described embodiment may be executed in parallel processing by using one or a plurality of processors or by using a plurality of computers via a network. Further, various operations may be distributed to a plurality of arithmetic cores in the processor and executed in parallel processing. In addition, some or all of the processes, means, etc. of the present disclosure may be executed by at least one of a processor and a storage device provided on the cloud capable of communicating with the computer 81 via the network. As described above, each device in the above-described embodiment may be in the form of parallel computing by one or a plurality of computers.
 プロセッサ811は、コンピュータの制御装置及び演算装置を含む電子回路(処理回路、Processing circuit、Processing circuitry、CPU、GPU、FPGA、又はASIC等)であってもよい。また、プロセッサ811は、専用の処理回路を含む半導体装置等であってもよい。プロセッサ811は、電子論理素子を用いた電子回路に限定されるものではなく、光論理素子を用いた光回路により実現されてもよい。また、プロセッサ811は、量子コンピューティングに基づく演算機能を含むものであってもよい。 The processor 811 may be an electronic circuit (processing circuit, Processing circuit, Processing circuitry, CPU, GPU, FPGA, ASIC, etc.) including a computer control device and an arithmetic unit. Further, the processor 811 may be a semiconductor device or the like including a dedicated processing circuit. The processor 811 is not limited to an electronic circuit using an electronic logic element, and may be realized by an optical circuit using an optical logic element. Further, the processor 811 may include an arithmetic function based on quantum computing.
 プロセッサ811は、コンピュータ81の内部構成の各装置等から入力されたデータやソフトウェア(プログラム)に基づいて演算処理を行い、演算結果や制御信号を各装置等に出力することができる。プロセッサ811は、コンピュータ81のOS(Operating System)や、アプリケーション等を実行することにより、コンピュータ81を構成する各構成要素を制御してもよい。 The processor 811 can perform arithmetic processing based on the data and software (program) input from each device or the like of the internal configuration of the computer 81, and output the arithmetic result or the control signal to each device or the like. The processor 811 may control each component constituting the computer 81 by executing an OS (Operating System) of the computer 81, an application, or the like.
 前述した実施形態におけるコントローラ6は、1又は複数のプロセッサ811により実現されてもよい。ここで、プロセッサ811は、1チップ上に配置された1又は複数の電子回路を指してもよいし、2つ以上のチップあるいは2つ以上のデバイス上に配置された1又は複数の電子回路を指してもよい。複数の電子回路を用いる場合、各電子回路は有線又は無線により通信してもよい。 The controller 6 in the above-described embodiment may be realized by one or a plurality of processors 811. Here, processor 811 may refer to one or more electronic circuits arranged on one chip, or may refer to one or more electronic circuits arranged on two or more chips or two or more devices. You may point. When a plurality of electronic circuits are used, each electronic circuit may communicate by wire or wirelessly.
 主記憶装置812は、プロセッサ811が実行する命令及び各種データ等を記憶する記憶装置であり、主記憶装置812に記憶された情報がプロセッサ811により読み出される。補助記憶装置813は、主記憶装置812以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、半導体のメモリでもよい。半導体のメモリは、揮発性メモリ、不揮発性メモリのいずれでもよい。前述した実施形態におけるコントローラ6において各種データを保存するための記憶装置は、主記憶装置812又は補助記憶装置813により実現されてもよく、プロセッサ811に内蔵される内蔵メモリにより実現されてもよい。例えば、前述した実施形態における記憶部102は、主記憶装置812又は補助記憶装置813により実現されてもよい。 The main storage device 812 is a storage device that stores instructions executed by the processor 811 and various data and the like, and the information stored in the main storage device 812 is read out by the processor 811. The auxiliary storage device 813 is a storage device other than the main storage device 812. Note that these storage devices mean arbitrary electronic components capable of storing electronic information, and may be semiconductor memories. The semiconductor memory may be either a volatile memory or a non-volatile memory. The storage device for storing various data in the controller 6 in the above-described embodiment may be realized by the main storage device 812 or the auxiliary storage device 813, or may be realized by the built-in memory built in the processor 811. For example, the storage unit 102 in the above-described embodiment may be realized by the main storage device 812 or the auxiliary storage device 813.
 記憶装置(メモリ)1つに対して、複数のプロセッサが接続(結合)されてもよいし、単数のプロセッサが接続されてもよい。プロセッサ1つに対して、複数の記憶装置(メモリ)が接続(結合)されてもよい。前述した実施形態におけるコントローラ6が、少なくとも1つの記憶装置(メモリ)とこの少なくとも1つの記憶装置(メモリ)に接続(結合)される複数のプロセッサで構成される場合、複数のプロセッサのうち少なくとも1つのプロセッサが、少なくとも1つの記憶装置(メモリ)に接続(結合)される構成を含んでもよい。また、複数台のコンピュータに含まれる記憶装置(メモリ))とプロセッサによって、この構成が実現されてもよい。さらに、記憶装置(メモリ)がプロセッサと一体になっている構成(例えば、L1キャッシュ、L2キャッシュを含むキャッシュメモリ)を含んでもよい。 Multiple processors may be connected (combined) to one storage device (memory), or a single processor may be connected. A plurality of storage devices (memory) may be connected (combined) to one processor. When the controller 6 in the above-described embodiment is composed of at least one storage device (memory) and a plurality of processors connected (combined) to the at least one storage device (memory), at least one of the plurality of processors One processor may include a configuration in which it is connected (combined) to at least one storage device (memory). Further, this configuration may be realized by a storage device (memory) and a processor included in a plurality of computers. Further, a configuration in which the storage device (memory) is integrated with the processor (for example, a cache memory including an L1 cache and an L2 cache) may be included.
 ネットワークインタフェース814は、無線又は有線により、通信ネットワーク82に接続するためのインタフェースである。 The network interface 814 is an interface for connecting to the communication network 82 wirelessly or by wire.
 デバイスインタフェース815は、外部装置83bと直接接続するUSB等のインタフェースである。 The device interface 815 is an interface such as USB that directly connects to the external device 83b.
 外部装置83aはコンピュータ81とネットワークを介して接続されている装置である。外部装置83bはコンピュータ81と直接接続されている装置である。 The external device 83a is a device connected to the computer 81 via a network. The external device 83b is a device that is directly connected to the computer 81.
 外部装置83a又は外部装置83bは、一例として、入力装置であってもよい。入力装置は、例えば、カメラ、モーションキャプチャ、各種センサ等のデバイスであり、取得した情報をコンピュータ81に与える。 The external device 83a or the external device 83b may be an input device as an example. The input device is, for example, a device such as a camera, motion capture, or various sensors, and gives the acquired information to the computer 81.
 また、外部装置83a又は外部装置83bは、前述した実施形態における各装置(ロボット1又はコントローラ6)の構成要素の一部の機能を有する装置でもよい。つまり、コンピュータ81は、外部装置83a又は外部装置83bの処理結果の一部又は全部を送信又は受信してもよい。例えば、外部装置83a又は外部装置83bは、前述した実施形態におけるベース2、アーム4、エンドエフェクタ41、カメラ5及びコントローラ6のうちの少なくとも1つであっても構わない。 Further, the external device 83a or the external device 83b may be a device having some functions of the components of each device (robot 1 or controller 6) in the above-described embodiment. That is, the computer 81 may transmit or receive a part or all of the processing result of the external device 83a or the external device 83b. For example, the external device 83a or the external device 83b may be at least one of the base 2, the arm 4, the end effector 41, the camera 5, and the controller 6 in the above-described embodiment.
 本明細書(請求項を含む)において、「a、b及びcの少なくとも1つ(一方)」又は「a、b又はcの少なくとも1つ(一方)」の表現(同様な表現を含む)が用いられる場合は、a、b、c、a-b、a-c、b-c、又はa-b-cのいずれかを含む。また、a-a、a-b-b、a-a-b-b-c-c等のように、いずれかの要素について複数のインスタンスを含んでもよい。さらに、a-b-c-dのようにdを有する等、列挙された要素(a、b及びc)以外の他の要素を加えることも含む。 In the present specification (including claims), the expression (including similar expressions) of "at least one (one) of a, b and c" or "at least one (one) of a, b or c" is used. When used, it includes any of a, b, c, ab, ac, bc, or abc. It may also include multiple instances of any element, such as a-a, a-b-b, a-a-b-b-c-c, and the like. It also includes adding elements other than the listed elements (a, b and c), such as having d, such as a-b-c-d.
 本明細書(請求項を含む)において、「データを入力として/データに基づいて/に従って/に応じて」等の表現(同様な表現を含む)が用いられる場合は、特に断りがない場合、各種データそのものを入力として用いる場合や、各種データに何らかの処理を行ったもの(例えば、ノイズ加算したもの、正規化したもの、各種データの中間表現等)を入力として用いる場合を含む。また「データに基づいて/に従って/に応じて」何らかの結果が得られる旨が記載されている場合、当該データのみに基づいて当該結果が得られる場合を含むとともに、当該データ以外の他のデータ、要因、条件、及び/又は状態等にも影響を受けて当該結果が得られる場合をも含み得る。また、「データを出力する」旨が記載されている場合、特に断りがない場合、各種データそのものを出力として用いる場合や、各種データに何らかの処理を行ったもの(例えば、ノイズ加算したもの、正規化したもの、各種データの中間表現等)を出力とする場合も含む。 In the present specification (including claims), when expressions such as "with data as input / based on / according to / according to" (including similar expressions) are used, unless otherwise specified. This includes the case where various data itself is used as an input, and the case where various data are processed in some way (for example, noise-added data, normalized data, intermediate representation of various data, etc.) are used as input. In addition, when it is stated that some result can be obtained "based on / according to / according to the data", it includes the case where the result can be obtained based only on the data, and other data other than the data. It may also include cases where the result is obtained under the influence of factors, conditions, and / or conditions. In addition, when it is stated that "data is output", unless otherwise specified, various data itself is used as output, or various data is processed in some way (for example, noise is added, normal). It also includes the case where the output is output (intermediate representation of various data, etc.).
 本明細書(請求項を含む)において、「AがBするよう構成される(A configured to B)」との表現が用いられる場合は、要素Aの物理的構造が、動作Bを実行可能な構成を有するとともに、要素Aの恒常的(permanent)又は一時的(temporary)な設定(setting/configuration)が、動作Bを実際に実行するように設定(configured/set)されていることを含んでよい。例えば、要素Aが汎用プロセッサである場合、当該プロセッサが動作Bを実行可能なハードウェア構成を有するとともに、恒常的(permanent)又は一時的(temporary)なプログラム(命令)の設定により、動作Bを実際に実行するように設定(configured)されていればよい。また、要素Aが専用プロセッサ又は専用演算回路等である場合、制御用命令及びデータが実際に付属しているか否かとは無関係に、当該プロセッサの回路的構造が動作Bを実際に実行するように構築(implemented)されていればよい。 When the expression "A configured to B" is used in the present specification (including claims), the physical structure of the element A can execute the operation B. Including that the element A has a configuration and the permanent or temporary setting (setting / configuration) of the element A is set (configured / set) to actually execute the operation B. good. For example, when the element A is a general-purpose processor, the processor has a hardware configuration capable of executing the operation B, and the operation B is set by setting a permanent or temporary program (instruction). It suffices if it is configured to actually execute. Further, when the element A is a dedicated processor, a dedicated arithmetic circuit, or the like, the circuit structure of the processor actually executes the operation B regardless of whether or not the control instruction and data are actually attached. It only needs to be implemented.
 本明細書(請求項を含む)において、含有又は所有を意味する用語(例えば、「含む(comprising/including)」及び有する「(having)等)」が用いられる場合は、当該用語の目的語により示される対象物以外の物を含有又は所有する場合を含む、open-endedな用語として意図される。これらの含有又は所有を意味する用語の目的語が数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)である場合は、当該表現は特定の数に限定されないものとして解釈されるべきである。 In the present specification (including claims), when a term meaning inclusion or possession (for example, "comprising / including" and "having", etc.) is used, the object of the term is used. It is intended as an open-ended term, including the case of containing or owning an object other than the indicated object. If the object of these terms that mean inclusion or possession is an expression that does not specify a quantity or suggests a singular (an expression with a or an as an article), the expression is interpreted as not being limited to a specific number. It should be.
 本明細書(請求項を含む)において、ある箇所において「1つ又は複数(one or more)」又は「少なくとも1つ(at least one)」等の表現が用いられ、他の箇所において数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)が用いられているとしても、後者の表現が「1つ」を意味することを意図しない。一般に、数量を指定しない又は単数を示唆する表現(a又はanを冠詞とする表現)は、必ずしも特定の数に限定されないものとして解釈されるべきである。 In this specification (including claims), expressions such as "one or more" or "at least one" are used in some places, and the quantity is specified in other places. Even if expressions that do not or suggest the singular (expressions with a or an as an article) are used, the latter expression is not intended to mean "one". In general, expressions that do not specify a quantity or suggest a singular (expressions with a or an as an article) should be interpreted as not necessarily limited to a particular number.
 本明細書(請求項を含む)において、複数のハードウェアが所定の処理を行う場合、各ハードウェアが協働して所定の処理を行ってもよいし、一部のハードウェアが所定の処理の全てを行ってもよい。また、一部のハードウェアが所定の処理の一部を行い、別のハードウェアが所定の処理の残りを行ってもよい。本明細書(請求項を含む)において、「1又は複数のハードウェアが第1の処理を行い、前記1又は複数のハードウェアが第2の処理を行う」等の表現が用いられている場合、第1の処理を行うハードウェアと第2の処理を行うハードウェアは同じものであってもよいし、異なるものであってもよい。つまり、第1の処理を行うハードウェア及び第2の処理を行うハードウェアが、前記1又は複数のハードウェアに含まれていればよい。なお、ハードウェアは、電子回路、又は電子回路を含む装置等を含んでよい。 In the present specification (including claims), when a plurality of hardware performs a predetermined process, the respective hardware may cooperate to perform the predetermined process, or some hardware may perform the predetermined process. You may do all of the above. Further, some hardware may perform a part of a predetermined process, and another hardware may perform the rest of the predetermined process. In the present specification (including claims), when expressions such as "one or more hardware performs the first process and the one or more hardware performs the second process" are used. , The hardware that performs the first process and the hardware that performs the second process may be the same or different. That is, the hardware that performs the first process and the hardware that performs the second process may be included in the one or more hardware. The hardware may include an electronic circuit, a device including the electronic circuit, or the like.
 本明細書(請求項を含む)において、複数の記憶装置(メモリ)がデータの記憶を行う場合、複数の記憶装置(メモリ)のうち個々の記憶装置(メモリ)は、データの一部のみを記憶してもよいし、データの全体を記憶してもよい。 In the present specification (including claims), when a plurality of storage devices (memory) store data, each storage device (memory) among the plurality of storage devices (memory) stores only a part of the data. It may be stored or the entire data may be stored.
 以上、本開示の実施形態について詳述したが、本開示は上記した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲において種々の追加、変更、置き換え及び部分的削除等が可能である。例えば、前述した全ての実施形態において、数値又は数式を説明に用いている場合は、一例として示したものであり、これらに限られるものではない。また、実施形態における各動作の順序は、一例として示したものであり、これらに限られるものではない。 Although the embodiments of the present disclosure have been described in detail above, the present disclosure is not limited to the individual embodiments described above. Various additions, changes, replacements, partial deletions, etc. are possible without departing from the conceptual idea and purpose of the present invention derived from the contents defined in the claims and their equivalents. For example, in all the above-described embodiments, when numerical values or mathematical formulas are used for explanation, they are shown as examples, and the present invention is not limited thereto. Further, the order of each operation in the embodiment is shown as an example, and is not limited to these.

Claims (7)

  1.  走行面上を移動可能なベースと、
     対象に作業を施すエンドエフェクタが設けられるアームと、
     前記対象を撮像し、前記対象に関する視覚情報を出力する撮像部と、
     1又は複数のプロセッサを有し、前記視覚情報に基づいて、前記ベースに対する前記対象の位置及び前記アームの目標の構成を算出し、前記ベースに対する前記対象の位置及び前記アームの目標の構成に基づいて前記ベースの移動を制御するコントローラと
     を具備するロボット。
    With a base that can move on the running surface,
    An arm equipped with an end effector that works on the target,
    An imaging unit that images the object and outputs visual information about the object.
    It has one or more processors, calculates the configuration of the target position with respect to the base and the target configuration of the arm based on the visual information, and is based on the configuration of the target position with respect to the base and the target configuration of the arm. A robot including a controller that controls the movement of the base.
  2.  前記コントローラは、前記エンドエフェクタが前記対象に作業を施すことができる前記アームの構成を前記アームの目標の構成として算出し、前記アームの目標の構成に基づいて前記ベースの目標位置を算出し、当該算出された前記ベースの目標位置に近づくように前記ベースの移動を制御する、請求項1に記載のロボット。 The controller calculates the configuration of the arm on which the end effector can perform work on the target as the configuration of the target of the arm, and calculates the target position of the base based on the configuration of the target of the arm. The robot according to claim 1, which controls the movement of the base so as to approach the calculated target position of the base.
  3.  前記コントローラは、前記ベースに対する前記対象の位置と前記ベースの目標位置に対する前記対象の位置との差が減少するように前記ベースの移動を制御する、請求項2に記載のロボット。 The robot according to claim 2, wherein the controller controls the movement of the base so that the difference between the position of the target with respect to the base and the position of the target with respect to the target position of the base is reduced.
  4.  前記コントローラは、前記ベースに対する前記対象の位置及び前記ベースに対する前記エンドエフェクタの位置に基づいて前記ロボットの現在の位置及び姿勢を示す推定ロボットを設定し、前記アームの目標の構成に基づいて前記ロボットの目標の位置及び姿勢を示す基準ロボットを設定し、
     前記ベースに対する前記対象の位置は、前記推定ロボットの前記ベースに対する前記対象の位置であり、
     前記ベースの目標位置に対する前記対象の位置は、前記基準ロボットの前記ベースに対する前記対象の位置である、
     請求項2又は請求項3に記載のロボット。
    The controller sets an estimation robot that indicates the current position and posture of the robot based on the position of the target with respect to the base and the position of the end effector with respect to the base, and the robot is based on the target configuration of the arm. Set a reference robot that shows the target position and posture of
    The position of the target with respect to the base is the position of the target with respect to the base of the estimation robot.
    The target position with respect to the target position of the base is the target position with respect to the base of the reference robot.
    The robot according to claim 2 or 3.
  5.  前記コントローラは、前記ベースに対する前記対象の位置に基づく逆運動学により前記アームの目標の構成を算出し、前記ベースに対する前記対象の位置と前記アームの目標の構成により規定される前記ベースに対する前記エンドエフェクタの目標位置との差が減少するように前記ベースの移動を制御する、請求項1に記載のロボット。 The controller calculates the target configuration of the arm by inverse kinematics based on the position of the target with respect to the base, and the end with respect to the base defined by the position of the target with respect to the base and the configuration of the target of the arm. The robot according to claim 1, wherein the movement of the base is controlled so that the difference from the target position of the effector is reduced.
  6.  前記アームは、複数関節を有し、
     前記コントローラは、前記アームの目標の構成に基づいて前記アームの各ジョイント角度を制御する、
     請求項1から請求項5のうちのいずれか1項に記載のロボット。
    The arm has a plurality of joints and has a plurality of joints.
    The controller controls each joint angle of the arm based on the target configuration of the arm.
    The robot according to any one of claims 1 to 5.
  7.  前記撮像部は、深度測定可能に構成されるRGB-Dセンサ又はステレオカメラを有し、前記対象に関する視覚情報として、前記対象に関する3次元位置情報を出力する、請求項1から請求項6のうちのいずれか1項に記載のロボット。 Of claims 1 to 6, the imaging unit has an RGB-D sensor or a stereo camera configured to be capable of measuring depth, and outputs three-dimensional position information about the target as visual information about the target. The robot according to any one of the above.
PCT/JP2021/005770 2020-02-17 2021-02-16 Robot WO2021166918A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-024777 2020-02-17
JP2020024777 2020-02-17

Publications (1)

Publication Number Publication Date
WO2021166918A1 true WO2021166918A1 (en) 2021-08-26

Family

ID=77391928

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005770 WO2021166918A1 (en) 2020-02-17 2021-02-16 Robot

Country Status (1)

Country Link
WO (1) WO2021166918A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214544A (en) * 2009-03-17 2010-09-30 Toshiba Corp Track generation system of moving manipulator
JP2012011531A (en) * 2010-07-05 2012-01-19 Yaskawa Electric Corp Robot apparatus and gripping method for use in robot apparatus
JP2015178141A (en) * 2014-03-19 2015-10-08 トヨタ自動車株式会社 transfer robot and transfer method
JP2019185265A (en) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 Action planning system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214544A (en) * 2009-03-17 2010-09-30 Toshiba Corp Track generation system of moving manipulator
JP2012011531A (en) * 2010-07-05 2012-01-19 Yaskawa Electric Corp Robot apparatus and gripping method for use in robot apparatus
JP2015178141A (en) * 2014-03-19 2015-10-08 トヨタ自動車株式会社 transfer robot and transfer method
JP2019185265A (en) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 Action planning system

Similar Documents

Publication Publication Date Title
CN110198813B (en) Robot path generation device and robot system
US8676381B2 (en) Humanoid robot and walking control method thereof
JP6075343B2 (en) Traveling robot, operation planning method thereof, and program
JP7469282B2 (en) Whole-body manipulation for legged robots using dynamic balance
US9827675B2 (en) Collision avoidance method, control device, and program
Shi et al. Collision avoidance for redundant robots in position-based visual servoing
Xu et al. Visual-haptic aid teleoperation based on 3-D environment modeling and updating
GB2549072A (en) Robot control
JP2014180704A (en) Robot picking system and manufacturing method for workpiece
JP7207207B2 (en) Arithmetic device, machine learning method and control program
US20230117928A1 (en) Nonlinear trajectory optimization for robotic devices
Lippiello et al. A position-based visual impedance control for robot manipulators
WO2021166918A1 (en) Robot
US20220388165A1 (en) Method and system for autonomous object manipulation
KR20100110960A (en) Trajectory control device and method of mobile robot using omni-wheels
Lippiello et al. Robot interaction control using force and vision
US20210402605A1 (en) Work Mode and Travel Mode for Mobile Robots
US20220193893A1 (en) Limiting Arm Forces and Torques
Li et al. Kinodynamics-based pose optimization for humanoid loco-manipulation
JP5310236B2 (en) Legged robot and its control method
TW202120273A (en) Control method for robot system
RU2725930C1 (en) Complex of mastering control of anthropomorphic robot manipulators
US11931898B2 (en) Arm and body coordination
WO2022153842A1 (en) Moving device and moving device control method
JP2001060112A (en) Moving route control method by spline interpolation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21757000

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21757000

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP