WO2023127125A1 - 制御装置、ロボットシステム、制御方法、および記録媒体 - Google Patents

制御装置、ロボットシステム、制御方法、および記録媒体 Download PDF

Info

Publication number
WO2023127125A1
WO2023127125A1 PCT/JP2021/048871 JP2021048871W WO2023127125A1 WO 2023127125 A1 WO2023127125 A1 WO 2023127125A1 JP 2021048871 W JP2021048871 W JP 2021048871W WO 2023127125 A1 WO2023127125 A1 WO 2023127125A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
error
robot
movement
unit
Prior art date
Application number
PCT/JP2021/048871
Other languages
English (en)
French (fr)
Inventor
真澄 一圓
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/048871 priority Critical patent/WO2023127125A1/ja
Publication of WO2023127125A1 publication Critical patent/WO2023127125A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Definitions

  • the present disclosure relates to control devices, robot systems, control methods, and recording media.
  • Patent Document 1 discloses, as a related technology, a technology related to a robot system that recovers from an error when it occurs.
  • one object of the present disclosure is to provide a control device or the like that can reliably detect an operation error of a robot during operation. Therefore, there is a demand for a technique capable of reliably detecting an operation error of a robot in motion.
  • Each aspect of the present disclosure aims to provide a control device, a robot system, a control method, and a recording medium that can solve the above problems.
  • a control device includes first generation means for generating a state sequence including a plurality of states from a state of a movement source of an object to a state of a movement destination; determination means for determining occurrence of an error in the motion of the robot based on a comparison result between the state of the object during motion of the robot operating according to the state sequence and the generated state; and and control means for modifying the state sequence to perform a recovery operation for recovering the error if it is determined that the error has occurred.
  • a robot system includes the control device described above and a robot that operates according to control by the control device.
  • a control method generates a state sequence including a plurality of states from a source state to a destination state of an object, and according to the state sequence determining whether an error has occurred in the motion of the robot based on a comparison result between the state of the object during motion of the robot in motion and the generated state; and when it is determined that the error has occurred. , modifying the state sequence to take recovery actions to recover from the error.
  • a recording medium causes a computer to generate a state sequence including a plurality of states from a movement source state of an object to a movement destination state. determining whether an error occurs in the motion of the robot based on a comparison result between the state of the object during motion of the robot operating according to the state sequence and the generated state; and A program storing a program for changing the state sequence to perform a recovery operation for recovering the error when it is determined that the error has occurred.
  • FIG. 1 is a diagram illustrating an example configuration of a robot system according to an embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram showing an example of a sequence of initial plans generated by a generation unit according to an embodiment of the present disclosure
  • FIG. 4 is a diagram illustrating an example of an initial planned control signal generated by a control unit according to an embodiment of the present disclosure
  • FIG. 4B is a first diagram for explaining a sequence after an error in an embodiment of the present disclosure
  • FIG. 4B is a second diagram for explaining a sequence after an error in an embodiment of the present disclosure
  • FIG. 4 is a diagram illustrating an example of a processing flow of a robot system according to an embodiment of the present disclosure
  • FIG. 4 is a diagram illustrating an example of a processing flow of a minimum configuration control device according to an embodiment of the present disclosure
  • FIG. 4 is a diagram illustrating an example of a processing flow of a minimum configuration control device according to an embodiment of the present disclosure
  • 1 is a schematic block diagram showing a configuration of a computer according to at least one embodiment
  • a robot system 1 is a system that moves an object placed at one position to another position, and is a system that efficiently recovers when the movement of the object fails on the way.
  • the robot system 1 is, for example, a system installed in a warehouse of a distribution center.
  • FIG. 1 is a diagram showing an example configuration of a robot system 1 according to an embodiment of the present disclosure.
  • the robot system 1 includes a control device 2, a robot 40, and an imaging device 50, as shown in FIG.
  • the control device 2 includes an input unit 10, a generation unit 20 (an example of first generation means, an example of a second generation means), a control unit 30 (an example of control means), a management unit 60, a detection unit 70, and a re-planning unit. 80.
  • the input unit 10 inputs work goals and constraints to the generation unit 20 .
  • work targets include information indicating the type of object M, the number of objects M to be moved, the source of movement of object M, and the destination of movement of object M.
  • restrictions include areas where entry is prohibited when moving the object M, areas where the robot cannot move, and the like.
  • the input unit 10 accepts an input from the operator as a work target, for example, "3 parts A are moved from tray A to tray B", and the type of object M to be moved is part A, and the object to be moved is part A. It may be specified that the number of M is three, the source of movement of object M is tray A, and the destination of movement of object M is tray B, and the identified information is input to generation unit 20. may
  • the generation unit 20 generates an initial plan sequence indicating the flow of motion of the robot 40 based on the work goals and constraints input by the input unit 10 . For example, when a work target and a constraint are input by the input unit 10 , the generation unit 20 acquires an image of the movement source of the object M indicated by the work target from the imaging device 50 . The generation unit 20 can recognize the state (that is, the position and orientation) of the object M at the origin of movement from the image acquired from the imaging device 50 . The generation unit 20 generates a control signal for the control unit 30 to generate a control signal for controlling the robot 40, for each time step in the middle of the robot 40 from the state at the movement source of the object M to the state at the destination of the object M.
  • each state (the type of the object M, the position and orientation of the robot 40, the motion currently being executed (strength of gripping the object M, etc.), etc.) is generated. That is, each state of the robot 40 at each time step on the way from the state at the movement source of the object M to the state at the destination of the object M, which is necessary for the control unit 30 to generate a control signal for controlling the robot 40
  • the information shown is a sequence (an example of a state sequence).
  • the generation unit 20 outputs the generated sequence to the control unit 30, the management unit 60, and the update unit 80b, which will be described later.
  • the generation unit 20 also generates a new sequence based on a new work goal generated by the identification unit 80a, which will be described later, and outputs the generated sequence to the identification unit 80a.
  • the generation unit 20 may be implemented using artificial intelligence (AI) technology including temporal logic, reinforcement learning, optimization technology, and the like.
  • FIG. 2 is a diagram showing an example of an initial plan sequence TBL1 generated by the generation unit 20 according to an embodiment of the present disclosure.
  • the sequence TBL1 of the initial plan generated by the generation unit 20 is a sequence indicating each state of the robot 40 at every n time steps from the movement source of the object M to the movement destination, as shown in FIG. .
  • the control unit 30 generates a control signal for controlling the robot 40 based on a sequence input from the outside (that is, the generating unit 20 or an updating unit 80b described later). Note that the control unit 30 may generate a control signal that optimizes the evaluation function when generating the control signal. Examples of the evaluation function include a function representing the amount of energy consumed by the robot 40 when moving the object M, a function representing the distance along the path along which the object M is moved, and the like. Control unit 30 outputs the generated control signal to robot 40 , management unit 60 , and detection unit 70 .
  • FIG. 3 is a diagram showing an example of an initial planned control signal Cnt generated by the control unit 30 according to an embodiment of the present disclosure.
  • the control signal Cnt of the initial plan generated by the control unit 30 is, as shown in FIG.
  • control unit 30 stops outputting control signals to the robot 40 upon receiving an error signal, which will be described later, from the detection unit 70 . That is, the controller 30 stops controlling the robot 40 .
  • control unit 30 when the control unit 30 receives a restart signal and a sequence after an error from the update unit 80b described later while the control of the robot 40 is stopped, the control unit 30 outputs a control signal for controlling the robot 40 based on the sequence. Generate.
  • the robot 40 grips the object M and moves the object M from the movement source to the movement destination according to the control signal output by the control unit 30 .
  • the robot 40 has a sensor 40a.
  • the sensor 40 a detects the state of the robot 40 .
  • Examples of the sensor 40a include a sensor that detects the rotational position of the motor that operates the actuator of the robot 40, a sensor that detects the force of gripping the object M (for example, the force that pinches the object M or the force that attracts the object M). is mentioned.
  • a detection result by the sensor 40 a is output to the detection unit 70 .
  • the photographing device 50 photographs the state of the object M.
  • the imaging device 50 is, for example, an industrial camera, and can identify the state of the object M (that is, its position and orientation). An image captured by the imaging device 50 is output to the generation unit 20 and the detection unit 70 .
  • the management unit 60 estimates the current states of the robot 40 and the object M based on the sequence output by the generation unit 20 and the control signal output by the control unit 30 .
  • the current states of the robot 40 and the object M estimated by the management unit 60 are ideal states that the robot 40 and the object M should be in at this point.
  • the management unit 60 outputs information indicating the estimated current states of the robot 40 and the object M to the detection unit 70 .
  • the detection unit 70 is a processing unit that detects that an error has occurred in the movement of the object M.
  • the detection unit 70 includes, as shown in FIG. 1, reception units 70a and 70b and a determination unit 70c (an example of determination means).
  • the receiving unit 70 a receives the control signal output by the control unit 30 . It also receives the detection result detected by the sensor 40a (that is, the information indicating the state of the robot 40). The receiving unit 70a outputs the received control signal and the received detection result to the determining unit 70c.
  • the receiving unit 70b receives the image captured by the imaging device 50.
  • the receiving unit 70b outputs the received image to the determining unit 70c.
  • the determination unit 70c identifies the current actual states of the robot 40 and the object M based on the control signal and the detection result output by the reception unit 70a and the image output by the reception unit 70b. For example, the determination unit 70c may determine that the object M exists at the tip of the hand of the robot when it determines that the gripping of the robot 40 is valid. In addition, when the robot 40's grip becomes invalid (when the robot 40 drops unexpectedly), the determination unit 70c determines that the object M exists on the floor vertically downward from the hand of the robot 40 at that time. There may be. The determination unit 70c compares the current actual states of the specified robot 40 and object M with the estimated current states of the robot 40 and object M indicated by the information output by the management unit 60. FIG.
  • the determination unit 70c determines whether an error has occurred in the movement of the object M based on the comparison result. When determining that the difference between the current actual state of the robot 40 and the object M and the estimated state exceeds a predetermined threshold value, the determining unit 70c determines that an error has occurred in the movement of the object M. . Further, when determining that the difference does not exceed the predetermined threshold value, the determining unit 70c determines that an error has not occurred in the movement of the object M. When determining that an error has occurred in the movement of the object M, the determination unit 70c outputs an error signal indicating that an error has occurred to the control unit 30, and together with the error signal, the control signal, the detection result, and the image (i.e. , the current actual states of the robot 40 and the object M) and the current estimated states of the robot 40 and the object M to the replanning unit 80 .
  • the re-planning unit 80 is a processing unit that, when an error occurs in the movement of the object M, generates a plan for efficiently moving the object M to the destination from the state in which the error has occurred.
  • the replanning unit 80 includes, as shown in FIG. 1, a specifying unit 80a and an updating unit 80b (an example of third generating means).
  • the specifying unit 80a Upon receiving the error signal, the specifying unit 80a generates a new work target based on the control signal, the detection result, and the image received together with the error signal, and the current estimated states of the robot 40 and the object M.
  • a new work goal is to change the state of the object M after an error occurs to the state of the object M when it is grasped by the robot 40 in one of a plurality of states in the sequence of the initial plan.
  • Information for moving M that is, the type of object M, the number of objects M to be moved is 1, information indicating the state of object M after an error that is the source of movement of object M, and the destination of movement of object M information indicating the state of the object M when it is gripped by the robot 40 in one of a plurality of states in the sequence of the initial plan.
  • the identifying unit 80 a outputs the generated new work goal to the generating unit 20 .
  • the identifying unit 80a upon receiving the sequence generated by the generating unit 20 for the new work goal, the identifying unit 80a outputs the received new sequence to the updating unit 80b.
  • the updating unit 80b Upon receiving the new sequence from the identifying unit 80a, the updating unit 80b updates the initial plan sequence received from the generating unit 20 from the movement source state to the initial plan sequence that is the movement destination of the object M in the new sequence. Replace the states up to one of the states with the source state to the destination state in the new sequence. That is, the update unit 80b moves the object M in a new sequence from the state of the object M after an error occurs in the movement of the object M to one state among the plurality of states in the sequence of the initial plan, and then , generates a post-error sequence for moving the object M by using the sequence of the initial plan from the one state to the destination state.
  • FIG. 4 is a first diagram for explaining the sequence after an error in one embodiment of the present disclosure.
  • FIG. 5 is a second diagram for explaining the sequence after an error in one embodiment of the present disclosure.
  • the specifying unit 80a generates a new work target, and the generation unit 20, for the new work target, performs a plurality of operations in the sequence of the initial plan from the state A for the movement source of the object M after the error.
  • Generate up to state B one of the states.
  • the updating unit 80b replaces the state 1 to state B in the sequence of the initial plan with the new sequence generated by the generating unit 20 (that is, state A to state B).
  • the specifying unit 80a replaces the portion of the sequence from state 1 to state m in the sequence TBL1 shown in FIG.
  • the sequence after this replacement is the sequence after the error.
  • the specifying unit 80 a outputs the sequence after the error to the control unit 30 together with a restart signal indicating restart of control of the robot 40 .
  • FIG. 6 is a diagram showing an example of the processing flow of the robot system 1 according to one embodiment of the present disclosure. Next, processing performed by the robot system 1 will be described with reference to FIG. It is assumed that the robot 40 operates according to the control signal based on the sequence of the initial plan until an error occurs in the movement of the object M. Here, the processing of the robot system 1 after the error occurs will be described. .
  • the receiving unit 70 a receives the control signal output by the control unit 30 . It also receives the detection result detected by the sensor 40a (that is, the information indicating the state of the robot 40). The receiving unit 70a outputs the received control signal and the received detection result to the determining unit 70c.
  • the receiving unit 70b receives the image captured by the imaging device 50.
  • the receiving unit 70b outputs the received image to the determining unit 70c.
  • the determination unit 70c identifies the current actual states of the robot 40 and the object M based on the control signal and the detection result output by the reception unit 70a and the image output by the reception unit 70b (step S1).
  • the determination unit 70c compares the current actual states of the identified robot 40 and object M with the estimated current states of the robot 40 and object M indicated by the information output by the management unit 60 (step S2).
  • the determination unit 70c determines whether an error has occurred in the movement of the object M based on the comparison result (step S3).
  • the determining unit 70c determines that an error has occurred in the movement of the object M. . Further, when determining that the difference does not exceed the predetermined threshold value, the determining unit 70c determines that an error has not occurred in the movement of the object M.
  • the process returns to step S1. Further, when determining that an error has occurred in the movement of the object M (YES in step S3), the determination unit 70c outputs an error signal indicating that an error has occurred to the control unit 30, and outputs the control signal together with the error signal. , detection results, images, and current estimated states of the robot 40 and the object M to the replanning unit 80 .
  • the identification unit 80a Upon receiving the error signal, the identification unit 80a generates a new work target based on the control signal, the detection result, and the image received together with the error signal, and the current estimated states of the robot 40 and the object M (step S4).
  • the identifying unit 80 a outputs the generated new work goal to the generating unit 20 .
  • the generating unit 20 generates a new sequence based on a new work goal generated by the identifying unit 80a, which will be described later (step S5), and outputs the generated sequence to the identifying unit 80a.
  • the identifying unit 80a Upon receiving the sequence generated for the new task target by the generating unit 20, the identifying unit 80a outputs the received new sequence to the updating unit 80b.
  • the updating unit 80b Upon receiving the new sequence from the identifying unit 80a, the updating unit 80b updates the initial plan sequence received from the generating unit 20 from the movement source state to the initial plan sequence that is the movement destination of the object M in the new sequence. Replace the states up to one of the states with the source state to the destination state in the new sequence. That is, the update unit 80b moves the object M in a new sequence from the state of the object M after an error occurs in the movement of the object M to one state among the plurality of states in the sequence of the initial plan, and then , from the one state to the state of the destination, the sequence of the initial plan is diverted to generate a sequence after error for moving the object M (step S6).
  • the generation unit 20 generates a state sequence including a plurality of states from the state of the movement source of the object M to the state of the movement destination.
  • the determination unit 70c determines whether an error has occurred in the operation of the robot 40 based on the result of comparison between the state of the object M during operation of the robot 40 operating according to the state sequence and the generated state. .
  • the control unit 30 changes the state sequence so as to perform a recovery operation for recovering from the error.
  • control device 2 can reliably detect an operation error of the robot during operation.
  • the robot system 1 of the above-described embodiment performs recovery when an error occurs in the movement of the object M when one robot 40 grips one object M and moves the object M from the movement source to the movement destination. described as what to do.
  • the robot system 1 of another embodiment of the present disclosure may include a plurality of robots 40 and recover errors that occur when the plurality of robots 40 move the plurality of objects M. For example, even when a plurality of robots 40 move a plurality of objects M via intermediate points, each robot 40 has a predetermined movement destination from a movement source. The above-described processing of gripping the object M and moving the object M from the movement source to the movement destination may be applied to the plurality of robots 40 .
  • FIG. 7 is a diagram illustrating an example of a processing flow of the control device 2 with the minimum configuration according to the embodiment of the present disclosure.
  • the control device 2 includes a first generating section 101 (an example of first generating means), a determining section 102 (an example of determining means), and a control section 105 (an example of generating means).
  • the first generation unit 101 generates a state sequence including a plurality of states from the state of the movement source of the object to the state of the movement destination.
  • the first generation unit 101 can be realized, for example, by using the functions of the generation unit 20 illustrated in FIG.
  • a determination unit 102 determines whether an error has occurred in the motion of the robot, based on a comparison result between the state of the object during motion of the robot operating according to the state sequence and the generated state.
  • the determination unit 102 can be implemented using, for example, the functions of the determination unit 70c illustrated in FIG.
  • the control unit 105 changes the state sequence so as to perform a recovery operation for recovering from the error when it is determined that the error has occurred.
  • the control unit 105 can be implemented using, for example, the functions of the control unit 30 illustrated in FIG.
  • FIG. 8 is a diagram showing an example of the processing flow of the control device 2 with the minimum configuration.
  • the processing of the control device 2 with the minimum configuration will be described with reference to FIG.
  • the first generation unit 101 generates a state sequence including a plurality of states from the state of the movement source of the object to the state of the movement destination (step S101).
  • the determination unit 102 determines whether an error has occurred in the motion of the robot based on the comparison result between the state of the object during the motion of the robot operating according to the state sequence and the generated state (step S102). ).
  • the control unit 105 changes the state sequence so as to perform recovery operation for recovering from the error (step S103).
  • the minimum configuration control device 2 according to the embodiment of the present disclosure has been described above. With this control device 2, an operation error of the robot during operation can be reliably detected.
  • the receiving unit 70a receives at least one of the control signal output by the control unit 30 and the state of the robot 40 detected by the sensor 40a, and the determining unit 70c receives the receiving unit 70a and The current actual states of the robot 40 and the object M may be specified based on the information received by the receiving unit 70b.
  • the above-described robot system 1, control device 2, input unit 10, generation unit 20, control unit 30, robot 40, imaging device 50, management unit 60, detection unit 70, replanning unit 80, other controllers may have computer equipment inside.
  • the process of the above-described processing is stored in a computer-readable recording medium in the form of a program, and the above-described processing is performed by reading and executing this program by a computer. Specific examples of computers are shown below.
  • FIG. 9 is a schematic block diagram showing the configuration of a computer according to at least one embodiment.
  • the computer 5 includes a CPU 6 (including a vector processor), a main memory 7, a storage 8, and an interface 9, as shown in FIG.
  • the robot system 1, the control device 2, the input unit 10, the generation unit 20, the control unit 30, the robot 40, the imaging device 50, the management unit 60, the detection unit 70, the replanning unit 80, and other control devices described above. is implemented in the computer 5.
  • the operation of each processing unit described above is stored in the storage 8 in the form of a program.
  • the CPU 6 reads out the program from the storage 8, develops it in the main memory 7, and executes the above process according to the program.
  • the CPU 6 secures storage areas corresponding to the storage units described above in the main memory 7 according to the program.
  • storage 8 examples include HDD (Hard Disk Drive), SSD (Solid State Drive), magnetic disk, magneto-optical disk, CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc Read Only Memory) , semiconductor memory, and the like.
  • the storage 8 may be an internal medium directly connected to the bus of the computer 5, or an external medium connected to the computer 5 via the interface 9 or communication line. Further, when this program is distributed to the computer 5 through a communication line, the computer 5 that receives the distribution may develop the program in the main memory 7 and execute the above process.
  • storage 8 is a non-transitory, tangible storage medium.
  • the above program may implement part of the functions described above.
  • the program may be a file capable of realizing the functions described above in combination with a program already recorded in the computer device, that is, a so-called difference file (difference program).
  • Robot system 2 ... Control device 5... Computer 6... CPU 7 Main memory 8 Storage 9 Interface 10
  • Input unit 20 Generation unit 30
  • Control unit 40 Robot 50 Photographing device 60

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Safety Devices In Control Systems (AREA)

Abstract

制御装置は、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する第1生成手段と、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定する判定手段と、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する制御手段とを備える。

Description

制御装置、ロボットシステム、制御方法、および記録媒体
 本開示は、制御装置、ロボットシステム、制御方法、および記録媒体に関する。
 物流などさまざまな分野でロボットが利用されている。ロボットの中には、自律して動作するものがある。特許文献1には、関連する技術として、エラーが発生した場合にそのエラーから復帰するロボットシステムに関する技術が開示されている。
特許第5436460号公報
 特許文献1に記載の技術では、ロボットの動作中に動作エラーを確実に検知するのは難しい。そこで、本開示の目的の1つは、動作中のロボットの動作エラーを確実に検知可能な制御装置等を提供することである。そこで、動作中のロボットの動作エラーを確実に検知することができる動作中のロボットの動作エラーを確実に検知することのできる技術が求められている。
 本開示の各態様は、上記の課題を解決することのできる制御装置、ロボットシステム、制御方法、および記録媒体を提供することを目的としている。
 上記目的を達成するために、本開示の一態様によれば、制御装置は、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する第1生成手段と、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定する判定手段と、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する制御手段とを備える。
 上記目的を達成するために、本開示の別の態様によれば、ロボットシステムは、上記の制御装置と、前記制御装置による制御に応じて動作するロボットと、を備える。
 上記目的を達成するために、本開示の別の態様によれば、制御方法は、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成し、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定し、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する。
 上記目的を達成するために、本開示の別の態様によれば、記録媒体は、コンピュータに、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成することと、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定することと、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更することとを実行させるプログラムが格納されているプログラムを格納している。
 本開示の各態様によれば、動作中のロボットの動作エラーを確実に検知することができる。
本開示の一実施形態によるロボットシステムの構成の一例を示す図である。 本開示の一実施形態による生成部が生成する初期計画のシーケンスの一例を示す図である。 本開示の一実施形態による制御部が生成する初期計画の制御信号の一例を示す図である。 本開示の一実施形態におけるエラー後のシーケンスを説明するための第1の図である。 本開示の一実施形態におけるエラー後のシーケンスを説明するための第2の図である。 本開示の一実施形態によるロボットシステムの処理フローの一例を示す図である。 本開示の実施形態による最小構成の制御装置の処理フローの一例を示す図である。 本開示の実施形態による最小構成の制御装置の処理フローの一例を示す図である。 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
 以下、図面を参照しながら実施形態について詳しく説明する。
<実施形態>
 本開示の一実施形態によるロボットシステム1は、ある位置に置かれた物体を別の位置に移動させるシステムであり、途中で物体の移動に失敗した場合に効率よくリカバリーするシステムである。ロボットシステム1は、例えば、物流センターの倉庫などに導入されるシステムである。
(ロボットシステムの構成)
 図1は、本開示の一実施形態によるロボットシステム1の構成の一例を示す図である。ロボットシステム1は、図1に示すように、制御装置2、ロボット40、および撮影装置50を備える。
 制御装置2は、入力部10、生成部20(第1生成手段の一例、第2生成手段の一例)、制御部30(制御手段の一例)、管理部60、検知部70、および再計画部80を備える。
 入力部10は、作業目標および制約を生成部20に入力する。作業目標の例としては、物体Mの種類、移動させる物体Mの数量、物体Mの移動元、および物体Mの移動先を示す情報などが挙げられる。制約の例としては、物体Mを移動させる際の進入禁止領域、ロボットの可動不可能か領域などが挙げられる。なお、入力部10は、作業目標として、例えば「部品Aを3個、トレイAからトレイBに移動させる」という入力を作業者から受け付け、移動対象の物体Mの種類が部品A、移動させる物体Mの数量が3個、物体Mの移動元がトレイA、物体Mの移動先がトレイBであると特定するものであってもよく、その特定した情報を生成部20に入力するものであってもよい。
 生成部20は、入力部10により入力された作業目標および制約に基づいて、ロボット40の動作の流れを示す初期計画のシーケンスを生成する。例えば、入力部10により作業目標および制約が入力されると、生成部20は、作業目標が示す物体Mの移動元の画像を撮影装置50から取得する。生成部20は、撮影装置50から取得する画像により、物体Mの移動元における状態(すなわち、位置および姿勢)を認識することができる。生成部20は、制御部30がロボット40を制御する制御信号を生成するのに必要な、物体Mの移動元における状態から物体Mの移動先における状態までのロボット40の途中のタイムステップごとの各状態(物体Mの種類、ロボット40の位置および姿勢、現在実行中の動作(物体Mの把持の強さなど)など)を示す情報を生成する。つまり、制御部30がロボット40を制御する制御信号を生成するのに必要な、物体Mの移動元における状態から物体Mの移動先における状態までのロボット40の途中のタイムステップごとの各状態を示す情報がシーケンス(状態シーケンスの一例)である。生成部20は、生成したシーケンスを制御部30、管理部60、および後述する更新部80bに出力する。また、生成部20は、後述する特定部80aが生成する新たな作業目標に基づいて、新たなシーケンスを生成し、生成したシーケンスを特定部80aに出力する。なお、生成部20は、時相論理、強化学習、最適化技術などを含む人工知能(Artificial Intelligence;AI)の技術を用いて実現されるものであってよい。
 図2は、本開示の一実施形態による生成部20が生成する初期計画のシーケンスTBL1の一例を示す図である。例えば、生成部20が生成する初期計画のシーケンスTBL1は、図2に示すように、例えば、物体Mの移動元から移動先までがnのタイムステップごとのロボット40の各状態を示すシーケンスである。
 制御部30は、外部(すなわち、生成部20または後述する更新部80b)から入力されるシーケンスに基づいて、ロボット40を制御する制御信号を生成する。なお、制御部30は、制御信号を生成する際に評価関数を最適化する制御信号を生成するものであってもよい。評価関数の例としては、物体Mを移動させる際にロボット40が消費するエネルギー量を表す関数、物体Mを移動させる経路に沿った距離を表す関数などが挙げられる。制御部30は、生成した制御信号をロボット40、管理部60、および検知部70に出力する。
 図3は、本開示の一実施形態による制御部30が生成する初期計画の制御信号Cntの一例を示す図である。例えば、制御部30が生成する初期計画の制御信号Cntは、図3に示すように、例えば、物体Mの移動元から移動先までがnのタイムステップごとの各制御信号である。
 また、制御部30は、検知部70から後述するエラー信号を受けると、ロボット40への制御信号の出力を停止する。すなわち、制御部30は、ロボット40の制御を停止する。
 また、制御部30は、ロボット40の制御を停止している状態で、後述する更新部80bから再開信号およびエラー後のシーケンスを受けた場合、シーケンスに基づいて、ロボット40を制御する制御信号を生成する。
 ロボット40は、制御部30が出力する制御信号に応じて、物体Mを把持し、移動元から移動先まで物体Mを移動させる。ロボット40は、センサ40aを備える。センサ40aは、ロボット40の状態を検出する。センサ40aの例としては、ロボット40のアクチュエータを動作させるモータの回転位置を検出するセンサ、物体Mを把持する力(例えば、物体Mを挟む力または物体Mを吸引する力)を検出するセンサなどが挙げられる。センサ40aによる検出結果は、検知部70に出力される。
 撮影装置50は、物体Mの状態を撮影する。撮影装置50は、例えば、産業用カメラであり、物体Mの状態(すなわち、位置および姿勢)を特定することができる。撮影装置50が撮影した画像は、生成部20および検知部70に出力される。
 管理部60は、生成部20が出力するシーケンスと、制御部30が出力する制御信号とに基づいて、ロボット40および物体Mの現在の状態を推定する。管理部60が推定するロボット40および物体Mの現在の状態は、現時点でロボット40および物体Mがこうなっているはずであるという理想的な状態である。管理部60は、推定したロボット40および物体Mの現在の状態を示す情報を検知部70に出力する。
 検知部70は、物体Mの移動においてエラーが発生したことを検知する処理部である。検知部70は、図1に示すように、受信部70a、70b、および判定部70c(判定手段の一例)を備える。
 受信部70aは、制御部30が出力する制御信号を受信する。また、センサ40aが検出した検出結果(すなわち、ロボット40の状態を示す情報)を受信する。受信部70aは、受信した制御信号および受信した検出結果を判定部70cに出力する。
 受信部70bは、撮影装置50が撮影した画像を受信する。受信部70bは、受信した画像を判定部70cに出力する。
 判定部70cは、受信部70aが出力した制御信号および検出結果と、受信部70bが出力した画像とに基づいて、ロボット40および物体Mの現在の実際の状態を特定する。例えば、判定部70cは、ロボット40の把持が有効な状態であると判定した場合、ロボットの手先の先の位置に物体Mが存在すると判定するものであってもよい。また、判定部70cは、ロボット40の把持が有効から無効になった場合(予想外に落下した場合)、その時のロボット40の手先から垂直下方向の床上に物体Mが存在すると判定するものであってもよい。判定部70cは、特定したロボット40および物体Mの現在の実際の状態と、管理部60が出力した情報が示すロボット40および物体Mの現在の推定した状態とを比較する。判定部70cは、比較結果に基づいて、物体Mの移動においてエラーが発生したか否かを判定する。判定部70cは、ロボット40および物体Mの現在の実際の状態と、推定した状態との差が予め定めたしきい値を超えると判定した場合、物体Mの移動においてエラーが発生したと判定する。また、判定部70cは、その差が予め定めたしきい値を超えないと判定した場合、物体Mの移動においてエラーは発生していないと判定する。判定部70cは、物体Mの移動においてエラーが発生したと判定した場合、エラーが発生したことを示すエラー信号を制御部30に出力し、エラー信号とともに、制御信号、検出結果、および画像(すなわち、ロボット40および物体Mの現在の実際の状態)と、ロボット40および物体Mの現在の推定した状態とを再計画部80に出力する。
 再計画部80は、物体Mの移動においてエラーが発生した場合に、エラーが発生した状態から効率よく物体Mを移動先まで移動させる計画を生成する処理部である。再計画部80は、図1に示すように、特定部80aおよび更新部80b(第3生成手段の一例)を備える。
 特定部80aは、エラー信号を受けると、エラー信号とともに受けた制御信号、検出結果、および画像と、ロボット40および物体Mの現在の推定した状態とに基づいて、新たな作業目標を生成する。新たな作業目標の例としては、エラーが発生したエラー後の物体Mの状態から、初期計画のシーケンスにおける複数の状態のうちの1つの状態のロボット40が把持した場合の物体Mの状態まで物体Mを移動させる情報、すなわち、物体Mの種類、移動させる物体Mの数量が1、物体Mの移動元であるエラーが発生したエラー後の物体Mの状態を示す情報、および物体Mの移動先である初期計画のシーケンスにおける複数の状態のうちの1つの状態のロボット40が把持した場合の物体Mの状態を示す情報などが挙げられる。特定部80aは、生成した新たな作業目標を生成部20に出力する。
 また、特定部80aは、生成部20が新たな作業目標について生成したシーケンスを受けると、受けた新たなシーケンスを更新部80bに出力する。
 更新部80bは、特定部80aから新たなシーケンスを受けると、生成部20から受けた初期計画のシーケンスにおいて、移動元の状態から、新たなシーケンスにおける物体Mの移動先である初期計画のシーケンスにおける複数の状態のうちの1つの状態までの状態を、新たなシーケンスにおける移動元の状態から移動先の状態までに置き換える。すなわち、更新部80bは、物体Mの移動においてエラーが発生したエラー後の物体Mの状態から初期計画のシーケンスにおける複数の状態のうちの1つの状態まで新たなシーケンスで物体Mを移動させ、その後、その1つの状態から移動先の状態までは初期計画のシーケンスを流用して物体Mを移動させるエラー後のシーケンスを生成する。
 図4は、本開示の一実施形態におけるエラー後のシーケンスを説明するための第1の図である。図5は、本開示の一実施形態におけるエラー後のシーケンスを説明するための第2の図である。例えば、図4に示す状態1から状態nまでの初期計画のシーケンスにおいて状態mにおいてエラーが発生したとする。この場合、特定部80aは新たな作業目標を生成し、生成部20は、その新たな作業目標に対して、エラー後の物体Mの移動元に対して状態Aから初期計画のシーケンスにおける複数の状態のうちの1つの状態Bまでを生成する。更新部80bは、初期計画のシーケンスにおける状態1から状態Bまでを、生成部20が生成した新たなシーケンス(すなわち、状態Aから状態B)に置き換える。
 例えば、初期計画のシーケンスが図2に示すシーケンスTBL1であり、状態mでエラーが発生しエラー信号によりロボット40が制御信号mによる制御の状態で停止した場合(すなわち、状態Bが状態mである場合)、特定部80aは、図2に示すシーケンスTBL1における状態1から状態mまでのシーケンスの部分を、生成部20が新たな作業目標について生成したシーケンスに置き換える。この置き換え後のシーケンスがエラー後のシーケンスである。特定部80aは、ロボット40の制御の再開を示す再開信号とともに、エラー後のシーケンスを制御部30に出力する。
 図6は、本開示の一実施形態によるロボットシステム1の処理フローの一例を示す図である。次に、図6を参照してロボットシステム1が行う処理について説明する。なお、物体Mの移動においてエラーが発生するまでは、初期計画のシーケンスに基づく制御信号によりロボット40は動作しているものとし、ここでは、エラーが発生した後のロボットシステム1の処理について説明する。
 受信部70aは、制御部30が出力する制御信号を受信する。また、センサ40aが検出した検出結果(すなわち、ロボット40の状態を示す情報)を受信する。受信部70aは、受信した制御信号および受信した検出結果を判定部70cに出力する。
 受信部70bは、撮影装置50が撮影した画像を受信する。受信部70bは、受信した画像を判定部70cに出力する。
 判定部70cは、受信部70aが出力した制御信号および検出結果と、受信部70bが出力した画像とに基づいて、ロボット40および物体Mの現在の実際の状態を特定する(ステップS1)。判定部70cは、特定したロボット40および物体Mの現在の実際の状態と、管理部60が出力した情報が示すロボット40および物体Mの現在の推定した状態とを比較する(ステップS2)。判定部70cは、比較結果に基づいて、物体Mの移動においてエラーが発生したか否かを判定する(ステップS3)。判定部70cは、ロボット40および物体Mの現在の実際の状態と、推定した状態との差が予め定めたしきい値を超えると判定した場合、物体Mの移動においてエラーが発生したと判定する。また、判定部70cは、その差が予め定めたしきい値を超えないと判定した場合、物体Mの移動においてエラーは発生していないと判定する。
 判定部70cは、物体Mの移動においてエラーが発生していないと判定した場合(ステップS3においてNO)、ステップS1の処理に戻す。また、判定部70cは、物体Mの移動においてエラーが発生したと判定した場合(ステップS3においてYES)、エラーが発生したことを示すエラー信号を制御部30に出力し、エラー信号とともに、制御信号、検出結果、および画像と、ロボット40および物体Mの現在の推定した状態とを再計画部80に出力する。
 特定部80aは、エラー信号を受けると、エラー信号とともに受けた制御信号、検出結果、および画像と、ロボット40および物体Mの現在の推定した状態とに基づいて、新たな作業目標を生成する(ステップS4)。特定部80aは、生成した新たな作業目標を生成部20に出力する。生成部20は、後述する特定部80aが生成する新たな作業目標に基づいて、新たなシーケンスを生成し(ステップS5)、生成したシーケンスを特定部80aに出力する。特定部80aは、生成部20が新たな作業目標について生成したシーケンスを受けると、受けた新たなシーケンスを更新部80bに出力する。
 更新部80bは、特定部80aから新たなシーケンスを受けると、生成部20から受けた初期計画のシーケンスにおいて、移動元の状態から、新たなシーケンスにおける物体Mの移動先である初期計画のシーケンスにおける複数の状態のうちの1つの状態までの状態を、新たなシーケンスにおける移動元の状態から移動先の状態までに置き換える。すなわち、更新部80bは、物体Mの移動においてエラーが発生したエラー後の物体Mの状態から初期計画のシーケンスにおける複数の状態のうちの1つの状態まで新たなシーケンスで物体Mを移動させ、その後、その1つの状態から移動先の状態までは初期計画のシーケンスを流用して物体Mを移動させるエラー後のシーケンスを生成する(ステップS6)。
(利点)
 以上、本開示の一実施形態によるロボットシステム1について説明した。ロボットシステム1の制御装置2において、生成部20は、物体Mの移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する。判定部70cは、前記状態シーケンスに従い動作しているロボット40の動作中における前記物体Mの状態と、生成した前記状態との比較結果に基づいて、前記ロボット40の動作におけるエラーの発生を判定する。制御部30は、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する。
 こうすることにより、制御装置2は、動作中のロボットの動作エラーを確実に検知することができる。
 なお、上述の実施形態のロボットシステム1は、1つのロボット40が1つの物体Mを把持して移動元から移動先まで物体Mを移動させる際に物体Mの移動にエラーが発生した場合にリカバリーするものとして説明した。しかしながら、本開示の別の実施形態のロボットシステム1は、複数のロボット40を備え、複数のロボット40が複数の物体Mを移動させる際に発生したエラーをリカバリーするものであってもよい。例えば、複数のロボット40が中間点を経由して複数の物体Mを移動させる場合であっても、ロボット40それぞれに関しては、移動元から移動先が定まっているため、1つのロボット40が1つの物体Mを把持して移動元から移動先まで物体Mを移動させる上述の処理を複数のロボット40に当てはめればよい。
 次に、本開示の実施形態による最小構成の制御装置2の処理を説明する。図7は、本開示の実施形態による最小構成の制御装置2の処理フローの一例を示す図である。ここでは、図7を参照して最小構成の制御装置2の処理について説明する。制御装置2は、図7に示すように、第1生成部101(第1生成手段の一例)、判定部102(判定手段の一例)、および制御部105(生成手段の一例)を備える。第1生成部101は、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する。第1生成部101は、例えば、図1に例示されている生成部20が有する機能を用いて実現することができる。判定部102は、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定する。判定部102は、例えば、図1に例示されている判定部70cが有する機能を用いて実現することができる。制御部105は、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する。制御部105は、例えば、図1に例示されている制御部30が有する機能を用いて実現することができる。
 次に、最小構成の制御装置2の処理を説明する。図8は、最小構成の制御装置2の処理フローの一例を示す図である。ここでは、図8を参照して最小構成の制御装置2の処理について説明する。
 第1生成部101は、物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する(ステップS101)。判定部102は、前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定する(ステップS102)。制御部105は、前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する(ステップS103)。
 以上、本開示の実施形態による最小構成の制御装置2について説明した。この制御装置2により、動作中のロボットの動作エラーを確実に検知することができる。
 なお、本開示の別の実施形態では、受信部70aは、制御部30が出力する制御信号およびセンサ40aが検出したロボット40の状態の少なくとも一方を受信し、判定部70cは、受信部70aおよび受信部70bが受信した情報に基づいて、ロボット40および物体Mの現在の実際の状態を特定するものであってもよい。
 なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
 本開示の実施形態について説明したが、上述のロボットシステム1、制御装置2、入力部10、生成部20、制御部30、ロボット40、撮影装置50、管理部60、検知部70、再計画部80、その他の制御装置は内部に、コンピュータ装置を有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
 図9は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ5は、図9に示すように、CPU6(ベクトルプロセッサを含む)、メインメモリ7、ストレージ8、インターフェース9を備える。例えば、上述のロボットシステム1、制御装置2、入力部10、生成部20、制御部30、ロボット40、撮影装置50、管理部60、検知部70、再計画部80、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
 ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。
 また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータ装置にすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
 本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。
 本開示の各態様によれば、動作中のロボットの動作エラーを確実に検知することができる。
1・・・ロボットシステム
2・・・制御装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・入力部
20・・・生成部
30・・・制御部
40・・・ロボット
50・・・撮影装置
60・・・管理部
70・・・検知部
70a、70b・・・受信部
70c・・・判定部
80・・・再計画部
80a・・・特定部
80b・・・更新部

Claims (8)

  1.  物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成する第1生成手段と、
     前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定する判定手段と、
     前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する制御手段と
     を備える制御装置。
  2.  前記エラーが発生したと判定される場合に、前記エラーが発生した前記物体の状態から、前記移動元から前記移動先までの複数の状態のうちのいずれか1つの状態までの間の新たな状態を生成する第2生成手段と、
     前記第2生成手段が生成した新たな状態に基づいて、前記エラーが発生した前記物体の状態から前記移動先までの新たな状態を生成する第3生成手段と、
     を備え、
     前記制御手段は、
     前記第3生成手段が生成した新たな状態に基づき制御信号を生成し、生成した制御信号に基づいて、前記物体を前記移動先まで移動させるロボットを制御する、
     請求項1に記載の制御装置。
  3.  前記判定手段は、
     前記制御信号および前記ロボットの状態の少なくとも一方に基づいて、前記移動元から前記移動先への移動に関する現在の実際の状態を特定する、
     請求項2に記載の制御装置。
  4.  前記第1生成手段が生成した前記状態シーケンスに基づいて、前記物体の移動に関する現在の状態を推定する推定手段、
     を備え、
     前記判定手段は、
     前記移動元から前記移動先への移動に関する現在の実際の状態と、前記推定手段が推定した前記物体の移動に関する現在の状態との比較結果に基づいて、前記エラーの発生を判定する、
     請求項1に記載の制御装置。
  5.  前記判定手段は、
     前記物体を撮影した画像に基づいて、前記移動元から前記移動先への移動に関する現在の実際の状態を特定する、
     請求項3または請求項4に記載の制御装置。
  6.  請求項1から請求項5の何れか一項に記載の制御装置と、
     前記制御装置による制御に応じて動作するロボットと、
     を備えるロボットシステム。
  7.  物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成し、
     前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定し、
     前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更する
     制御方法。
  8.  コンピュータに、
     物体の移動元の状態から移動先の状態までの複数の状態を含む状態シーケンスを生成することと、
     前記状態シーケンスに従い動作しているロボットの動作中における前記物体の状態と、生成した前記状態との比較結果に基づいて、前記ロボットの動作におけるエラーの発生を判定することと、
     前記エラーが発生したと判定される場合に、前記エラーをリカバリーするリカバリー動作をするよう前記状態シーケンスを変更することと
     を実行させるプログラムが格納されている記録媒体。
PCT/JP2021/048871 2021-12-28 2021-12-28 制御装置、ロボットシステム、制御方法、および記録媒体 WO2023127125A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048871 WO2023127125A1 (ja) 2021-12-28 2021-12-28 制御装置、ロボットシステム、制御方法、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048871 WO2023127125A1 (ja) 2021-12-28 2021-12-28 制御装置、ロボットシステム、制御方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2023127125A1 true WO2023127125A1 (ja) 2023-07-06

Family

ID=86998416

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048871 WO2023127125A1 (ja) 2021-12-28 2021-12-28 制御装置、ロボットシステム、制御方法、および記録媒体

Country Status (1)

Country Link
WO (1) WO2023127125A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011224695A (ja) * 2010-04-19 2011-11-10 Toyota Motor Corp ロボットの把持制御システム及びロボット
US20210205992A1 (en) * 2020-01-05 2021-07-08 Mujin, Inc. Robotic system with dynamic motion adjustment mechanism and methods of operating same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011224695A (ja) * 2010-04-19 2011-11-10 Toyota Motor Corp ロボットの把持制御システム及びロボット
US20210205992A1 (en) * 2020-01-05 2021-07-08 Mujin, Inc. Robotic system with dynamic motion adjustment mechanism and methods of operating same

Similar Documents

Publication Publication Date Title
CN108573270B (zh) 使多传感器目标信息融合与多传感器感测同步的方法及装置、计算机设备和记录介质
CN110546459A (zh) 具有数据融合的机器人跟踪导航
JP2016159407A (ja) ロボット制御装置およびロボット制御方法
JP4746349B2 (ja) ロボット行動選択装置及びロボット行動選択方法
US9434074B2 (en) Autonomous running control method and device of autonomous running apparatus, and program for autonomous running control device
JP5231935B2 (ja) ロボット制御装置
US20210042627A1 (en) Method for recognizing an adversarial disturbance in input data of a neural network
Fichtner et al. Intelligent execution monitoring in dynamic environments
EP3670109B1 (en) Method and apparatus for controlling behavior of service robot
KR102592830B1 (ko) 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량
WO2023127125A1 (ja) 制御装置、ロボットシステム、制御方法、および記録媒体
JP2009109293A (ja) 目標追尾装置及び目標観測システム及び目標追尾方法及びプログラム
KR20110101599A (ko) 조향핸들 미파지 상태 검출 방법 및 그 장치
WO2024017209A1 (zh) 一种调度控制方法、装置及电子设备
JP7348103B2 (ja) 運転状態分類システム、および、運転状態分類方法
CN111958589A (zh) 一种多机械臂轨迹防碰撞方法及系统
US20200242359A1 (en) Method and apparatus for processing image, and service robot
JP2008083995A (ja) 地図情報処理装置及び移動ロボット装置
JP7479205B2 (ja) ロボットシステム、制御装置、及び制御方法
CN112612289B (zh) 轨迹跟踪控制方法、移动机器人、控制设备及存储介质
CN113971786A (zh) 车道保持辅助系统、车道保持方法及计算机可读存储介质
WO2023233557A1 (ja) ロボットシステム、制御方法、および記録媒体
WO2021095190A1 (ja) 学習装置、学習方法および学習プログラム
KR20240073064A (ko) 궤적을 예측하는 방법 및 차량을 자동 조작하는 방법
Alsaleh et al. Fast and Real-Time Sensor-Fault Detection using Shannon’s Entropy

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21970005

Country of ref document: EP

Kind code of ref document: A1