JP2017144490A - Control device, control system, control method and program - Google Patents

Control device, control system, control method and program Download PDF

Info

Publication number
JP2017144490A
JP2017144490A JP2016025961A JP2016025961A JP2017144490A JP 2017144490 A JP2017144490 A JP 2017144490A JP 2016025961 A JP2016025961 A JP 2016025961A JP 2016025961 A JP2016025961 A JP 2016025961A JP 2017144490 A JP2017144490 A JP 2017144490A
Authority
JP
Japan
Prior art keywords
control
control device
worker
robot
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016025961A
Other languages
Japanese (ja)
Inventor
小也香 内藤
Sayaka NAITO
小也香 内藤
嘉一 森
Yoshikazu Mori
嘉一 森
一希 笠井
Kazuki KASAI
一希 笠井
修 西崎
Osamu Nishizaki
修 西崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2016025961A priority Critical patent/JP2017144490A/en
Priority to PCT/JP2017/000402 priority patent/WO2017141569A1/en
Publication of JP2017144490A publication Critical patent/JP2017144490A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device capable of improving versatility when a controlled object is allowed to work cooperatively with an operator.SOLUTION: A control device 1 includes an operator information acquisition part 21 for acquiring positional information and attitude information of an operator, an operation arithmetic part 24 for estimating operation of each portion of the operator based on the positional information, the attitude information, and a human body model of the operator, and a robot control part 27 for controlling a robot 50 based on the estimation result by the operation arithmetic part 24 and the state of the robot 50.SELECTED DRAWING: Figure 2

Description

本発明は、制御装置、制御システム、制御方法およびプログラムに関する。   The present invention relates to a control device, a control system, a control method, and a program.

従来、工場の生産ラインなどに設置される産業用ロボットが知られている。また、近年では、生産ラインにおいて作業者を産業用ロボットが補助する作業補助システムが提案されている(たとえば、特許文献1参照)。   Conventionally, an industrial robot installed in a production line of a factory is known. In recent years, a work assistance system in which an industrial robot assists an operator in a production line has been proposed (for example, see Patent Document 1).

特許文献1の作業補助システムは、作業者が部品取付作業を行う際に、産業用ロボットに補助させるものであり、部品の一端側を作業者が保持するとともに、部品の他端側を産業用ロボットに保持させ、その部品を取付位置まで移動させるようになっている。具体的には、作業補助システムは、作業者の手に装着されるモーションキャプチャと、そのモーションキャプチャの検出結果に基づいて産業用ロボットを制御するデータ処理装置とを備えている。   The work assistance system of Patent Document 1 is for assisting an industrial robot when a worker performs a component mounting operation. The worker holds one end side of the component and the other end side of the component for industrial use. The robot is held and the parts are moved to the mounting position. Specifically, the work assistance system includes a motion capture worn on a worker's hand and a data processing device that controls the industrial robot based on the detection result of the motion capture.

モーションキャプチャは、作業者の手による作業動作を経時的に測定し、その測定結果である動作情報を3次元座標データとしてデータ処理装置に送信するように構成されている。データ処理装置は、モーションキャプチャからの3次元座標データに基づいて、産業用ロボットを作業者の手に追従させるように構成されている。これにより、部品の搬送を産業用ロボットに補助させることができるので、部品取付作業を効率的に行うことが可能である。   The motion capture is configured to measure a work operation by a worker over time and transmit operation information as a measurement result to the data processing apparatus as three-dimensional coordinate data. The data processing apparatus is configured to cause the industrial robot to follow the operator's hand based on the three-dimensional coordinate data from the motion capture. Thereby, since conveyance of components can be made to assist an industrial robot, it is possible to perform component attachment work efficiently.

特開2011−156641号公報Japanese Unexamined Patent Publication No. 2011-156641

しかしながら、上記した従来の作業補助システムでは、産業用ロボットが補助できる作業が限られているため、産業用ロボットを作業者に協調作業させる際の汎用性に乏しいという問題点がある。   However, the above-described conventional work assistance system has a problem that the work that can be assisted by the industrial robot is limited, so that the versatility when the industrial robot is caused to cooperate with the worker is poor.

本発明は、上記の課題を解決するためになされたものであり、本発明の目的は、制御対象を作業者に協調作業させる際の汎用性の向上を図ることが可能な制御装置、制御システム、制御方法およびプログラムを提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a control device and a control system capable of improving versatility when causing a worker to collaborate on a control target. It is to provide a control method and a program.

本発明による制御装置は、制御対象を制御するものであり、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する取得部と、位置情報および姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定する推定部と、推定部の推定結果と制御対象の状態とに基づいて、制御対象を制御する制御部とを備える。   A control device according to the present invention controls a control target, and includes an acquisition unit that acquires at least one of position information and posture information of an operator, at least one of position information and posture information, and an operator's position information. An estimation unit that estimates the motion of each part of the worker based on the human body model, and a control unit that controls the control target based on the estimation result of the estimation unit and the state of the control target.

このように構成することによって、作業者の各部位の動作を推定し、その推定される動作に応じて制御対象を制御することにより、制御対象を作業者に協調作業させる際の汎用性の向上を図ることができる。すなわち、協調作業の作業内容が異なる場合であっても、作業者の各部位の動作を推定することにより、その推定される動作に応じて制御対象を適切に制御することができる。   By configuring in this way, the motion of each part of the worker is estimated, and the control target is controlled according to the estimated motion, thereby improving the versatility when the control target is collaborated with the worker. Can be achieved. That is, even when the work contents of the cooperative work are different, the control target can be appropriately controlled according to the estimated motion by estimating the motion of each part of the worker.

上記制御装置において、推定部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、作業者の各部位の動作情報を演算するとともに、動作情報から作業者の将来の動作を推定するように構成され、制御部は、作業者の将来の動作と制御対象の状態とに基づいて、制御対象を制御するように構成されていてもよい。   In the above control device, the estimation unit calculates the motion information of each part of the worker based on at least one of the position information and the posture information and the human body model, and calculates the future motion of the worker from the motion information. The control unit may be configured to estimate, and the control unit may be configured to control the control target based on a future operation of the worker and the state of the control target.

上記制御装置において、推定部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、作業者の各部位の動作情報を演算するように構成され、制御部は、動作情報と制御対象の状態とに基づいて、制御対象を制御するように構成されていてもよい。   In the control device, the estimation unit is configured to calculate motion information of each part of the worker based on at least one of position information and posture information and a human body model, and the control unit includes motion information and The control target may be configured to be controlled based on the state of the control target.

上記制御装置において、取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。   In the above control device, the acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data for position information and posture information. It may be configured to calculate at least one of them.

この場合において、取得部が取得するデータの信頼性を判定する信頼性判定部を備え、取得部は、信頼性判定部によりデータの信頼性がないと判定された場合に、距離データを用いて、位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。なお、距離データは、たとえば、制御対象と作業者との間の距離である。   In this case, the acquisition unit includes a reliability determination unit that determines the reliability of the data acquired, and the acquisition unit uses the distance data when the reliability determination unit determines that the data is not reliable. Further, at least one of position information and posture information may be calculated. The distance data is, for example, the distance between the control target and the worker.

上記信頼性判定部を備える制御装置において、信頼性判定部は、データが途切れた場合、および、データが予め設定された範囲外になった場合に、データの信頼性がないと判定するように構成されていてもよい。   In the control device including the reliability determination unit, the reliability determination unit determines that the data is not reliable when the data is interrupted and when the data is out of a preset range. It may be configured.

上記制御装置において、推定部の推定結果と制御対象の状態とに基づいて、制御対象を作業者に対して安全な状態にさせる動作が必要であるか否かを判定する判定部を備えていてもよい。   The control device includes a determination unit that determines whether or not an operation for bringing the control target into a safe state for the worker is necessary based on the estimation result of the estimation unit and the state of the control target. Also good.

上記判定部を備える制御装置において、判定部は、推定部の推定結果と制御対象の状態とに基づいて、制御対象を回避動作させる必要があるか否かを判定するように構成され、制御部は、判定部により回避動作が必要であると判定された場合に、制御対象を回避動作させるように構成されていてもよい。   In the control device including the determination unit, the determination unit is configured to determine whether the control target needs to be avoided based on the estimation result of the estimation unit and the state of the control target. May be configured to cause the control target to perform the avoidance operation when the determination unit determines that the avoidance operation is necessary.

この場合において、判定部は、制御対象が回避動作した後に、制御対象を復帰させることが可能であるか否かを判定するように構成され、制御部は、判定部により復帰が可能であると判定された場合に、制御対象を復帰させるように構成されていてもよい。   In this case, the determination unit is configured to determine whether or not the control target can be returned after the control target performs an avoidance operation, and the control unit is configured to be recoverable by the determination unit. When it is determined, the control target may be returned.

上記判定部を備える制御装置において、判定部は、推定部の推定結果と制御対象の状態とに基づいて、制御対象を減速動作または停止動作させる必要があるか否かを判定するように構成され、制御部は、判定部により減速動作または停止動作が必要であると判定された場合に、制御対象を減速動作または停止動作させるように構成されていてもよい。   In the control device including the determination unit, the determination unit is configured to determine whether the control target needs to be decelerated or stopped based on the estimation result of the estimation unit and the state of the control target. The control unit may be configured to cause the control target to perform a deceleration operation or a stop operation when the determination unit determines that a deceleration operation or a stop operation is necessary.

上記制御装置において、人体モデルが記録された人体モデル記録部を備えていてもよい。   The control apparatus may include a human body model recording unit in which a human body model is recorded.

上記制御装置において、位置情報および姿勢情報の少なくともいずれか一方から人体モデルを演算する人体モデル演算部を備えていてもよい。   The control apparatus may include a human body model calculation unit that calculates a human body model from at least one of position information and posture information.

本発明による制御システムは、上記制御装置と、作業者の各部位に装着され、その各部位の動作を検出する検出装置とを備える。   The control system according to the present invention includes the above-described control device and a detection device that is attached to each part of the worker and detects the operation of each part.

上記制御システムにおいて、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、制御装置の取得部は、検出装置の検出結果を取得し、その取得した検出結果を用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。   In the control system, the detection device is configured to detect at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and the acquisition unit of the control device includes the detection device. The detection result may be acquired, and at least one of the position information and the posture information may be calculated using the acquired detection result.

上記制御システムにおいて、距離を計測するための機器を備え、制御装置は、検出装置の検出結果の信頼性を判定する信頼性判定部を含み、制御装置の取得部は、信頼性判定部により検出装置の検出結果の信頼性がないと判定された場合に、機器の検出結果を用いて、位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。なお、距離は、たとえば、制御対象と作業者との間の距離である。   The control system includes a device for measuring a distance, the control device includes a reliability determination unit that determines the reliability of the detection result of the detection device, and the acquisition unit of the control device is detected by the reliability determination unit. When it is determined that the detection result of the device is not reliable, at least one of the position information and the posture information may be calculated using the detection result of the device. The distance is, for example, the distance between the control target and the worker.

この場合において、機器は、画像センサ、超音波センサおよびレーザスキャナのうちの少なくとも1つを含んでいてもよい。   In this case, the device may include at least one of an image sensor, an ultrasonic sensor, and a laser scanner.

本発明による制御方法は、制御対象を制御するものであり、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得するステップと、位置情報および姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定するステップと、その推定結果と制御対象の状態とに基づいて、制御対象を制御するステップとを備える。   The control method according to the present invention controls an object to be controlled, the step of obtaining at least one of position information and posture information of the worker, at least one of position information and posture information, and the human body of the worker A step of estimating the movement of each part of the worker based on the model, and a step of controlling the control target based on the estimation result and the state of the control target.

本発明によるプログラムは、上記した制御方法をコンピュータに実行させるためのものである。   The program according to the present invention is for causing a computer to execute the control method described above.

本発明の制御装置、制御システム、制御方法およびプログラムによれば、制御対象を作業者に協調作業させる際の汎用性の向上を図ることができる。   According to the control device, the control system, the control method, and the program of the present invention, it is possible to improve the versatility when the control target is caused to collaborate by an operator.

本発明の第1実施形態による制御システムの構成を示したハードウェアブロック図である。It is a hardware block diagram showing the composition of the control system by a 1st embodiment of the present invention. 図1の制御システムにおける制御装置の機能ブロック図である。It is a functional block diagram of the control apparatus in the control system of FIG. 第1実施形態の制御システムの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the control system of 1st Embodiment. 本発明の第2実施形態による制御システムを示した機能ブロック図である。It is the functional block diagram which showed the control system by 2nd Embodiment of this invention. 第2実施形態の制御システムにおける作業者情報の取得動作を説明するためのフローチャートである。It is a flowchart for demonstrating acquisition operation | movement of the worker information in the control system of 2nd Embodiment.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1実施形態)
まず、図1および図2を参照して、本発明の第1実施形態による制御システム100の構成について説明する。
(First embodiment)
First, with reference to FIG. 1 and FIG. 2, the structure of the control system 100 by 1st Embodiment of this invention is demonstrated.

制御システム100は、図1に示すように、ロボット50を制御する制御装置1と、作業者の各部位に装着され、その各部位の動作を検出する検出装置2とを備えている。ロボット50は、たとえば工場の生産ラインに設置されるロボットアームであり、本発明の「制御対象」の一例である。この制御システム100では、作業者の各部位の動作に応じてロボット50を制御することにより、作業者とロボット50とが協調して作業を行うように構成されている。   As shown in FIG. 1, the control system 100 includes a control device 1 that controls the robot 50 and a detection device 2 that is attached to each part of the worker and detects the operation of each part. The robot 50 is, for example, a robot arm installed in a production line of a factory, and is an example of the “control target” in the present invention. The control system 100 is configured such that the worker and the robot 50 work in cooperation by controlling the robot 50 according to the operation of each part of the worker.

制御装置1は、いわゆるPLC(Programmable Logic Controller:プログラマブルロジックコントローラ)であり、作業者の各部位についての将来の動作を推定し、その推定結果に基づいてロボット50を制御するように構成されている。具体的には、制御装置1は、検出装置2の検出結果と作業者の人体モデルとから作業者の各部位の動作情報を演算し、その動作情報から各部位の動作を推定してロボット50を協調作業させるようになっている。なお、作業者の人体モデルとは、たとえば、作業者の身体の各部位についての寸法をデータベース化したものである。   The control device 1 is a so-called PLC (Programmable Logic Controller), and is configured to estimate the future motion of each part of the worker and control the robot 50 based on the estimation result. . Specifically, the control device 1 calculates the motion information of each part of the worker from the detection result of the detection device 2 and the human body model of the worker, estimates the motion of each part from the motion information, and performs the robot 50. Are supposed to work together. The worker's human body model is, for example, a database of dimensions for each part of the worker's body.

検出装置2は、作業者の各部位に取り付けられており、各検出装置2は、取り付けられた部位についての動作を検出するために設けられている。なお、図1では2つの検出装置2を示したが、作業者の全身の動作を検出するためにより多数の検出装置2が設けられていてもよい。作業者に対する検出装置2の取付位置の一例としては、頭部、両肩部、両腕部(上腕、前腕、手)、背中部、腰部、および、両脚部(腿、脛、足)である。   The detection device 2 is attached to each part of the worker, and each detection device 2 is provided to detect the operation of the attached part. Although two detection devices 2 are shown in FIG. 1, a larger number of detection devices 2 may be provided to detect the movement of the worker's whole body. Examples of attachment positions of the detection device 2 to the worker are the head, both shoulders, both arms (upper arm, forearm, hand), back, waist, and both legs (thigh, shin, foot). .

この検出装置2は、加速度データを検出する加速度センサ2aと、角速度データを検出する角速度センサ2bと、加速度センサ2aおよび角速度センサ2bの検出結果を制御装置1に出力する出力部2cとを含んでいる。なお、検出装置2は、たとえば無線で制御装置1に接続されているが、有線で制御装置1に接続されていてもよい。   The detection device 2 includes an acceleration sensor 2a that detects acceleration data, an angular velocity sensor 2b that detects angular velocity data, and an output unit 2c that outputs detection results of the acceleration sensor 2a and the angular velocity sensor 2b to the control device 1. Yes. The detection device 2 is connected to the control device 1 wirelessly, for example, but may be connected to the control device 1 by wire.

制御装置1は、CPU11と、ROM12と、RAM13と、入出力部14とを含んでいる。CPU11は、ROM12に記憶されたプログラム12aなどに基づいて演算処理を実行するように構成されている。ROM12は、不揮発性のメモリであり、プログラム12aやそのプログラム12aの実行の際に用いられる設定値などを記憶している。なお、プログラム12aにはロボット50の制御プログラムなどが含まれている。この制御プログラムの一例としては、所定の作業をロボット50に実行させるものである。RAM13は、揮発性のメモリであり、CPU11による演算結果や検出装置2の検出結果などを一時的に記憶する機能を有する。入出力部14には、複数の検出装置2、ロボット50、および、制御装置1の設定変更などを行うためのツール装置60などが接続されている。   The control device 1 includes a CPU 11, a ROM 12, a RAM 13, and an input / output unit 14. The CPU 11 is configured to execute arithmetic processing based on a program 12a or the like stored in the ROM 12. The ROM 12 is a non-volatile memory, and stores a program 12a and setting values used when the program 12a is executed. The program 12a includes a control program for the robot 50 and the like. As an example of this control program, the robot 50 is caused to execute a predetermined work. The RAM 13 is a volatile memory, and has a function of temporarily storing a calculation result by the CPU 11 and a detection result of the detection device 2. A plurality of detection devices 2, a robot 50, a tool device 60 for changing settings of the control device 1, and the like are connected to the input / output unit 14.

また、制御装置1は、図2に示すように、作業者情報取得部21と、人体モデル演算部22と、人体モデル記録部23と、動作演算部24と、ロボット情報取得部25と、協調演算部26と、ロボット制御部27とを含んでいる。なお、作業者情報取得部21、人体モデル演算部22、動作演算部24、ロボット情報取得部25、協調演算部26およびロボット制御部27は、CPU11がプログラム12aを実行することにより実現される。また、人体モデル記録部23は、ROM12の記憶領域の一部によって構成されている。   In addition, as shown in FIG. 2, the control device 1 includes a worker information acquisition unit 21, a human body model calculation unit 22, a human body model recording unit 23, a motion calculation unit 24, and a robot information acquisition unit 25. A calculation unit 26 and a robot control unit 27 are included. The worker information acquisition unit 21, the human body model calculation unit 22, the motion calculation unit 24, the robot information acquisition unit 25, the cooperative calculation unit 26, and the robot control unit 27 are realized by the CPU 11 executing the program 12a. The human body model recording unit 23 is configured by a part of the storage area of the ROM 12.

作業者情報取得部21は、各検出装置2の検出結果が入力されるように構成されている。すなわち、作業者情報取得部21は、作業者の各部位の加速度データおよび角速度データを経時的に取得している。そして、作業者情報取得部21は、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出するように構成されている。つまり、作業者情報取得部21は、作業者の部位毎についての位置情報および姿勢情報を経時的に取得している。なお、位置情報は、たとえば3次元座標の座標値であり、姿勢情報は、たとえば各座標軸に対する回転角である。また、作業者情報取得部21は、本発明の「取得部」の一例である。   The worker information acquisition unit 21 is configured such that detection results of the respective detection devices 2 are input. That is, the worker information acquisition unit 21 acquires acceleration data and angular velocity data of each part of the worker over time. And the worker information acquisition part 21 is comprised so that position information and attitude | position information may be calculated using the acceleration data and angular velocity data. That is, the worker information acquisition unit 21 acquires position information and posture information for each part of the worker over time. The position information is, for example, coordinate values of three-dimensional coordinates, and the posture information is, for example, a rotation angle with respect to each coordinate axis. The worker information acquisition unit 21 is an example of the “acquisition unit” in the present invention.

人体モデル演算部22は、作業者情報取得部21により取得した位置情報および姿勢情報に基づいて、作業者の人体モデルを演算するために設けられている。この人体モデル演算部22は、作業者の各部位の位置情報および姿勢情報の経時変化から、各部位の寸法を算出することにより人体モデルを作成するようになっている。なお、人体モデル演算部22による人体モデルの演算時に、作業者に対して所定の動作を行うように促すようにしてもよい。   The human body model calculation unit 22 is provided to calculate the human body model of the worker based on the position information and posture information acquired by the worker information acquisition unit 21. The human body model calculation unit 22 creates a human body model by calculating the size of each part from the temporal change of the position information and posture information of each part of the worker. Note that, when the human body model calculation unit 22 calculates the human body model, the operator may be prompted to perform a predetermined operation.

人体モデル記録部23には、作業者の人体モデルが記録されている。この人体モデル記録部23には、人体モデル演算部22の演算結果である人体モデルが記録されていてもよいし、ツール装置60を用いて作業者によって入力された人体モデルが記録されていてもよい。すなわち、第1実施形態では、人体モデル記録部23に対する人体モデルの記録方法が2つあり、いずれの方法で記録されていてもよい。   The human body model recording unit 23 records the human body model of the worker. In the human body model recording unit 23, a human body model that is a calculation result of the human body model calculation unit 22 may be recorded, or a human body model input by an operator using the tool device 60 may be recorded. Good. That is, in the first embodiment, there are two human body model recording methods for the human body model recording unit 23, and the recording may be performed by any method.

動作演算部24は、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報を入力することにより作業者の各部位の動作情報を演算し、その動作情報から作業者の各部位についての将来の動作を推定するように構成されている。すなわち、作業者の各部位の位置および姿勢の経時変化から各部位の動作を演算し、その演算結果に基づいて将来の動作を推定するようになっている。なお、動作演算部24は、本発明の「推定部」の一例である。   The motion calculation unit 24 calculates the motion information of each part of the worker by inputting the position information and posture information of each part to the human body model recorded in the human body model recording unit 23, and the work information is obtained from the motion information. It is comprised so that the future operation | movement about each part of a person may be estimated. That is, the operation of each part is calculated from the temporal change of the position and posture of each part of the worker, and the future action is estimated based on the calculation result. The motion calculation unit 24 is an example of the “estimation unit” in the present invention.

ロボット情報取得部25には、ロボット50から各種情報50aが入力されている。各種情報50aは、たとえば、ロボット50に関する位置情報、速度情報および経路情報などであり、ロボット50に設けられたセンサ(図示省略)によって検出される。このため、ロボット情報取得部25は、ロボット50の動作状態を判断することが可能であり、制御プログラムに基づいて動作している場合にはロボット50の将来の動作を推定することが可能である。   Various information 50 a is input from the robot 50 to the robot information acquisition unit 25. The various information 50a is, for example, position information, speed information, route information, and the like regarding the robot 50, and is detected by a sensor (not shown) provided in the robot 50. For this reason, the robot information acquisition unit 25 can determine the operation state of the robot 50, and can estimate the future operation of the robot 50 when operating based on the control program. .

協調演算部26は、動作演算部24による作業者の各部位についての動作の推定結果に基づいて、ロボット50を制御するために設けられている。すなわち、協調演算部26は、作業者の予測される動作に応じてロボット50を制御するために設けられている。たとえば、協調演算部26は、作業者の動作の推定結果とロボット50の動作状態とに基づいて、ロボット50を作業者に対して安全な状態にさせる動作が必要であるか否かを判定するように構成されている。ここで、ロボット50を作業者に対して安全な状態にさせる動作の一例は、ロボット50の回避動作である。そして、協調演算部26は、回避動作が必要であると判定した場合に、所定の回避動作を演算するようになっている。また、協調演算部26は、ロボット50が回避動作している場合に、ロボット50を復帰させることが可能であるか否かを判定するように構成されている。なお、協調演算部26は、本発明の「判定部」の一例である。   The cooperative calculation unit 26 is provided to control the robot 50 based on the motion estimation result of each part of the worker by the motion calculation unit 24. That is, the cooperative calculation unit 26 is provided to control the robot 50 in accordance with the motion predicted by the worker. For example, the cooperative calculation unit 26 determines whether or not an operation for bringing the robot 50 into a safe state for the worker is necessary based on the estimation result of the worker's motion and the motion state of the robot 50. It is configured as follows. Here, an example of an operation for bringing the robot 50 into a safe state for the worker is an avoiding operation of the robot 50. And the cooperation calculating part 26 calculates a predetermined avoidance operation | movement, when it determines with an avoidance operation | movement being required. Further, the cooperative calculation unit 26 is configured to determine whether or not the robot 50 can be returned when the robot 50 performs an avoidance operation. The cooperative calculation unit 26 is an example of the “determination unit” in the present invention.

ロボット制御部27は、ロボット50に対して動作指示を出力するために設けられている。たとえば、ロボット制御部27は、通常時である場合に、制御プログラムに基づいて所定の作業を実行するようにロボット50を制御するように構成されている。そして、ロボット制御部27は、協調演算部26により回避動作が必要であると判定された場合に、ロボット50を回避動作させるように構成されている。なお、制御プログラムに基づく所定の作業の実行中に回避動作されると、その所定の作業が中断される。また、ロボット制御部27は、協調演算部26により復帰が可能であると判定された場合に、ロボット50を復帰させるように構成されている。なお、ロボット50を復帰させるとは、中断された所定の作業を再開することである。   The robot control unit 27 is provided for outputting an operation instruction to the robot 50. For example, the robot control unit 27 is configured to control the robot 50 so as to execute a predetermined operation based on the control program in the normal time. The robot control unit 27 is configured to cause the robot 50 to perform an avoidance operation when the cooperative calculation unit 26 determines that an avoidance operation is necessary. If the avoidance operation is performed during execution of the predetermined work based on the control program, the predetermined work is interrupted. Further, the robot control unit 27 is configured to return the robot 50 when it is determined by the cooperative calculation unit 26 that the return can be performed. Returning the robot 50 means restarting the interrupted predetermined work.

−制御システムの動作−
次に、図3を参照して、第1実施形態の制御システム100の動作について説明する。この動作には、制御装置1によるロボット50の制御方法が含まれている。
-Control system operation-
Next, the operation of the control system 100 of the first embodiment will be described with reference to FIG. This operation includes a method for controlling the robot 50 by the control device 1.

なお、以下の各ステップはCPU11(図1参照)がプログラム12a(図1参照)を実行することにより行われる。すなわち、プログラム12aは、以下の各ステップを制御装置1(図1参照)に実行させるためのものであり、制御装置1が読み取り可能な記録媒体であるROM12(図1参照)に格納されている。   The following steps are performed by the CPU 11 (see FIG. 1) executing the program 12a (see FIG. 1). That is, the program 12a is for causing the control device 1 (see FIG. 1) to execute the following steps, and is stored in the ROM 12 (see FIG. 1) that is a recording medium readable by the control device 1. .

また、人体モデル記録部23(図2参照)には作業者の人体モデルが予め記録されている。この人体モデルは、人体モデル演算部22(図2参照)により記録されていてもよいし、ツール装置60(図2参照)を用いて記録されていてもよい。また、作業者の各部位には検出装置2が装着されている。   The human body model recording unit 23 (see FIG. 2) records the human body model of the worker in advance. The human body model may be recorded by the human body model calculation unit 22 (see FIG. 2) or may be recorded using the tool device 60 (see FIG. 2). A detection device 2 is attached to each part of the worker.

まず、図3のステップS1において、ロボット50(図2参照)の動作制御が開始されたか否かが判断される。そして、ロボット50の動作制御が開始されたと判断された場合には、ステップS2に移る。その一方、ロボット50の動作制御が開始されていないと判断された場合には、ステップS1が繰り返し行われる。すなわち、ロボット50の動作制御が開始されるまで制御装置1が待機する。   First, in step S1 of FIG. 3, it is determined whether or not the operation control of the robot 50 (see FIG. 2) has been started. If it is determined that the operation control of the robot 50 has been started, the process proceeds to step S2. On the other hand, if it is determined that the operation control of the robot 50 has not been started, step S1 is repeated. That is, the control device 1 stands by until the operation control of the robot 50 is started.

次に、ステップS2において、作業者情報取得部21(図2参照)により、作業者の部位毎についての位置情報および姿勢情報が取得される。具体的には、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。   Next, in step S2, the worker information acquisition unit 21 (see FIG. 2) acquires position information and posture information for each part of the worker. Specifically, based on acceleration data and angular velocity data input from each detection device 2, position information and posture information of each part are calculated.

次に、ステップS3において、動作演算部24(図2参照)により、作業者の各部位の動作が推定される。具体的には、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報が入力されることにより、作業者の各部位の動作情報が演算され、その動作情報に基づいて作業者の各部位についての将来の動作が推定される。   Next, in step S3, the motion calculation unit 24 (see FIG. 2) estimates the motion of each part of the worker. Specifically, by inputting the position information and posture information of each part to the human body model recorded in the human body model recording unit 23, the operation information of each part of the operator is calculated, and the movement information is included in the movement information. Based on this, the future motion of each part of the worker is estimated.

次に、ステップS4において、ロボット情報取得部25(図2参照)により、ロボット50の各種情報50a(図2参照)が取得され、ロボット50の動作状態が判断される。なお、ロボット50が動作している場合には、ロボット50の動作が推定される。   Next, in step S4, various information 50a (see FIG. 2) of the robot 50 is acquired by the robot information acquisition unit 25 (see FIG. 2), and the operation state of the robot 50 is determined. When the robot 50 is operating, the operation of the robot 50 is estimated.

次に、ステップS5において、協調演算部26(図2参照)により、ロボット50を回避動作させる必要があるか否かが判定される。この協調演算部26は、ステップS3で得られた作業者の動作の推定結果と、ステップS4で得られたロボット50の動作状態とに基づいて、回避動作が必要であるか否かを判定する。ここで、回避動作が必要である場合とは、たとえば、作業者およびロボット50の動作予測から、作業者とロボット50とが衝突すると予測される場合である。そして、回避動作が必要ではないと判定された場合には、ステップS6に移る。その一方、回避動作が必要であると判定された場合には、ステップS7に移る。   Next, in step S5, it is determined by the cooperative calculation unit 26 (see FIG. 2) whether or not the robot 50 needs to be operated to avoid. The cooperative calculation unit 26 determines whether an avoidance operation is necessary based on the estimation result of the worker's motion obtained in step S3 and the motion state of the robot 50 obtained in step S4. . Here, the case where the avoidance operation is necessary is, for example, a case where it is predicted that the worker and the robot 50 will collide based on the motion prediction of the worker and the robot 50. If it is determined that the avoidance operation is not necessary, the process proceeds to step S6. On the other hand, if it is determined that the avoidance operation is necessary, the process proceeds to step S7.

そして、ステップS6では、ロボット制御部27(図2参照)により、ロボット50を通常動作させる。通常動作とは、制御プログラムに基づいて所定の作業を実行するようにロボット50を動作させるものである。このステップS6では、たとえば所定の作業の一部を行い、ステップS14に移る。すなわち、このステップS6が繰り返し行われることにより、所定の作業の一部が順次行われることによって、所定の作業が一連の作業として行われるとともに、所定の作業が繰り返し行われることとなる。なお、後述するように、ロボット50を回避動作させ、制御プログラムに基づく作業が中断された後に、ロボット50を復帰させた場合におけるこのステップS6では、制御プログラムに基づく作業が中断されたところから再開される。   In step S6, the robot controller 27 (see FIG. 2) causes the robot 50 to normally operate. The normal operation is to operate the robot 50 so as to execute a predetermined work based on the control program. In step S6, for example, a part of predetermined work is performed, and the process proceeds to step S14. That is, by repeating this step S6, a part of the predetermined work is sequentially performed, whereby the predetermined work is performed as a series of work and the predetermined work is repeatedly performed. As will be described later, in this step S6 when the robot 50 is returned after the robot 50 is evaded and the operation based on the control program is interrupted, the operation is resumed from the point where the operation based on the control program is interrupted. Is done.

また、ステップS7では、ロボット情報取得部25により、回避動作を行う直前のロボット50の作業状態が取得され、その作業状態が記憶される。この作業状態とは、たとえば、ロボット50の位置情報および姿勢情報である。すなわち、制御装置1では、ロボット50に回避動作をさせる前に、ロボット50の位置情報および姿勢情報を記憶するようになっている。なお、ロボット50の位置情報および姿勢情報は、たとえばRAM13(図1参照)に記憶される。   In step S7, the robot information acquisition unit 25 acquires the work state of the robot 50 immediately before performing the avoidance operation, and stores the work state. This working state is, for example, position information and posture information of the robot 50. That is, the control device 1 stores position information and posture information of the robot 50 before causing the robot 50 to perform an avoidance operation. Note that the position information and posture information of the robot 50 are stored, for example, in the RAM 13 (see FIG. 1).

次に、ステップS8において、ロボット制御部27により、ロボット50を回避動作させる。回避動作とは、たとえば、作業者の動作が予測される領域からロボット50を退避させたり、作業者の動作が予測される領域にロボット50を侵入させないようにするものである。この回避動作は、作業者の動作の推定結果とロボット50の動作状態とに基づいて協調演算部26により演算される。そして、回避動作を行った後に、ロボット50が停止される。すなわち、制御プログラムに基づく所定の作業が中断される。   Next, in step S8, the robot controller 27 causes the robot 50 to perform an avoidance operation. The avoiding operation is, for example, to prevent the robot 50 from being retracted from an area where the operator's motion is predicted or to prevent the robot 50 from entering the region where the operator's motion is predicted. This avoidance operation is calculated by the cooperative calculation unit 26 based on the estimation result of the operator's operation and the operation state of the robot 50. Then, after performing the avoidance operation, the robot 50 is stopped. That is, the predetermined work based on the control program is interrupted.

次に、ステップS9において、作業者情報取得部21により、作業者の部位毎についての位置情報および姿勢情報が取得される。具体的には、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。   Next, in step S9, the worker information acquisition unit 21 acquires position information and posture information for each part of the worker. Specifically, based on acceleration data and angular velocity data input from each detection device 2, position information and posture information of each part are calculated.

次に、ステップS10において、動作演算部24により、作業者の各部位の動作が推定される。具体的には、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報が入力されることにより、作業者の各部位の動作情報が演算され、その動作情報に基づいて作業者の各部位についての将来の動作が推定される。   Next, in step S10, the motion calculation unit 24 estimates the motion of each part of the worker. Specifically, by inputting the position information and posture information of each part to the human body model recorded in the human body model recording unit 23, the operation information of each part of the operator is calculated, and the movement information is included in the movement information. Based on this, the future motion of each part of the worker is estimated.

次に、ステップS11において、協調演算部26により、ロボット50を復帰させることが可能であるか否かが判定される。たとえば、ロボット50を現在の状態からステップS7で記憶した作業状態に戻しても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定される。そして、復帰が可能であると判定された場合には、ステップS12に移る。その一方、復帰が可能ではないと判定された場合には、ステップS13に移る。   Next, in step S11, the cooperative calculation unit 26 determines whether or not the robot 50 can be returned. For example, if it is determined that the robot 50 does not collide with the operator even if the robot 50 is returned from the current state to the work state stored in step S7, it is determined that the robot 50 can be returned. . If it is determined that the recovery is possible, the process proceeds to step S12. On the other hand, if it is determined that the return is not possible, the process proceeds to step S13.

そして、ステップS12では、ロボット制御部27により、ロボット50を復帰動作させる。具体的には、ステップS7で記憶した作業状態にロボット50を戻すように動作させる。その後、ステップS14に移る。   In step S12, the robot controller 27 causes the robot 50 to return. Specifically, the robot 50 is operated to return to the work state stored in step S7. Thereafter, the process proceeds to step S14.

また、ステップS13では、協調演算部26により、ロボット50を回避動作させる必要があるか否かが判定される。この協調演算部26は、ステップS10で得られた作業者の動作の推定結果と、ロボット50の現在の状態とに基づいて、回避動作が必要であるか否かを判定する。そして、回避動作が必要ではないと判定された場合には、ステップS9に戻る。その一方、回避動作が必要であると判定された場合には、ステップS8に戻る。   In step S <b> 13, the cooperative calculation unit 26 determines whether or not the robot 50 needs to be avoided. The cooperative calculation unit 26 determines whether an avoidance operation is necessary based on the estimation result of the worker's operation obtained in step S10 and the current state of the robot 50. If it is determined that the avoidance operation is not necessary, the process returns to step S9. On the other hand, if it is determined that an avoidance operation is necessary, the process returns to step S8.

次に、ステップS14において、ロボット50の動作制御が終了されたか否かが判断される。そして、ロボット50の動作制御が終了されたと判断された場合には、エンドに移る。その一方、ロボット50の動作制御が終了されていないと判断された場合には、ステップS2に戻る。   Next, in step S14, it is determined whether or not the operation control of the robot 50 has been completed. If it is determined that the operation control of the robot 50 has been completed, the process proceeds to the end. On the other hand, if it is determined that the operation control of the robot 50 has not been completed, the process returns to step S2.

−効果−
第1実施形態では、上記のように、作業者の各部位の位置情報および姿勢情報とその作業者の人体モデルとに基づいて作業者の各部位の動作情報を演算し、その動作情報から将来の動作を推定する動作演算部24と、その推定結果とロボット50の動作状態とに基づいて、ロボット50を制御するロボット制御部27とが設けられている。このように構成することによって、ロボット50を作業者に協調作業させる際の汎用性の向上を図ることができる。すなわち、協調作業の作業内容(制御プログラムの内容)が異なる場合であっても、作業者の各部位の動作を推定することにより、その推定される動作に応じてロボット50を適切に制御することができる。
-Effect-
In the first embodiment, as described above, the motion information of each part of the worker is calculated based on the position information and posture information of each part of the worker and the human body model of the worker, and the future is calculated from the motion information. And a robot control unit 27 for controlling the robot 50 based on the estimation result and the operation state of the robot 50 are provided. By configuring in this way, it is possible to improve versatility when the robot 50 causes the worker to perform cooperative work. That is, even if the work contents of the collaborative work (contents of the control program) are different, the robot 50 is appropriately controlled according to the estimated movement by estimating the movement of each part of the worker. Can do.

また、第1実施形態では、作業者の各部位における動作の推定結果と、ロボット50の動作状態とに基づいて、ロボット50を回避動作させる必要があるか否かを判定する協調演算部26が設けられ、ロボット制御部27は必要がある場合にロボット50を回避動作させるように構成されている。このように構成することによって、作業者の各部位とロボット50とが衝突するのを抑制することができるので、安全性の向上を図ることができる。   In the first embodiment, the cooperative calculation unit 26 that determines whether or not the robot 50 needs to be avoided based on the motion estimation result of each part of the worker and the operation state of the robot 50 is provided. The robot control unit 27 is provided to avoid the robot 50 when necessary. By configuring in this way, it is possible to suppress the collision between each part of the operator and the robot 50, so that safety can be improved.

また、第1実施形態では、協調演算部26は、ロボット50が回避動作した後にロボット50を復帰させることが可能であるか否かを判定するように構成され、ロボット制御部27は可能である場合にロボット50を復帰させるように構成されている。このように構成することによって、ロボット50が自動的に作業に戻るので、安全性の向上を図りながら、作業効率の低下を抑制することができる。   In the first embodiment, the cooperative calculation unit 26 is configured to determine whether or not the robot 50 can be returned after the robot 50 performs the avoidance operation, and the robot control unit 27 is possible. In this case, the robot 50 is configured to return. With this configuration, the robot 50 automatically returns to work, so that it is possible to suppress a reduction in work efficiency while improving safety.

また、第1実施形態では、位置情報および姿勢情報から人体モデルを演算する人体モデル演算部22を設けることによって、作業者の人体モデルを容易に得ることができる。   In the first embodiment, the human body model of the worker can be easily obtained by providing the human body model calculation unit 22 that calculates the human body model from the position information and the posture information.

また、第1実施形態では、作業者の各部位の位置情報および姿勢情報とその作業者の人体モデルとに基づいて、作業者の各部位の動作を推定することによって、動作の推定精度の向上を図ることができる。   In the first embodiment, the motion estimation accuracy is improved by estimating the motion of each part of the worker based on the position information and posture information of each part of the worker and the human body model of the worker. Can be achieved.

(第2実施形態)
次に、図4を参照して、本発明の第2実施形態による制御システム100aの構成について説明する。
(Second Embodiment)
Next, the configuration of the control system 100a according to the second embodiment of the present invention will be described with reference to FIG.

制御システム100aは、図4に示すように、ロボット50を制御する制御装置1aと、作業者の各部位に装着され、その各部位の動作を検出する検出装置2と、超音波センサ3と、画像センサ4と、レーザスキャナ5とを備えている。なお、超音波センサ3、画像センサ4およびレーザスキャナ5は、本発明の「機器」の一例である。   As shown in FIG. 4, the control system 100 a includes a control device 1 a that controls the robot 50, a detection device 2 that is attached to each part of the worker and detects the operation of each part, an ultrasonic sensor 3, An image sensor 4 and a laser scanner 5 are provided. The ultrasonic sensor 3, the image sensor 4, and the laser scanner 5 are examples of the “device” in the present invention.

超音波センサ3は、ロボット50と作業者との間の距離を計測し、その測距データを制御装置1aに出力するように構成されている。画像センサ4は、ロボット50および作業者が作業を行う作業領域を撮像し、その画像データを制御装置1aに出力するように構成されている。レーザスキャナ5は、ロボット50と作業者との間の距離を計測し、その測距データを制御装置1aに出力するように構成されている。そして、制御装置1aは、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果を用いて、ロボット50と作業者との間の距離データを算出するように構成されている。   The ultrasonic sensor 3 is configured to measure the distance between the robot 50 and the worker and output the distance measurement data to the control device 1a. The image sensor 4 is configured to take an image of a work area where the robot 50 and the worker perform work, and output the image data to the control device 1a. The laser scanner 5 is configured to measure the distance between the robot 50 and the operator and output the distance measurement data to the control device 1a. And the control apparatus 1a is comprised so that the distance data between the robot 50 and an operator may be calculated using the detection result of the ultrasonic sensor 3, the image sensor 4, and the laser scanner 5. FIG.

制御装置1aは、検出装置2の検出結果の信頼性がない場合に、距離データを用いて作業者の各部位の位置情報および姿勢情報を算出するように構成されている。具体的には、制御装置1aは、作業者情報取得部21aと、人体モデル演算部22と、人体モデル記録部23と、動作演算部24と、ロボット情報取得部25と、協調演算部26と、ロボット制御部27と、信頼性判定部28とを含んでいる。   The control device 1a is configured to calculate position information and posture information of each part of the worker using the distance data when the detection result of the detection device 2 is not reliable. Specifically, the control device 1a includes an operator information acquisition unit 21a, a human body model calculation unit 22, a human body model recording unit 23, a motion calculation unit 24, a robot information acquisition unit 25, and a cooperation calculation unit 26. The robot control unit 27 and the reliability determination unit 28 are included.

信頼性判定部28は、検出装置2の検出結果(加速度データおよび角速度データ)の信頼性を判定するために設けられている。この信頼性判定部28は、制御装置1aに入力される検出装置2の検出結果が途切れた場合(検出結果が入力されなくなった場合)、および、制御装置1aに入力される検出装置2の検出結果が所定範囲外になった場合(検出結果がレンジオーバーした場合)に、信頼性がないと判定するように構成されている。なお、所定範囲は、たとえば、予め設定された範囲であり、正常時における検出結果が収まる範囲である。   The reliability determination unit 28 is provided to determine the reliability of the detection results (acceleration data and angular velocity data) of the detection device 2. The reliability determination unit 28 detects when the detection result of the detection device 2 input to the control device 1a is interrupted (when the detection result is no longer input) and when the detection device 2 is input to the control device 1a. When the result is out of the predetermined range (when the detection result is over the range), it is determined that there is no reliability. The predetermined range is, for example, a range set in advance, and is a range in which a detection result at normal time is settled.

作業者情報取得部21aは、各検出装置2の検出結果に加えて、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果が入力されるように構成されている。すなわち、作業者情報取得部21aは、作業者の各部位の加速度データおよび角速度データを経時的に取得するとともに、測距データおよび画像データを経時的に取得している。なお、測距データおよび画像データを用いて、ロボット50と作業者との間の距離データが算出される。そして、作業者情報取得部21aは、検出装置2の検出結果の信頼性がある場合に、加速度データおよび角速度データから位置情報および姿勢情報を算出し、検出装置2の検出結果の信頼性がない場合に、距離データから位置情報および姿勢情報を算出するように構成されている。つまり、作業者情報取得部21aは、作業者の部位毎についての位置情報および姿勢情報を経時的に取得しており、測距データおよび画像データは位置情報および姿勢情報を算出するための補助的なデータである。なお、作業者情報取得部21aは、本発明の「取得部」の一例である。   The worker information acquisition unit 21 a is configured to receive detection results of the ultrasonic sensor 3, the image sensor 4, and the laser scanner 5 in addition to the detection results of each detection device 2. That is, the worker information acquisition unit 21a acquires acceleration data and angular velocity data of each part of the worker with time, and also acquires distance measurement data and image data with time. Note that distance data between the robot 50 and the worker is calculated using the distance measurement data and the image data. Then, when the detection result of the detection device 2 is reliable, the worker information acquisition unit 21a calculates position information and posture information from the acceleration data and the angular velocity data, and the detection result of the detection device 2 is not reliable. In this case, the position information and the posture information are calculated from the distance data. That is, the worker information acquisition unit 21a acquires position information and posture information for each part of the worker over time, and distance measurement data and image data are auxiliary for calculating position information and posture information. It is a lot of data. The worker information acquisition unit 21a is an example of the “acquisition unit” in the present invention.

なお、制御装置1aのその他の構成は、上記した制御装置1と同様である。   In addition, the other structure of the control apparatus 1a is the same as that of the above-described control apparatus 1.

−制御システムの動作−
次に、図5を参照して、第2実施形態の制御システム100aの動作について説明する。なお、第2実施形態における制御システム100aの動作では、作業者情報の取得(図3のステップS2およびS9)のみが第1実施形態と異なるので、以下ではその点についてのみ説明する。
-Control system operation-
Next, the operation of the control system 100a of the second embodiment will be described with reference to FIG. In the operation of the control system 100a in the second embodiment, only the acquisition of worker information (steps S2 and S9 in FIG. 3) is different from that in the first embodiment, and only this point will be described below.

第2実施形態の作業者情報の取得では、図5のステップS21において、検出装置2(図4参照)からの加速度データおよび角速度データが制御装置1a(図4参照)により取得される。   In acquisition of worker information according to the second embodiment, acceleration data and angular velocity data from the detection device 2 (see FIG. 4) are obtained by the control device 1a (see FIG. 4) in step S21 of FIG.

また、ステップS22において、超音波センサ3(図4参照)からの測距データが制御装置1aにより取得され、画像センサ4(図4参照)からの画像データが制御装置1aにより取得され、レーザスキャナ5(図4参照)からの測距データが制御装置1aにより取得される。そして、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果を用いて、ロボット50と作業者との間の距離データが算出される。   In step S22, the distance measurement data from the ultrasonic sensor 3 (see FIG. 4) is acquired by the control device 1a, the image data from the image sensor 4 (see FIG. 4) is acquired by the control device 1a, and the laser scanner. Ranging data from 5 (see FIG. 4) is acquired by the control device 1a. Then, distance data between the robot 50 and the operator is calculated using detection results of the ultrasonic sensor 3, the image sensor 4, and the laser scanner 5.

次に、ステップS23において、信頼性判定部28(図4参照)により、検出装置2の検出結果(加速度データおよび角速度データ)の信頼性が判定される。たとえば、検出装置2の検出結果が途切れた場合や、検出装置2の検出結果が所定範囲外になった場合などに、信頼性がないと判定される。そして、信頼性がある場合には、ステップS24に移り、信頼性がない場合には、ステップS25に移る。   Next, in step S23, the reliability of the detection result (acceleration data and angular velocity data) of the detection device 2 is determined by the reliability determination unit 28 (see FIG. 4). For example, when the detection result of the detection device 2 is interrupted or when the detection result of the detection device 2 is out of a predetermined range, it is determined that there is no reliability. If there is reliability, the process proceeds to step S24, and if there is no reliability, the process proceeds to step S25.

そして、ステップS24では、作業者情報取得部21aにより、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。   In step S24, the worker information acquisition unit 21a calculates position information and posture information of each part based on acceleration data and angular velocity data input from each detection device 2.

また、ステップS25では、作業者情報取得部21aにより、距離データに基づいて、各部位の位置情報および姿勢情報が算出される。   In step S25, the worker information acquisition unit 21a calculates position information and posture information of each part based on the distance data.

−効果−
第2実施形態では、上記のように、検出装置2の検出結果の信頼性を判定する信頼性判定部28と、信頼性がない場合に超音波センサ3および画像センサ4の検出結果に基づいて位置情報および姿勢情報を算出する作業者情報取得部21aとが設けられている。このように構成することによって、制御システム100aの信頼性を向上させることができる。
-Effect-
In the second embodiment, as described above, based on the reliability determination unit 28 that determines the reliability of the detection result of the detection device 2 and the detection results of the ultrasonic sensor 3 and the image sensor 4 when there is no reliability. An operator information acquisition unit 21a that calculates position information and posture information is provided. With this configuration, the reliability of the control system 100a can be improved.

また、第2実施形態では、超音波センサ3、画像センサ4およびレーザスキャナ5を設けることによって、距離データの精度向上を図ることができる。   In the second embodiment, the accuracy of the distance data can be improved by providing the ultrasonic sensor 3, the image sensor 4, and the laser scanner 5.

なお、第2実施形態のその他の効果は、第1実施形態と同様である。   The remaining effects of the second embodiment are similar to those of the first embodiment.

(他の実施形態)
なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
(Other embodiments)
In addition, embodiment disclosed this time is an illustration in all the points, Comprising: It does not become a basis of limited interpretation. Therefore, the technical scope of the present invention is not interpreted only by the above-described embodiments, but is defined based on the description of the scope of claims. Further, the technical scope of the present invention includes all modifications within the meaning and scope equivalent to the scope of the claims.

たとえば、第1実施形態では、ロボット50がロボットアームである例を示したが、これに限らず、制御対象が部品を搬送する搬送装置などであってもよい。すなわち、制御対象はたとえば産業機械である。   For example, in the first embodiment, an example in which the robot 50 is a robot arm has been described. That is, the control object is, for example, an industrial machine.

また、第1実施形態では、複数の検出装置2により作業者の全身の動作を検出する例を示したが、これに限らず、作業者の局部(たとえば、上半身)の動作のみを検出するようにしてもよい。   In the first embodiment, an example in which the movement of the whole body of the worker is detected by the plurality of detection devices 2 has been described. However, the present invention is not limited thereto. It may be.

また、第1実施形態では、CPU11がプログラム12aを実行することにより、作業者情報取得部21、人体モデル演算部22、動作演算部24、ロボット情報取得部25、協調演算部26およびロボット制御部27が実現される例を示したが、これに限らず、作業者情報取得部、人体モデル演算部、動作演算部、ロボット情報取得部、協調演算部およびロボット制御部がそれぞれハードウェアで構成されていてもよい。   In the first embodiment, when the CPU 11 executes the program 12a, the worker information acquisition unit 21, the human body model calculation unit 22, the motion calculation unit 24, the robot information acquisition unit 25, the cooperative calculation unit 26, and the robot control unit However, the present invention is not limited to this, and the worker information acquisition unit, the human body model calculation unit, the motion calculation unit, the robot information acquisition unit, the cooperative calculation unit, and the robot control unit are each configured by hardware. It may be.

また、第1実施形態では、加速度データおよび角速度データに基づいて、位置情報および姿勢情報を算出する例を示したが、これに限らず、速度データ、角加速度データ、圧力データおよび磁気データなどに基づいて、位置情報および姿勢情報を算出するようにしてもよい。すなわち、検出装置2が加速度データおよび角速度データを検出する例を示したが、これに限らず、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成されていればよい。   In the first embodiment, the example in which the position information and the posture information are calculated based on the acceleration data and the angular velocity data is shown. However, the present invention is not limited to this, and the velocity data, the angular acceleration data, the pressure data, the magnetic data, and the like are used. Based on this, position information and posture information may be calculated. That is, although the example in which the detection device 2 detects acceleration data and angular velocity data has been shown, the detection device is not limited to this, and the detection device may include acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data. What is necessary is just to be comprised so that at least 1 may be detected.

また、第1実施形態では、作業者情報取得部21が、加速度データおよび角速度データを取得し、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出する例を示したが、これに限らず、作業者情報取得部が、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するようにすればよい。   In the first embodiment, the worker information acquisition unit 21 acquires acceleration data and angular velocity data, and calculates position information and posture information using the acceleration data and angular velocity data. Not limited to, the worker information acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data for position information and posture information. It is sufficient to calculate at least one of these.

また、第1実施形態では、人体モデル演算部22が位置情報および姿勢情報に基づいて作業者の人体モデルを演算する例を示したが、これに限らず、人体モデル演算部が位置情報または姿勢情報に基づいて作業者の人体モデルを演算するようにしてもよい。   In the first embodiment, the human body model calculation unit 22 calculates the worker's human body model based on the position information and the posture information. However, the present invention is not limited thereto, and the human body model calculation unit displays the position information or the posture. The human body model of the worker may be calculated based on the information.

また、第1実施形態では、制御装置1に人体モデル演算部22が設けられるとともに、ツール装置60から人体モデルを入力可能に構成する例を示したが、これに限らず、人体モデル演算部22が設けられていれば、ツール装置60から人体モデルを入力できないようにしてもよいし、ツール装置60から人体モデルを入力可能であれば、人体モデル演算部22が設けられていなくてもよい。   Moreover, in 1st Embodiment, while the human body model calculating part 22 was provided in the control apparatus 1, the example which comprised a human body model input from the tool apparatus 60 was shown, but it is not restricted to this, The human body model calculating part 22 If a human body model cannot be input from the tool device 60, or if a human body model can be input from the tool device 60, the human body model calculation unit 22 may not be provided.

また、第1実施形態では、人体モデル記録部23が設けられる例を示したが、これに限らず、作業者の人体モデルを外部から入手可能であれば、人体モデル記録部が設けられていなくてもよい。   In the first embodiment, an example in which the human body model recording unit 23 is provided has been described. However, the present invention is not limited thereto, and the human body model recording unit is not provided as long as the human body model of the worker can be obtained from the outside. May be.

また、第1実施形態では、動作演算部24が、位置情報および姿勢情報と人体モデルとから動作情報を演算するとともに、その動作情報から将来の動作を推定する例を示したが、これに限らず、動作演算部が、位置情報または姿勢情報と人体モデルとから動作情報を演算するとともに、その動作情報から将来の動作を推定するようにしてもよい。また、動作演算部が、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとから動作情報を演算し、作業者の将来の動作を推定しないようにしてもよい。この場合には、協調演算部が、動作情報(現在までの動作の推定結果)とロボットの状態とに基づいて、ロボットを回避動作させる必要があるか否かを判定するようにしてもよい。すなわち、作業者の将来までの動作を推定し、その推定結果とロボットの状態とに基づいてロボットを制御するようにしてもよいし、作業者の現在までの動作を推定し、その推定結果とロボットの状態とに基づいてロボットを制御するようにしてもよい。   In the first embodiment, the motion calculation unit 24 calculates motion information from position information, posture information, and a human body model, and estimates a future motion from the motion information. However, the present invention is not limited thereto. Instead, the motion calculation unit may calculate the motion information from the position information or posture information and the human body model, and may estimate the future motion from the motion information. Further, the motion calculation unit may calculate the motion information from at least one of the position information and the posture information and the human body model so that the future motion of the worker is not estimated. In this case, the cooperative calculation unit may determine whether it is necessary to make the robot perform an avoidance operation based on the operation information (the estimation result of the operation so far) and the state of the robot. That is, the motion of the worker up to the future may be estimated, and the robot may be controlled based on the estimation result and the state of the robot, or the motion of the worker up to the present may be estimated, The robot may be controlled based on the state of the robot.

また、第1実施形態では、ロボット情報取得部25にロボット50から各種情報50aが入力される例を示したが、これに限らず、制御装置がロボットの各種情報を把握していれば、ロボット情報取得部にロボットから各種情報が入力されていなくてもよい。   In the first embodiment, an example in which various information 50a is input from the robot 50 to the robot information acquisition unit 25 is shown. However, the present invention is not limited to this, and if the control device grasps various information on the robot, the robot Various information may not be input from the robot to the information acquisition unit.

また、第1実施形態のフローチャートでは、作業者情報を取得した後に、ロボット情報を取得する例を示したが、これに限らず、作業者情報およびロボット情報を同時に取得してもよいし、ロボット情報を取得した後に、作業者情報を取得するようにしてもよい。すなわち、図3のフローチャートは、一例であってその手順に限定されるものではない。   Moreover, although the example which acquires robot information after acquiring operator information was shown in the flowchart of 1st Embodiment, it is not restricted to this, You may acquire operator information and robot information simultaneously, and a robot The worker information may be acquired after the information is acquired. That is, the flowchart of FIG. 3 is an example and is not limited to the procedure.

また、第1実施形態では、作業者とロボット50とが衝突すると予測される場合に、回避動作が必要であると判断する例を示したが、これに限らず、作業者とロボットとが衝突すると予測される場合において、その衝突時の衝撃が大きい場合に、回避動作が必要であると判断するようにしてもよい。すなわち、衝撃が小さい場合には回避動作をさせずに衝突を許容するようにしてもよい。   Further, in the first embodiment, an example in which it is determined that an avoidance operation is necessary when the worker and the robot 50 are predicted to collide with each other is not limited to this, but the worker and the robot collide with each other. In such a case, when the impact at the time of the collision is large, it may be determined that an avoidance operation is necessary. That is, when the impact is small, the collision may be allowed without performing the avoiding operation.

また、第1実施形態では、ロボット50を現在の状態からステップS7で記憶した作業状態に戻しても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定する例を示したが、これに限らず、ロボット50を現在の状態からステップS7で記憶した作業状態に戻し、その後の作業(制御プログラムに基づく作業であって、中断されたところから再開される作業)を行っても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定するようにしてもよい。   In the first embodiment, when it is determined that the robot 50 does not collide with the operator even if the robot 50 is returned from the current state to the work state stored in step S7, the robot 50 can be returned. However, the present invention is not limited to this, and the robot 50 is returned from the current state to the work state stored in step S7, and the subsequent work (work based on the control program and interrupted) If it is determined that the robot 50 does not collide with the worker even if the operation resumed from the above is performed, it may be determined that the robot 50 can be returned.

また、第1実施形態では、協調演算部26が、作業者の動作の推定結果とロボット50の動作状態とに基づいて、ロボット50を回避動作させる必要があるか否かを判定する例を示したが、これに限らず、協調演算部(判定部)が、作業者の動作の推定結果とロボットの動作状態とに基づいて、ロボットを減速動作または停止動作させる必要があるか否かを判定するように構成されていてもよい。この場合には、ロボット制御部は、協調演算部により減速動作または停止動作が必要であると判定された場合に、ロボットを減速動作または停止動作させるように構成されていてもよい。この減速動作および停止動作は、ロボット50を作業者に対して安全な状態にさせる動作の一例である。なお、減速動作とは、ロボットの動作速度を減少させる動作であり、停止動作とは、ロボットの動作速度をゼロにさせる動作である。また、減速動作または停止動作が必要である場合とは、たとえば、作業者およびロボットの動作予測から、作業者とロボットとが衝突すると予測される場合である。   Moreover, in 1st Embodiment, the cooperation calculating part 26 shows the example which determines whether it is necessary to make the robot 50 avoid operation based on the estimation result of an operator's operation | movement, and the operation state of the robot 50. However, the present invention is not limited to this, and the cooperative calculation unit (determination unit) determines whether or not the robot needs to be decelerated or stopped based on the estimation result of the operator's motion and the motion state of the robot. It may be configured to. In this case, the robot control unit may be configured to cause the robot to perform a deceleration operation or a stop operation when it is determined by the cooperative calculation unit that a deceleration operation or a stop operation is necessary. The deceleration operation and the stop operation are examples of operations that make the robot 50 safe for the worker. The deceleration operation is an operation that decreases the operation speed of the robot, and the stop operation is an operation that makes the operation speed of the robot zero. The case where the deceleration operation or the stop operation is required is, for example, a case where it is predicted that the worker and the robot will collide based on the motion prediction of the worker and the robot.

なお、上記した第1実施形態の変形例を第2実施形態に適用してもよい。   Note that a modification of the first embodiment described above may be applied to the second embodiment.

また、第2実施形態では、超音波センサ3、画像センサ4およびレーザスキャナ5が設けられる例を示したが、これに限らず、超音波センサ、画像センサおよびレーザスキャナのうちの少なくとも1つが設けられていればよい。   In the second embodiment, an example in which the ultrasonic sensor 3, the image sensor 4, and the laser scanner 5 are provided has been described. However, the present invention is not limited thereto, and at least one of the ultrasonic sensor, the image sensor, and the laser scanner is provided. It only has to be done.

また、第2実施形態では、距離データに基づいて位置情報および姿勢情報を算出し、その位置情報および姿勢情報を用いて各部位の動作情報を算出する例を示したが、これに限らず、距離データに基づいて位置情報および姿勢情報を算出することなく、距離データから直接各部位の動作情報を算出するようにしてもよい。   In the second embodiment, the position information and the posture information are calculated based on the distance data, and the motion information of each part is calculated using the position information and the posture information. The motion information of each part may be directly calculated from the distance data without calculating the position information and the posture information based on the distance data.

また、第2実施形態では、測距データおよび画像データを同時に取得する例を示したが、これに限らず、測距データおよび画像データの取得タイミングが前後していてもよい。   In the second embodiment, the example in which the distance measurement data and the image data are acquired simultaneously has been described. However, the present invention is not limited to this, and the acquisition timing of the distance measurement data and the image data may be changed.

また、第2実施形態では、制御装置1aに入力される検出装置2の検出結果が途切れた場合に信頼性がないと判定する例を示したが、これに限らず、検出結果が途切れた状態が所定期間継続した場合に、信頼性がないと判定するようにしてもよい。同様に、制御装置1aに入力される検出装置2の検出結果が所定範囲外になった場合に信頼性がないと判定する例を示したが、これに限らず、検出結果が所定範囲外になった状態が所定期間継続した場合に、信頼性がないと判定するようにしてもよい。   Moreover, in 2nd Embodiment, although the example which determines that there is no reliability when the detection result of the detection apparatus 2 input into the control apparatus 1a interrupted was shown, it is not restricted to this, The state where the detection result interrupted May be determined to be unreliable when the operation continues for a predetermined period. Similarly, an example in which the detection result of the detection device 2 input to the control device 1a is determined to be unreliable when the detection result is out of the predetermined range has been shown. If the changed state continues for a predetermined period, it may be determined that there is no reliability.

本発明は、制御装置、制御システム、制御方法およびプログラムに利用可能である。   The present invention is applicable to a control device, a control system, a control method, and a program.

1、1a 制御装置(コンピュータ)
2 検出装置
3 超音波センサ(機器)
4 画像センサ(機器)
5 レーザスキャナ(機器)
12a プログラム
21、21a 作業者情報取得部(取得部)
22 人体モデル演算部
23 人体モデル記録部
24 動作演算部(推定部)
26 協調演算部(判定部)
27 ロボット制御部(制御部)
28 信頼性判定部
50 ロボット(制御対象)
100、100a 制御システム
1, 1a Control device (computer)
2 Detector 3 Ultrasonic sensor (equipment)
4 Image sensors (equipment)
5 Laser scanner (equipment)
12a program 21, 21a worker information acquisition unit (acquisition unit)
22 human body model calculation unit 23 human body model recording unit 24 motion calculation unit (estimation unit)
26 Cooperative operation unit (determination unit)
27 Robot control unit (control unit)
28 Reliability judgment unit 50 Robot (control target)
100, 100a control system

Claims (18)

制御対象を制御する制御装置であって、
作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する取得部と、
前記位置情報および前記姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定する推定部と、
前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を制御する制御部とを備えることを特徴とする制御装置。
A control device for controlling a control object,
An acquisition unit for acquiring at least one of position information and posture information of the worker;
Based on at least one of the position information and the posture information and the human body model of the worker, an estimation unit that estimates the movement of each part of the worker;
A control apparatus comprising: a control unit that controls the control target based on an estimation result of the estimation unit and a state of the control target.
請求項1に記載の制御装置において、
前記推定部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、作業者の各部位の動作情報を演算するとともに、前記動作情報から作業者の将来の動作を推定するように構成され、
前記制御部は、前記作業者の将来の動作と前記制御対象の状態とに基づいて、前記制御対象を制御するように構成されていることを特徴とする制御装置。
The control device according to claim 1,
The estimation unit calculates motion information of each part of the worker based on at least one of the position information and the posture information and the human body model, and calculates a future motion of the worker from the motion information. Configured to estimate,
The said control part is comprised so that the said control object may be controlled based on the future operation | movement of the said operator, and the state of the said control object, The control apparatus characterized by the above-mentioned.
請求項1に記載の制御装置において、
前記推定部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、作業者の各部位の動作情報を演算するように構成され、
前記制御部は、前記動作情報と前記制御対象の状態とに基づいて、前記制御対象を制御するように構成されていることを特徴とする制御装置。
The control device according to claim 1,
The estimation unit is configured to calculate motion information of each part of an operator based on at least one of the position information and the posture information and the human body model,
The control device is configured to control the control target based on the operation information and a state of the control target.
請求項1〜3のいずれか1つに記載の制御装置において、
前記取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御装置。
In the control device according to any one of claims 1 to 3,
The acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data to at least one of the position information and the posture information. A control device configured to calculate one of them.
請求項4に記載の制御装置において、
前記取得部が取得するデータの信頼性を判定する信頼性判定部を備え、
前記取得部は、前記信頼性判定部により前記データの信頼性がないと判定された場合に、距離データを用いて、前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御装置。
The control device according to claim 4,
A reliability determination unit that determines the reliability of data acquired by the acquisition unit;
The acquisition unit is configured to calculate at least one of the position information and the posture information using distance data when the reliability determination unit determines that the data is not reliable. A control device characterized by that.
請求項5に記載の制御装置において、
前記信頼性判定部は、前記データが途切れた場合、および、前記データが予め設定された範囲外になった場合に、前記データの信頼性がないと判定するように構成されていることを特徴とする制御装置。
The control device according to claim 5,
The reliability determination unit is configured to determine that the data is not reliable when the data is interrupted and when the data is out of a preset range. Control device.
請求項1〜6のいずれか1つに記載の制御装置において、
前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を作業者に対して安全な状態にさせる動作が必要であるか否かを判定する判定部を備えることを特徴とする制御装置。
In the control device according to any one of claims 1 to 6,
And a determination unit that determines whether or not an operation for bringing the control target into a safe state for an operator is necessary based on the estimation result of the estimation unit and the state of the control target. Control device.
請求項7に記載の制御装置において、
前記判定部は、前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を回避動作させる必要があるか否かを判定するように構成され、
前記制御部は、前記判定部により回避動作が必要であると判定された場合に、前記制御対象を回避動作させるように構成されていることを特徴とする制御装置。
The control device according to claim 7,
The determination unit is configured to determine whether or not the control target needs to be avoided based on the estimation result of the estimation unit and the state of the control target.
The control device is configured to cause the control target to perform an avoidance operation when the determination unit determines that an avoidance operation is necessary.
請求項8に記載の制御装置において、
前記判定部は、前記制御対象が回避動作した後に、前記制御対象を復帰させることが可能であるか否かを判定するように構成され、
前記制御部は、前記判定部により復帰が可能であると判定された場合に、前記制御対象を復帰させるように構成されていることを特徴とする制御装置。
The control device according to claim 8, wherein
The determination unit is configured to determine whether or not the control object can be returned after the control object performs an avoidance operation,
The control device is configured to return the control target when the determination unit determines that the return is possible.
請求項7に記載の制御装置において、
前記判定部は、前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を減速動作または停止動作させる必要があるか否かを判定するように構成され、
前記制御部は、前記判定部により減速動作または停止動作が必要であると判定された場合に、前記制御対象を減速動作または停止動作させるように構成されていることを特徴とする制御装置。
The control device according to claim 7,
The determination unit is configured to determine whether or not the control target needs to be decelerated or stopped based on the estimation result of the estimation unit and the state of the control target.
The control unit is configured to cause the control target to perform a deceleration operation or a stop operation when the determination unit determines that a deceleration operation or a stop operation is necessary.
請求項1〜10のいずれか1つに記載の制御装置において、
前記人体モデルが記録された人体モデル記録部を備えることを特徴とする制御装置。
In the control device according to any one of claims 1 to 10,
A control apparatus comprising a human body model recording unit in which the human body model is recorded.
請求項1〜11のいずれか1つに記載の制御装置において、
前記位置情報および前記姿勢情報の少なくともいずれか一方から前記人体モデルを演算する人体モデル演算部を備えることを特徴とする制御装置。
The control device according to any one of claims 1 to 11,
A control apparatus comprising: a human body model calculation unit that calculates the human body model from at least one of the position information and the posture information.
請求項1〜12のいずれか1つに記載の制御装置と、
作業者の各部位に装着され、その各部位の動作を検出する検出装置とを備えることを特徴とする制御システム。
A control device according to any one of claims 1 to 12,
A control system comprising: a detection device that is attached to each part of an operator and detects an operation of each part.
請求項13に記載の制御システムにおいて、
前記検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、
前記制御装置の取得部は、前記検出装置の検出結果を取得し、その取得した検出結果を用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御システム。
The control system according to claim 13.
The detection device is configured to detect at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data;
The acquisition unit of the control device is configured to acquire a detection result of the detection device, and calculate at least one of the position information and the posture information using the acquired detection result. And control system.
請求項13または14に記載の制御システムにおいて、
距離を計測するための機器を備え、
前記制御装置は、前記検出装置の検出結果の信頼性を判定する信頼性判定部を含み、
前記制御装置の取得部は、前記信頼性判定部により前記検出装置の検出結果の信頼性がないと判定された場合に、前記機器の検出結果を用いて、前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御システム。
The control system according to claim 13 or 14,
With equipment to measure distance,
The control device includes a reliability determination unit that determines the reliability of the detection result of the detection device,
The acquisition unit of the control device uses the detection result of the device to determine at least the position information and the posture information when the reliability determination unit determines that the detection result of the detection device is not reliable. A control system configured to calculate either one of them.
請求項15に記載の制御システムにおいて、
前記機器は、画像センサ、超音波センサおよびレーザスキャナのうちの少なくとも1つを含むことを特徴とする制御システム。
The control system according to claim 15, wherein
The control apparatus includes at least one of an image sensor, an ultrasonic sensor, and a laser scanner.
制御対象を制御する制御方法であって、
作業者の位置情報および姿勢情報の少なくともいずれか一方を取得するステップと、
前記位置情報および前記姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定するステップと、
その推定結果と前記制御対象の状態とに基づいて、前記制御対象を制御するステップとを備えることを特徴とする制御方法。
A control method for controlling a control object,
Acquiring at least one of position information and posture information of the worker;
Estimating the movement of each part of the worker based on at least one of the position information and the posture information and the human body model of the worker;
And a step of controlling the control object based on the estimation result and the state of the control object.
請求項17に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 17.
JP2016025961A 2016-02-15 2016-02-15 Control device, control system, control method and program Pending JP2017144490A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016025961A JP2017144490A (en) 2016-02-15 2016-02-15 Control device, control system, control method and program
PCT/JP2017/000402 WO2017141569A1 (en) 2016-02-15 2017-01-10 Control device, control system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016025961A JP2017144490A (en) 2016-02-15 2016-02-15 Control device, control system, control method and program

Publications (1)

Publication Number Publication Date
JP2017144490A true JP2017144490A (en) 2017-08-24

Family

ID=59624997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016025961A Pending JP2017144490A (en) 2016-02-15 2016-02-15 Control device, control system, control method and program

Country Status (2)

Country Link
JP (1) JP2017144490A (en)
WO (1) WO2017141569A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021171358A1 (en) * 2020-02-25 2021-09-02
JP7098080B1 (en) * 2021-09-08 2022-07-08 三菱電機株式会社 Robot control device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7362107B2 (en) * 2019-09-30 2023-10-17 Johnan株式会社 Control device, control method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469166B2 (en) * 2001-06-29 2008-12-23 Honda Motor Co., Ltd. System and method of predicting novel motion in a serial chain system
JP4148281B2 (en) * 2006-06-19 2008-09-10 ソニー株式会社 Motion capture device, motion capture method, and motion capture program
JP5048886B2 (en) * 2011-01-17 2012-10-17 パナソニック株式会社 Safety device and preliminary operation determination method
JP2014180519A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Information processing apparatus, information processing method and program
JP6218307B2 (en) * 2013-06-06 2017-10-25 国立大学法人九州工業大学 Standing motion guidance system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021171358A1 (en) * 2020-02-25 2021-09-02
JP7364032B2 (en) 2020-02-25 2023-10-18 日本電気株式会社 Control device, control method and program
JP7098080B1 (en) * 2021-09-08 2022-07-08 三菱電機株式会社 Robot control device
US12017372B2 (en) 2021-09-08 2024-06-25 Mitsubishi Electric Corporation Robot control device

Also Published As

Publication number Publication date
WO2017141569A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6484265B2 (en) Robot system having learning control function and learning control method
JP4961860B2 (en) Robot apparatus and control method of robot apparatus
JP5893684B2 (en) Robot control device for preventing erroneous determination by collision determination unit
JP6445092B2 (en) Robot system displaying information for teaching robots
US10481571B2 (en) Robot controller which automatically sets interference region for robot
JP2007144524A (en) Interference avoiding method of robot and robot
JP6916157B2 (en) Robot systems that collaborate with people and robot control methods
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
EP3418835B1 (en) Work region estimation device, control device, control system, work region estimation method, and program
WO2017141569A1 (en) Control device, control system, control method, and program
JP2008183690A (en) Robot control device and system
JP5228783B2 (en) Robot origin return device
WO2017141579A1 (en) Determination device, control device, control system, determination method, and program
JP2017077600A (en) Manipulator device
CN116728397A (en) Robot system, robot control method, and computer-readable storage medium
US20230125071A1 (en) Offline teaching device and motion-program generation method
WO2017141570A1 (en) Monitoring device, control device, control system, monitoring method, and program
US10635080B2 (en) Work region estimation device, control device, control system, work region estimation method, and non-transitory computer-readable recording medium
WO2023095926A1 (en) Robot control device, robot control system, and robot control method
US20220362934A1 (en) Control device, control method, and program
JP2015208790A (en) Device and method of estimating center of gravity
KR20200076541A (en) Control algorithm of medical robotic arms attached to autonomous cart