JP2017144490A - Control device, control system, control method and program - Google Patents
Control device, control system, control method and program Download PDFInfo
- Publication number
- JP2017144490A JP2017144490A JP2016025961A JP2016025961A JP2017144490A JP 2017144490 A JP2017144490 A JP 2017144490A JP 2016025961 A JP2016025961 A JP 2016025961A JP 2016025961 A JP2016025961 A JP 2016025961A JP 2017144490 A JP2017144490 A JP 2017144490A
- Authority
- JP
- Japan
- Prior art keywords
- control
- control device
- worker
- robot
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、制御装置、制御システム、制御方法およびプログラムに関する。 The present invention relates to a control device, a control system, a control method, and a program.
従来、工場の生産ラインなどに設置される産業用ロボットが知られている。また、近年では、生産ラインにおいて作業者を産業用ロボットが補助する作業補助システムが提案されている(たとえば、特許文献1参照)。 Conventionally, an industrial robot installed in a production line of a factory is known. In recent years, a work assistance system in which an industrial robot assists an operator in a production line has been proposed (for example, see Patent Document 1).
特許文献1の作業補助システムは、作業者が部品取付作業を行う際に、産業用ロボットに補助させるものであり、部品の一端側を作業者が保持するとともに、部品の他端側を産業用ロボットに保持させ、その部品を取付位置まで移動させるようになっている。具体的には、作業補助システムは、作業者の手に装着されるモーションキャプチャと、そのモーションキャプチャの検出結果に基づいて産業用ロボットを制御するデータ処理装置とを備えている。
The work assistance system of
モーションキャプチャは、作業者の手による作業動作を経時的に測定し、その測定結果である動作情報を3次元座標データとしてデータ処理装置に送信するように構成されている。データ処理装置は、モーションキャプチャからの3次元座標データに基づいて、産業用ロボットを作業者の手に追従させるように構成されている。これにより、部品の搬送を産業用ロボットに補助させることができるので、部品取付作業を効率的に行うことが可能である。 The motion capture is configured to measure a work operation by a worker over time and transmit operation information as a measurement result to the data processing apparatus as three-dimensional coordinate data. The data processing apparatus is configured to cause the industrial robot to follow the operator's hand based on the three-dimensional coordinate data from the motion capture. Thereby, since conveyance of components can be made to assist an industrial robot, it is possible to perform component attachment work efficiently.
しかしながら、上記した従来の作業補助システムでは、産業用ロボットが補助できる作業が限られているため、産業用ロボットを作業者に協調作業させる際の汎用性に乏しいという問題点がある。 However, the above-described conventional work assistance system has a problem that the work that can be assisted by the industrial robot is limited, so that the versatility when the industrial robot is caused to cooperate with the worker is poor.
本発明は、上記の課題を解決するためになされたものであり、本発明の目的は、制御対象を作業者に協調作業させる際の汎用性の向上を図ることが可能な制御装置、制御システム、制御方法およびプログラムを提供することである。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a control device and a control system capable of improving versatility when causing a worker to collaborate on a control target. It is to provide a control method and a program.
本発明による制御装置は、制御対象を制御するものであり、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する取得部と、位置情報および姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定する推定部と、推定部の推定結果と制御対象の状態とに基づいて、制御対象を制御する制御部とを備える。 A control device according to the present invention controls a control target, and includes an acquisition unit that acquires at least one of position information and posture information of an operator, at least one of position information and posture information, and an operator's position information. An estimation unit that estimates the motion of each part of the worker based on the human body model, and a control unit that controls the control target based on the estimation result of the estimation unit and the state of the control target.
このように構成することによって、作業者の各部位の動作を推定し、その推定される動作に応じて制御対象を制御することにより、制御対象を作業者に協調作業させる際の汎用性の向上を図ることができる。すなわち、協調作業の作業内容が異なる場合であっても、作業者の各部位の動作を推定することにより、その推定される動作に応じて制御対象を適切に制御することができる。 By configuring in this way, the motion of each part of the worker is estimated, and the control target is controlled according to the estimated motion, thereby improving the versatility when the control target is collaborated with the worker. Can be achieved. That is, even when the work contents of the cooperative work are different, the control target can be appropriately controlled according to the estimated motion by estimating the motion of each part of the worker.
上記制御装置において、推定部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、作業者の各部位の動作情報を演算するとともに、動作情報から作業者の将来の動作を推定するように構成され、制御部は、作業者の将来の動作と制御対象の状態とに基づいて、制御対象を制御するように構成されていてもよい。 In the above control device, the estimation unit calculates the motion information of each part of the worker based on at least one of the position information and the posture information and the human body model, and calculates the future motion of the worker from the motion information. The control unit may be configured to estimate, and the control unit may be configured to control the control target based on a future operation of the worker and the state of the control target.
上記制御装置において、推定部は、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとに基づいて、作業者の各部位の動作情報を演算するように構成され、制御部は、動作情報と制御対象の状態とに基づいて、制御対象を制御するように構成されていてもよい。 In the control device, the estimation unit is configured to calculate motion information of each part of the worker based on at least one of position information and posture information and a human body model, and the control unit includes motion information and The control target may be configured to be controlled based on the state of the control target.
上記制御装置において、取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。 In the above control device, the acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data for position information and posture information. It may be configured to calculate at least one of them.
この場合において、取得部が取得するデータの信頼性を判定する信頼性判定部を備え、取得部は、信頼性判定部によりデータの信頼性がないと判定された場合に、距離データを用いて、位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。なお、距離データは、たとえば、制御対象と作業者との間の距離である。 In this case, the acquisition unit includes a reliability determination unit that determines the reliability of the data acquired, and the acquisition unit uses the distance data when the reliability determination unit determines that the data is not reliable. Further, at least one of position information and posture information may be calculated. The distance data is, for example, the distance between the control target and the worker.
上記信頼性判定部を備える制御装置において、信頼性判定部は、データが途切れた場合、および、データが予め設定された範囲外になった場合に、データの信頼性がないと判定するように構成されていてもよい。 In the control device including the reliability determination unit, the reliability determination unit determines that the data is not reliable when the data is interrupted and when the data is out of a preset range. It may be configured.
上記制御装置において、推定部の推定結果と制御対象の状態とに基づいて、制御対象を作業者に対して安全な状態にさせる動作が必要であるか否かを判定する判定部を備えていてもよい。 The control device includes a determination unit that determines whether or not an operation for bringing the control target into a safe state for the worker is necessary based on the estimation result of the estimation unit and the state of the control target. Also good.
上記判定部を備える制御装置において、判定部は、推定部の推定結果と制御対象の状態とに基づいて、制御対象を回避動作させる必要があるか否かを判定するように構成され、制御部は、判定部により回避動作が必要であると判定された場合に、制御対象を回避動作させるように構成されていてもよい。 In the control device including the determination unit, the determination unit is configured to determine whether the control target needs to be avoided based on the estimation result of the estimation unit and the state of the control target. May be configured to cause the control target to perform the avoidance operation when the determination unit determines that the avoidance operation is necessary.
この場合において、判定部は、制御対象が回避動作した後に、制御対象を復帰させることが可能であるか否かを判定するように構成され、制御部は、判定部により復帰が可能であると判定された場合に、制御対象を復帰させるように構成されていてもよい。 In this case, the determination unit is configured to determine whether or not the control target can be returned after the control target performs an avoidance operation, and the control unit is configured to be recoverable by the determination unit. When it is determined, the control target may be returned.
上記判定部を備える制御装置において、判定部は、推定部の推定結果と制御対象の状態とに基づいて、制御対象を減速動作または停止動作させる必要があるか否かを判定するように構成され、制御部は、判定部により減速動作または停止動作が必要であると判定された場合に、制御対象を減速動作または停止動作させるように構成されていてもよい。 In the control device including the determination unit, the determination unit is configured to determine whether the control target needs to be decelerated or stopped based on the estimation result of the estimation unit and the state of the control target. The control unit may be configured to cause the control target to perform a deceleration operation or a stop operation when the determination unit determines that a deceleration operation or a stop operation is necessary.
上記制御装置において、人体モデルが記録された人体モデル記録部を備えていてもよい。 The control apparatus may include a human body model recording unit in which a human body model is recorded.
上記制御装置において、位置情報および姿勢情報の少なくともいずれか一方から人体モデルを演算する人体モデル演算部を備えていてもよい。 The control apparatus may include a human body model calculation unit that calculates a human body model from at least one of position information and posture information.
本発明による制御システムは、上記制御装置と、作業者の各部位に装着され、その各部位の動作を検出する検出装置とを備える。 The control system according to the present invention includes the above-described control device and a detection device that is attached to each part of the worker and detects the operation of each part.
上記制御システムにおいて、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、制御装置の取得部は、検出装置の検出結果を取得し、その取得した検出結果を用いて位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。 In the control system, the detection device is configured to detect at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and the acquisition unit of the control device includes the detection device. The detection result may be acquired, and at least one of the position information and the posture information may be calculated using the acquired detection result.
上記制御システムにおいて、距離を計測するための機器を備え、制御装置は、検出装置の検出結果の信頼性を判定する信頼性判定部を含み、制御装置の取得部は、信頼性判定部により検出装置の検出結果の信頼性がないと判定された場合に、機器の検出結果を用いて、位置情報および姿勢情報の少なくともいずれか一方を算出するように構成されていてもよい。なお、距離は、たとえば、制御対象と作業者との間の距離である。 The control system includes a device for measuring a distance, the control device includes a reliability determination unit that determines the reliability of the detection result of the detection device, and the acquisition unit of the control device is detected by the reliability determination unit. When it is determined that the detection result of the device is not reliable, at least one of the position information and the posture information may be calculated using the detection result of the device. The distance is, for example, the distance between the control target and the worker.
この場合において、機器は、画像センサ、超音波センサおよびレーザスキャナのうちの少なくとも1つを含んでいてもよい。 In this case, the device may include at least one of an image sensor, an ultrasonic sensor, and a laser scanner.
本発明による制御方法は、制御対象を制御するものであり、作業者の位置情報および姿勢情報の少なくともいずれか一方を取得するステップと、位置情報および姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定するステップと、その推定結果と制御対象の状態とに基づいて、制御対象を制御するステップとを備える。 The control method according to the present invention controls an object to be controlled, the step of obtaining at least one of position information and posture information of the worker, at least one of position information and posture information, and the human body of the worker A step of estimating the movement of each part of the worker based on the model, and a step of controlling the control target based on the estimation result and the state of the control target.
本発明によるプログラムは、上記した制御方法をコンピュータに実行させるためのものである。 The program according to the present invention is for causing a computer to execute the control method described above.
本発明の制御装置、制御システム、制御方法およびプログラムによれば、制御対象を作業者に協調作業させる際の汎用性の向上を図ることができる。 According to the control device, the control system, the control method, and the program of the present invention, it is possible to improve the versatility when the control target is caused to collaborate by an operator.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1実施形態)
まず、図1および図2を参照して、本発明の第1実施形態による制御システム100の構成について説明する。
(First embodiment)
First, with reference to FIG. 1 and FIG. 2, the structure of the
制御システム100は、図1に示すように、ロボット50を制御する制御装置1と、作業者の各部位に装着され、その各部位の動作を検出する検出装置2とを備えている。ロボット50は、たとえば工場の生産ラインに設置されるロボットアームであり、本発明の「制御対象」の一例である。この制御システム100では、作業者の各部位の動作に応じてロボット50を制御することにより、作業者とロボット50とが協調して作業を行うように構成されている。
As shown in FIG. 1, the
制御装置1は、いわゆるPLC(Programmable Logic Controller:プログラマブルロジックコントローラ)であり、作業者の各部位についての将来の動作を推定し、その推定結果に基づいてロボット50を制御するように構成されている。具体的には、制御装置1は、検出装置2の検出結果と作業者の人体モデルとから作業者の各部位の動作情報を演算し、その動作情報から各部位の動作を推定してロボット50を協調作業させるようになっている。なお、作業者の人体モデルとは、たとえば、作業者の身体の各部位についての寸法をデータベース化したものである。
The
検出装置2は、作業者の各部位に取り付けられており、各検出装置2は、取り付けられた部位についての動作を検出するために設けられている。なお、図1では2つの検出装置2を示したが、作業者の全身の動作を検出するためにより多数の検出装置2が設けられていてもよい。作業者に対する検出装置2の取付位置の一例としては、頭部、両肩部、両腕部(上腕、前腕、手)、背中部、腰部、および、両脚部(腿、脛、足)である。
The
この検出装置2は、加速度データを検出する加速度センサ2aと、角速度データを検出する角速度センサ2bと、加速度センサ2aおよび角速度センサ2bの検出結果を制御装置1に出力する出力部2cとを含んでいる。なお、検出装置2は、たとえば無線で制御装置1に接続されているが、有線で制御装置1に接続されていてもよい。
The
制御装置1は、CPU11と、ROM12と、RAM13と、入出力部14とを含んでいる。CPU11は、ROM12に記憶されたプログラム12aなどに基づいて演算処理を実行するように構成されている。ROM12は、不揮発性のメモリであり、プログラム12aやそのプログラム12aの実行の際に用いられる設定値などを記憶している。なお、プログラム12aにはロボット50の制御プログラムなどが含まれている。この制御プログラムの一例としては、所定の作業をロボット50に実行させるものである。RAM13は、揮発性のメモリであり、CPU11による演算結果や検出装置2の検出結果などを一時的に記憶する機能を有する。入出力部14には、複数の検出装置2、ロボット50、および、制御装置1の設定変更などを行うためのツール装置60などが接続されている。
The
また、制御装置1は、図2に示すように、作業者情報取得部21と、人体モデル演算部22と、人体モデル記録部23と、動作演算部24と、ロボット情報取得部25と、協調演算部26と、ロボット制御部27とを含んでいる。なお、作業者情報取得部21、人体モデル演算部22、動作演算部24、ロボット情報取得部25、協調演算部26およびロボット制御部27は、CPU11がプログラム12aを実行することにより実現される。また、人体モデル記録部23は、ROM12の記憶領域の一部によって構成されている。
In addition, as shown in FIG. 2, the
作業者情報取得部21は、各検出装置2の検出結果が入力されるように構成されている。すなわち、作業者情報取得部21は、作業者の各部位の加速度データおよび角速度データを経時的に取得している。そして、作業者情報取得部21は、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出するように構成されている。つまり、作業者情報取得部21は、作業者の部位毎についての位置情報および姿勢情報を経時的に取得している。なお、位置情報は、たとえば3次元座標の座標値であり、姿勢情報は、たとえば各座標軸に対する回転角である。また、作業者情報取得部21は、本発明の「取得部」の一例である。
The worker
人体モデル演算部22は、作業者情報取得部21により取得した位置情報および姿勢情報に基づいて、作業者の人体モデルを演算するために設けられている。この人体モデル演算部22は、作業者の各部位の位置情報および姿勢情報の経時変化から、各部位の寸法を算出することにより人体モデルを作成するようになっている。なお、人体モデル演算部22による人体モデルの演算時に、作業者に対して所定の動作を行うように促すようにしてもよい。
The human body
人体モデル記録部23には、作業者の人体モデルが記録されている。この人体モデル記録部23には、人体モデル演算部22の演算結果である人体モデルが記録されていてもよいし、ツール装置60を用いて作業者によって入力された人体モデルが記録されていてもよい。すなわち、第1実施形態では、人体モデル記録部23に対する人体モデルの記録方法が2つあり、いずれの方法で記録されていてもよい。
The human body
動作演算部24は、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報を入力することにより作業者の各部位の動作情報を演算し、その動作情報から作業者の各部位についての将来の動作を推定するように構成されている。すなわち、作業者の各部位の位置および姿勢の経時変化から各部位の動作を演算し、その演算結果に基づいて将来の動作を推定するようになっている。なお、動作演算部24は、本発明の「推定部」の一例である。
The
ロボット情報取得部25には、ロボット50から各種情報50aが入力されている。各種情報50aは、たとえば、ロボット50に関する位置情報、速度情報および経路情報などであり、ロボット50に設けられたセンサ(図示省略)によって検出される。このため、ロボット情報取得部25は、ロボット50の動作状態を判断することが可能であり、制御プログラムに基づいて動作している場合にはロボット50の将来の動作を推定することが可能である。
協調演算部26は、動作演算部24による作業者の各部位についての動作の推定結果に基づいて、ロボット50を制御するために設けられている。すなわち、協調演算部26は、作業者の予測される動作に応じてロボット50を制御するために設けられている。たとえば、協調演算部26は、作業者の動作の推定結果とロボット50の動作状態とに基づいて、ロボット50を作業者に対して安全な状態にさせる動作が必要であるか否かを判定するように構成されている。ここで、ロボット50を作業者に対して安全な状態にさせる動作の一例は、ロボット50の回避動作である。そして、協調演算部26は、回避動作が必要であると判定した場合に、所定の回避動作を演算するようになっている。また、協調演算部26は、ロボット50が回避動作している場合に、ロボット50を復帰させることが可能であるか否かを判定するように構成されている。なお、協調演算部26は、本発明の「判定部」の一例である。
The
ロボット制御部27は、ロボット50に対して動作指示を出力するために設けられている。たとえば、ロボット制御部27は、通常時である場合に、制御プログラムに基づいて所定の作業を実行するようにロボット50を制御するように構成されている。そして、ロボット制御部27は、協調演算部26により回避動作が必要であると判定された場合に、ロボット50を回避動作させるように構成されている。なお、制御プログラムに基づく所定の作業の実行中に回避動作されると、その所定の作業が中断される。また、ロボット制御部27は、協調演算部26により復帰が可能であると判定された場合に、ロボット50を復帰させるように構成されている。なお、ロボット50を復帰させるとは、中断された所定の作業を再開することである。
The
−制御システムの動作−
次に、図3を参照して、第1実施形態の制御システム100の動作について説明する。この動作には、制御装置1によるロボット50の制御方法が含まれている。
-Control system operation-
Next, the operation of the
なお、以下の各ステップはCPU11(図1参照)がプログラム12a(図1参照)を実行することにより行われる。すなわち、プログラム12aは、以下の各ステップを制御装置1(図1参照)に実行させるためのものであり、制御装置1が読み取り可能な記録媒体であるROM12(図1参照)に格納されている。
The following steps are performed by the CPU 11 (see FIG. 1) executing the
また、人体モデル記録部23(図2参照)には作業者の人体モデルが予め記録されている。この人体モデルは、人体モデル演算部22(図2参照)により記録されていてもよいし、ツール装置60(図2参照)を用いて記録されていてもよい。また、作業者の各部位には検出装置2が装着されている。
The human body model recording unit 23 (see FIG. 2) records the human body model of the worker in advance. The human body model may be recorded by the human body model calculation unit 22 (see FIG. 2) or may be recorded using the tool device 60 (see FIG. 2). A
まず、図3のステップS1において、ロボット50(図2参照)の動作制御が開始されたか否かが判断される。そして、ロボット50の動作制御が開始されたと判断された場合には、ステップS2に移る。その一方、ロボット50の動作制御が開始されていないと判断された場合には、ステップS1が繰り返し行われる。すなわち、ロボット50の動作制御が開始されるまで制御装置1が待機する。
First, in step S1 of FIG. 3, it is determined whether or not the operation control of the robot 50 (see FIG. 2) has been started. If it is determined that the operation control of the
次に、ステップS2において、作業者情報取得部21(図2参照)により、作業者の部位毎についての位置情報および姿勢情報が取得される。具体的には、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。
Next, in step S2, the worker information acquisition unit 21 (see FIG. 2) acquires position information and posture information for each part of the worker. Specifically, based on acceleration data and angular velocity data input from each
次に、ステップS3において、動作演算部24(図2参照)により、作業者の各部位の動作が推定される。具体的には、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報が入力されることにより、作業者の各部位の動作情報が演算され、その動作情報に基づいて作業者の各部位についての将来の動作が推定される。
Next, in step S3, the motion calculation unit 24 (see FIG. 2) estimates the motion of each part of the worker. Specifically, by inputting the position information and posture information of each part to the human body model recorded in the human body
次に、ステップS4において、ロボット情報取得部25(図2参照)により、ロボット50の各種情報50a(図2参照)が取得され、ロボット50の動作状態が判断される。なお、ロボット50が動作している場合には、ロボット50の動作が推定される。
Next, in step S4,
次に、ステップS5において、協調演算部26(図2参照)により、ロボット50を回避動作させる必要があるか否かが判定される。この協調演算部26は、ステップS3で得られた作業者の動作の推定結果と、ステップS4で得られたロボット50の動作状態とに基づいて、回避動作が必要であるか否かを判定する。ここで、回避動作が必要である場合とは、たとえば、作業者およびロボット50の動作予測から、作業者とロボット50とが衝突すると予測される場合である。そして、回避動作が必要ではないと判定された場合には、ステップS6に移る。その一方、回避動作が必要であると判定された場合には、ステップS7に移る。
Next, in step S5, it is determined by the cooperative calculation unit 26 (see FIG. 2) whether or not the
そして、ステップS6では、ロボット制御部27(図2参照)により、ロボット50を通常動作させる。通常動作とは、制御プログラムに基づいて所定の作業を実行するようにロボット50を動作させるものである。このステップS6では、たとえば所定の作業の一部を行い、ステップS14に移る。すなわち、このステップS6が繰り返し行われることにより、所定の作業の一部が順次行われることによって、所定の作業が一連の作業として行われるとともに、所定の作業が繰り返し行われることとなる。なお、後述するように、ロボット50を回避動作させ、制御プログラムに基づく作業が中断された後に、ロボット50を復帰させた場合におけるこのステップS6では、制御プログラムに基づく作業が中断されたところから再開される。
In step S6, the robot controller 27 (see FIG. 2) causes the
また、ステップS7では、ロボット情報取得部25により、回避動作を行う直前のロボット50の作業状態が取得され、その作業状態が記憶される。この作業状態とは、たとえば、ロボット50の位置情報および姿勢情報である。すなわち、制御装置1では、ロボット50に回避動作をさせる前に、ロボット50の位置情報および姿勢情報を記憶するようになっている。なお、ロボット50の位置情報および姿勢情報は、たとえばRAM13(図1参照)に記憶される。
In step S7, the robot
次に、ステップS8において、ロボット制御部27により、ロボット50を回避動作させる。回避動作とは、たとえば、作業者の動作が予測される領域からロボット50を退避させたり、作業者の動作が予測される領域にロボット50を侵入させないようにするものである。この回避動作は、作業者の動作の推定結果とロボット50の動作状態とに基づいて協調演算部26により演算される。そして、回避動作を行った後に、ロボット50が停止される。すなわち、制御プログラムに基づく所定の作業が中断される。
Next, in step S8, the
次に、ステップS9において、作業者情報取得部21により、作業者の部位毎についての位置情報および姿勢情報が取得される。具体的には、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。
Next, in step S9, the worker
次に、ステップS10において、動作演算部24により、作業者の各部位の動作が推定される。具体的には、人体モデル記録部23に記録された人体モデルに対して各部位の位置情報および姿勢情報が入力されることにより、作業者の各部位の動作情報が演算され、その動作情報に基づいて作業者の各部位についての将来の動作が推定される。
Next, in step S10, the
次に、ステップS11において、協調演算部26により、ロボット50を復帰させることが可能であるか否かが判定される。たとえば、ロボット50を現在の状態からステップS7で記憶した作業状態に戻しても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定される。そして、復帰が可能であると判定された場合には、ステップS12に移る。その一方、復帰が可能ではないと判定された場合には、ステップS13に移る。
Next, in step S11, the
そして、ステップS12では、ロボット制御部27により、ロボット50を復帰動作させる。具体的には、ステップS7で記憶した作業状態にロボット50を戻すように動作させる。その後、ステップS14に移る。
In step S12, the
また、ステップS13では、協調演算部26により、ロボット50を回避動作させる必要があるか否かが判定される。この協調演算部26は、ステップS10で得られた作業者の動作の推定結果と、ロボット50の現在の状態とに基づいて、回避動作が必要であるか否かを判定する。そして、回避動作が必要ではないと判定された場合には、ステップS9に戻る。その一方、回避動作が必要であると判定された場合には、ステップS8に戻る。
In step S <b> 13, the
次に、ステップS14において、ロボット50の動作制御が終了されたか否かが判断される。そして、ロボット50の動作制御が終了されたと判断された場合には、エンドに移る。その一方、ロボット50の動作制御が終了されていないと判断された場合には、ステップS2に戻る。
Next, in step S14, it is determined whether or not the operation control of the
−効果−
第1実施形態では、上記のように、作業者の各部位の位置情報および姿勢情報とその作業者の人体モデルとに基づいて作業者の各部位の動作情報を演算し、その動作情報から将来の動作を推定する動作演算部24と、その推定結果とロボット50の動作状態とに基づいて、ロボット50を制御するロボット制御部27とが設けられている。このように構成することによって、ロボット50を作業者に協調作業させる際の汎用性の向上を図ることができる。すなわち、協調作業の作業内容(制御プログラムの内容)が異なる場合であっても、作業者の各部位の動作を推定することにより、その推定される動作に応じてロボット50を適切に制御することができる。
-Effect-
In the first embodiment, as described above, the motion information of each part of the worker is calculated based on the position information and posture information of each part of the worker and the human body model of the worker, and the future is calculated from the motion information. And a
また、第1実施形態では、作業者の各部位における動作の推定結果と、ロボット50の動作状態とに基づいて、ロボット50を回避動作させる必要があるか否かを判定する協調演算部26が設けられ、ロボット制御部27は必要がある場合にロボット50を回避動作させるように構成されている。このように構成することによって、作業者の各部位とロボット50とが衝突するのを抑制することができるので、安全性の向上を図ることができる。
In the first embodiment, the
また、第1実施形態では、協調演算部26は、ロボット50が回避動作した後にロボット50を復帰させることが可能であるか否かを判定するように構成され、ロボット制御部27は可能である場合にロボット50を復帰させるように構成されている。このように構成することによって、ロボット50が自動的に作業に戻るので、安全性の向上を図りながら、作業効率の低下を抑制することができる。
In the first embodiment, the
また、第1実施形態では、位置情報および姿勢情報から人体モデルを演算する人体モデル演算部22を設けることによって、作業者の人体モデルを容易に得ることができる。
In the first embodiment, the human body model of the worker can be easily obtained by providing the human body
また、第1実施形態では、作業者の各部位の位置情報および姿勢情報とその作業者の人体モデルとに基づいて、作業者の各部位の動作を推定することによって、動作の推定精度の向上を図ることができる。 In the first embodiment, the motion estimation accuracy is improved by estimating the motion of each part of the worker based on the position information and posture information of each part of the worker and the human body model of the worker. Can be achieved.
(第2実施形態)
次に、図4を参照して、本発明の第2実施形態による制御システム100aの構成について説明する。
(Second Embodiment)
Next, the configuration of the
制御システム100aは、図4に示すように、ロボット50を制御する制御装置1aと、作業者の各部位に装着され、その各部位の動作を検出する検出装置2と、超音波センサ3と、画像センサ4と、レーザスキャナ5とを備えている。なお、超音波センサ3、画像センサ4およびレーザスキャナ5は、本発明の「機器」の一例である。
As shown in FIG. 4, the
超音波センサ3は、ロボット50と作業者との間の距離を計測し、その測距データを制御装置1aに出力するように構成されている。画像センサ4は、ロボット50および作業者が作業を行う作業領域を撮像し、その画像データを制御装置1aに出力するように構成されている。レーザスキャナ5は、ロボット50と作業者との間の距離を計測し、その測距データを制御装置1aに出力するように構成されている。そして、制御装置1aは、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果を用いて、ロボット50と作業者との間の距離データを算出するように構成されている。
The
制御装置1aは、検出装置2の検出結果の信頼性がない場合に、距離データを用いて作業者の各部位の位置情報および姿勢情報を算出するように構成されている。具体的には、制御装置1aは、作業者情報取得部21aと、人体モデル演算部22と、人体モデル記録部23と、動作演算部24と、ロボット情報取得部25と、協調演算部26と、ロボット制御部27と、信頼性判定部28とを含んでいる。
The control device 1a is configured to calculate position information and posture information of each part of the worker using the distance data when the detection result of the
信頼性判定部28は、検出装置2の検出結果(加速度データおよび角速度データ)の信頼性を判定するために設けられている。この信頼性判定部28は、制御装置1aに入力される検出装置2の検出結果が途切れた場合(検出結果が入力されなくなった場合)、および、制御装置1aに入力される検出装置2の検出結果が所定範囲外になった場合(検出結果がレンジオーバーした場合)に、信頼性がないと判定するように構成されている。なお、所定範囲は、たとえば、予め設定された範囲であり、正常時における検出結果が収まる範囲である。
The
作業者情報取得部21aは、各検出装置2の検出結果に加えて、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果が入力されるように構成されている。すなわち、作業者情報取得部21aは、作業者の各部位の加速度データおよび角速度データを経時的に取得するとともに、測距データおよび画像データを経時的に取得している。なお、測距データおよび画像データを用いて、ロボット50と作業者との間の距離データが算出される。そして、作業者情報取得部21aは、検出装置2の検出結果の信頼性がある場合に、加速度データおよび角速度データから位置情報および姿勢情報を算出し、検出装置2の検出結果の信頼性がない場合に、距離データから位置情報および姿勢情報を算出するように構成されている。つまり、作業者情報取得部21aは、作業者の部位毎についての位置情報および姿勢情報を経時的に取得しており、測距データおよび画像データは位置情報および姿勢情報を算出するための補助的なデータである。なお、作業者情報取得部21aは、本発明の「取得部」の一例である。
The worker
なお、制御装置1aのその他の構成は、上記した制御装置1と同様である。
In addition, the other structure of the control apparatus 1a is the same as that of the above-described
−制御システムの動作−
次に、図5を参照して、第2実施形態の制御システム100aの動作について説明する。なお、第2実施形態における制御システム100aの動作では、作業者情報の取得(図3のステップS2およびS9)のみが第1実施形態と異なるので、以下ではその点についてのみ説明する。
-Control system operation-
Next, the operation of the
第2実施形態の作業者情報の取得では、図5のステップS21において、検出装置2(図4参照)からの加速度データおよび角速度データが制御装置1a(図4参照)により取得される。 In acquisition of worker information according to the second embodiment, acceleration data and angular velocity data from the detection device 2 (see FIG. 4) are obtained by the control device 1a (see FIG. 4) in step S21 of FIG.
また、ステップS22において、超音波センサ3(図4参照)からの測距データが制御装置1aにより取得され、画像センサ4(図4参照)からの画像データが制御装置1aにより取得され、レーザスキャナ5(図4参照)からの測距データが制御装置1aにより取得される。そして、超音波センサ3、画像センサ4およびレーザスキャナ5の検出結果を用いて、ロボット50と作業者との間の距離データが算出される。
In step S22, the distance measurement data from the ultrasonic sensor 3 (see FIG. 4) is acquired by the control device 1a, the image data from the image sensor 4 (see FIG. 4) is acquired by the control device 1a, and the laser scanner. Ranging data from 5 (see FIG. 4) is acquired by the control device 1a. Then, distance data between the
次に、ステップS23において、信頼性判定部28(図4参照)により、検出装置2の検出結果(加速度データおよび角速度データ)の信頼性が判定される。たとえば、検出装置2の検出結果が途切れた場合や、検出装置2の検出結果が所定範囲外になった場合などに、信頼性がないと判定される。そして、信頼性がある場合には、ステップS24に移り、信頼性がない場合には、ステップS25に移る。
Next, in step S23, the reliability of the detection result (acceleration data and angular velocity data) of the
そして、ステップS24では、作業者情報取得部21aにより、各検出装置2から入力される加速度データおよび角速度データに基づいて、各部位の位置情報および姿勢情報が算出される。
In step S24, the worker
また、ステップS25では、作業者情報取得部21aにより、距離データに基づいて、各部位の位置情報および姿勢情報が算出される。
In step S25, the worker
−効果−
第2実施形態では、上記のように、検出装置2の検出結果の信頼性を判定する信頼性判定部28と、信頼性がない場合に超音波センサ3および画像センサ4の検出結果に基づいて位置情報および姿勢情報を算出する作業者情報取得部21aとが設けられている。このように構成することによって、制御システム100aの信頼性を向上させることができる。
-Effect-
In the second embodiment, as described above, based on the
また、第2実施形態では、超音波センサ3、画像センサ4およびレーザスキャナ5を設けることによって、距離データの精度向上を図ることができる。
In the second embodiment, the accuracy of the distance data can be improved by providing the
なお、第2実施形態のその他の効果は、第1実施形態と同様である。 The remaining effects of the second embodiment are similar to those of the first embodiment.
(他の実施形態)
なお、今回開示した実施形態は、すべての点で例示であって、限定的な解釈の根拠となるものではない。したがって、本発明の技術的範囲は、上記した実施形態のみによって解釈されるものではなく、特許請求の範囲の記載に基づいて画定される。また、本発明の技術的範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
(Other embodiments)
In addition, embodiment disclosed this time is an illustration in all the points, Comprising: It does not become a basis of limited interpretation. Therefore, the technical scope of the present invention is not interpreted only by the above-described embodiments, but is defined based on the description of the scope of claims. Further, the technical scope of the present invention includes all modifications within the meaning and scope equivalent to the scope of the claims.
たとえば、第1実施形態では、ロボット50がロボットアームである例を示したが、これに限らず、制御対象が部品を搬送する搬送装置などであってもよい。すなわち、制御対象はたとえば産業機械である。
For example, in the first embodiment, an example in which the
また、第1実施形態では、複数の検出装置2により作業者の全身の動作を検出する例を示したが、これに限らず、作業者の局部(たとえば、上半身)の動作のみを検出するようにしてもよい。
In the first embodiment, an example in which the movement of the whole body of the worker is detected by the plurality of
また、第1実施形態では、CPU11がプログラム12aを実行することにより、作業者情報取得部21、人体モデル演算部22、動作演算部24、ロボット情報取得部25、協調演算部26およびロボット制御部27が実現される例を示したが、これに限らず、作業者情報取得部、人体モデル演算部、動作演算部、ロボット情報取得部、協調演算部およびロボット制御部がそれぞれハードウェアで構成されていてもよい。
In the first embodiment, when the
また、第1実施形態では、加速度データおよび角速度データに基づいて、位置情報および姿勢情報を算出する例を示したが、これに限らず、速度データ、角加速度データ、圧力データおよび磁気データなどに基づいて、位置情報および姿勢情報を算出するようにしてもよい。すなわち、検出装置2が加速度データおよび角速度データを検出する例を示したが、これに限らず、検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成されていればよい。
In the first embodiment, the example in which the position information and the posture information are calculated based on the acceleration data and the angular velocity data is shown. However, the present invention is not limited to this, and the velocity data, the angular acceleration data, the pressure data, the magnetic data, and the like are used. Based on this, position information and posture information may be calculated. That is, although the example in which the
また、第1実施形態では、作業者情報取得部21が、加速度データおよび角速度データを取得し、その加速度データおよび角速度データを用いて位置情報および姿勢情報を算出する例を示したが、これに限らず、作業者情報取得部が、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて位置情報および姿勢情報の少なくともいずれか一方を算出するようにすればよい。
In the first embodiment, the worker
また、第1実施形態では、人体モデル演算部22が位置情報および姿勢情報に基づいて作業者の人体モデルを演算する例を示したが、これに限らず、人体モデル演算部が位置情報または姿勢情報に基づいて作業者の人体モデルを演算するようにしてもよい。
In the first embodiment, the human body
また、第1実施形態では、制御装置1に人体モデル演算部22が設けられるとともに、ツール装置60から人体モデルを入力可能に構成する例を示したが、これに限らず、人体モデル演算部22が設けられていれば、ツール装置60から人体モデルを入力できないようにしてもよいし、ツール装置60から人体モデルを入力可能であれば、人体モデル演算部22が設けられていなくてもよい。
Moreover, in 1st Embodiment, while the human body
また、第1実施形態では、人体モデル記録部23が設けられる例を示したが、これに限らず、作業者の人体モデルを外部から入手可能であれば、人体モデル記録部が設けられていなくてもよい。
In the first embodiment, an example in which the human body
また、第1実施形態では、動作演算部24が、位置情報および姿勢情報と人体モデルとから動作情報を演算するとともに、その動作情報から将来の動作を推定する例を示したが、これに限らず、動作演算部が、位置情報または姿勢情報と人体モデルとから動作情報を演算するとともに、その動作情報から将来の動作を推定するようにしてもよい。また、動作演算部が、位置情報および姿勢情報の少なくともいずれか一方と人体モデルとから動作情報を演算し、作業者の将来の動作を推定しないようにしてもよい。この場合には、協調演算部が、動作情報(現在までの動作の推定結果)とロボットの状態とに基づいて、ロボットを回避動作させる必要があるか否かを判定するようにしてもよい。すなわち、作業者の将来までの動作を推定し、その推定結果とロボットの状態とに基づいてロボットを制御するようにしてもよいし、作業者の現在までの動作を推定し、その推定結果とロボットの状態とに基づいてロボットを制御するようにしてもよい。
In the first embodiment, the
また、第1実施形態では、ロボット情報取得部25にロボット50から各種情報50aが入力される例を示したが、これに限らず、制御装置がロボットの各種情報を把握していれば、ロボット情報取得部にロボットから各種情報が入力されていなくてもよい。
In the first embodiment, an example in which
また、第1実施形態のフローチャートでは、作業者情報を取得した後に、ロボット情報を取得する例を示したが、これに限らず、作業者情報およびロボット情報を同時に取得してもよいし、ロボット情報を取得した後に、作業者情報を取得するようにしてもよい。すなわち、図3のフローチャートは、一例であってその手順に限定されるものではない。 Moreover, although the example which acquires robot information after acquiring operator information was shown in the flowchart of 1st Embodiment, it is not restricted to this, You may acquire operator information and robot information simultaneously, and a robot The worker information may be acquired after the information is acquired. That is, the flowchart of FIG. 3 is an example and is not limited to the procedure.
また、第1実施形態では、作業者とロボット50とが衝突すると予測される場合に、回避動作が必要であると判断する例を示したが、これに限らず、作業者とロボットとが衝突すると予測される場合において、その衝突時の衝撃が大きい場合に、回避動作が必要であると判断するようにしてもよい。すなわち、衝撃が小さい場合には回避動作をさせずに衝突を許容するようにしてもよい。
Further, in the first embodiment, an example in which it is determined that an avoidance operation is necessary when the worker and the
また、第1実施形態では、ロボット50を現在の状態からステップS7で記憶した作業状態に戻しても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定する例を示したが、これに限らず、ロボット50を現在の状態からステップS7で記憶した作業状態に戻し、その後の作業(制御プログラムに基づく作業であって、中断されたところから再開される作業)を行っても、ロボット50が作業者と衝突しないと判断される場合に、ロボット50を復帰させることが可能であると判定するようにしてもよい。
In the first embodiment, when it is determined that the
また、第1実施形態では、協調演算部26が、作業者の動作の推定結果とロボット50の動作状態とに基づいて、ロボット50を回避動作させる必要があるか否かを判定する例を示したが、これに限らず、協調演算部(判定部)が、作業者の動作の推定結果とロボットの動作状態とに基づいて、ロボットを減速動作または停止動作させる必要があるか否かを判定するように構成されていてもよい。この場合には、ロボット制御部は、協調演算部により減速動作または停止動作が必要であると判定された場合に、ロボットを減速動作または停止動作させるように構成されていてもよい。この減速動作および停止動作は、ロボット50を作業者に対して安全な状態にさせる動作の一例である。なお、減速動作とは、ロボットの動作速度を減少させる動作であり、停止動作とは、ロボットの動作速度をゼロにさせる動作である。また、減速動作または停止動作が必要である場合とは、たとえば、作業者およびロボットの動作予測から、作業者とロボットとが衝突すると予測される場合である。
Moreover, in 1st Embodiment, the
なお、上記した第1実施形態の変形例を第2実施形態に適用してもよい。 Note that a modification of the first embodiment described above may be applied to the second embodiment.
また、第2実施形態では、超音波センサ3、画像センサ4およびレーザスキャナ5が設けられる例を示したが、これに限らず、超音波センサ、画像センサおよびレーザスキャナのうちの少なくとも1つが設けられていればよい。
In the second embodiment, an example in which the
また、第2実施形態では、距離データに基づいて位置情報および姿勢情報を算出し、その位置情報および姿勢情報を用いて各部位の動作情報を算出する例を示したが、これに限らず、距離データに基づいて位置情報および姿勢情報を算出することなく、距離データから直接各部位の動作情報を算出するようにしてもよい。 In the second embodiment, the position information and the posture information are calculated based on the distance data, and the motion information of each part is calculated using the position information and the posture information. The motion information of each part may be directly calculated from the distance data without calculating the position information and the posture information based on the distance data.
また、第2実施形態では、測距データおよび画像データを同時に取得する例を示したが、これに限らず、測距データおよび画像データの取得タイミングが前後していてもよい。 In the second embodiment, the example in which the distance measurement data and the image data are acquired simultaneously has been described. However, the present invention is not limited to this, and the acquisition timing of the distance measurement data and the image data may be changed.
また、第2実施形態では、制御装置1aに入力される検出装置2の検出結果が途切れた場合に信頼性がないと判定する例を示したが、これに限らず、検出結果が途切れた状態が所定期間継続した場合に、信頼性がないと判定するようにしてもよい。同様に、制御装置1aに入力される検出装置2の検出結果が所定範囲外になった場合に信頼性がないと判定する例を示したが、これに限らず、検出結果が所定範囲外になった状態が所定期間継続した場合に、信頼性がないと判定するようにしてもよい。
Moreover, in 2nd Embodiment, although the example which determines that there is no reliability when the detection result of the
本発明は、制御装置、制御システム、制御方法およびプログラムに利用可能である。 The present invention is applicable to a control device, a control system, a control method, and a program.
1、1a 制御装置(コンピュータ)
2 検出装置
3 超音波センサ(機器)
4 画像センサ(機器)
5 レーザスキャナ(機器)
12a プログラム
21、21a 作業者情報取得部(取得部)
22 人体モデル演算部
23 人体モデル記録部
24 動作演算部(推定部)
26 協調演算部(判定部)
27 ロボット制御部(制御部)
28 信頼性判定部
50 ロボット(制御対象)
100、100a 制御システム
1, 1a Control device (computer)
2
4 Image sensors (equipment)
5 Laser scanner (equipment)
22 human body
26 Cooperative operation unit (determination unit)
27 Robot control unit (control unit)
28
100, 100a control system
Claims (18)
作業者の位置情報および姿勢情報の少なくともいずれか一方を取得する取得部と、
前記位置情報および前記姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定する推定部と、
前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を制御する制御部とを備えることを特徴とする制御装置。 A control device for controlling a control object,
An acquisition unit for acquiring at least one of position information and posture information of the worker;
Based on at least one of the position information and the posture information and the human body model of the worker, an estimation unit that estimates the movement of each part of the worker;
A control apparatus comprising: a control unit that controls the control target based on an estimation result of the estimation unit and a state of the control target.
前記推定部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、作業者の各部位の動作情報を演算するとともに、前記動作情報から作業者の将来の動作を推定するように構成され、
前記制御部は、前記作業者の将来の動作と前記制御対象の状態とに基づいて、前記制御対象を制御するように構成されていることを特徴とする制御装置。 The control device according to claim 1,
The estimation unit calculates motion information of each part of the worker based on at least one of the position information and the posture information and the human body model, and calculates a future motion of the worker from the motion information. Configured to estimate,
The said control part is comprised so that the said control object may be controlled based on the future operation | movement of the said operator, and the state of the said control object, The control apparatus characterized by the above-mentioned.
前記推定部は、前記位置情報および前記姿勢情報の少なくともいずれか一方と前記人体モデルとに基づいて、作業者の各部位の動作情報を演算するように構成され、
前記制御部は、前記動作情報と前記制御対象の状態とに基づいて、前記制御対象を制御するように構成されていることを特徴とする制御装置。 The control device according to claim 1,
The estimation unit is configured to calculate motion information of each part of an operator based on at least one of the position information and the posture information and the human body model,
The control device is configured to control the control target based on the operation information and a state of the control target.
前記取得部は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを取得し、その取得したデータを用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御装置。 In the control device according to any one of claims 1 to 3,
The acquisition unit acquires at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data, and uses the acquired data to at least one of the position information and the posture information. A control device configured to calculate one of them.
前記取得部が取得するデータの信頼性を判定する信頼性判定部を備え、
前記取得部は、前記信頼性判定部により前記データの信頼性がないと判定された場合に、距離データを用いて、前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御装置。 The control device according to claim 4,
A reliability determination unit that determines the reliability of data acquired by the acquisition unit;
The acquisition unit is configured to calculate at least one of the position information and the posture information using distance data when the reliability determination unit determines that the data is not reliable. A control device characterized by that.
前記信頼性判定部は、前記データが途切れた場合、および、前記データが予め設定された範囲外になった場合に、前記データの信頼性がないと判定するように構成されていることを特徴とする制御装置。 The control device according to claim 5,
The reliability determination unit is configured to determine that the data is not reliable when the data is interrupted and when the data is out of a preset range. Control device.
前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を作業者に対して安全な状態にさせる動作が必要であるか否かを判定する判定部を備えることを特徴とする制御装置。 In the control device according to any one of claims 1 to 6,
And a determination unit that determines whether or not an operation for bringing the control target into a safe state for an operator is necessary based on the estimation result of the estimation unit and the state of the control target. Control device.
前記判定部は、前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を回避動作させる必要があるか否かを判定するように構成され、
前記制御部は、前記判定部により回避動作が必要であると判定された場合に、前記制御対象を回避動作させるように構成されていることを特徴とする制御装置。 The control device according to claim 7,
The determination unit is configured to determine whether or not the control target needs to be avoided based on the estimation result of the estimation unit and the state of the control target.
The control device is configured to cause the control target to perform an avoidance operation when the determination unit determines that an avoidance operation is necessary.
前記判定部は、前記制御対象が回避動作した後に、前記制御対象を復帰させることが可能であるか否かを判定するように構成され、
前記制御部は、前記判定部により復帰が可能であると判定された場合に、前記制御対象を復帰させるように構成されていることを特徴とする制御装置。 The control device according to claim 8, wherein
The determination unit is configured to determine whether or not the control object can be returned after the control object performs an avoidance operation,
The control device is configured to return the control target when the determination unit determines that the return is possible.
前記判定部は、前記推定部の推定結果と前記制御対象の状態とに基づいて、前記制御対象を減速動作または停止動作させる必要があるか否かを判定するように構成され、
前記制御部は、前記判定部により減速動作または停止動作が必要であると判定された場合に、前記制御対象を減速動作または停止動作させるように構成されていることを特徴とする制御装置。 The control device according to claim 7,
The determination unit is configured to determine whether or not the control target needs to be decelerated or stopped based on the estimation result of the estimation unit and the state of the control target.
The control unit is configured to cause the control target to perform a deceleration operation or a stop operation when the determination unit determines that a deceleration operation or a stop operation is necessary.
前記人体モデルが記録された人体モデル記録部を備えることを特徴とする制御装置。 In the control device according to any one of claims 1 to 10,
A control apparatus comprising a human body model recording unit in which the human body model is recorded.
前記位置情報および前記姿勢情報の少なくともいずれか一方から前記人体モデルを演算する人体モデル演算部を備えることを特徴とする制御装置。 The control device according to any one of claims 1 to 11,
A control apparatus comprising: a human body model calculation unit that calculates the human body model from at least one of the position information and the posture information.
作業者の各部位に装着され、その各部位の動作を検出する検出装置とを備えることを特徴とする制御システム。 A control device according to any one of claims 1 to 12,
A control system comprising: a detection device that is attached to each part of an operator and detects an operation of each part.
前記検出装置は、加速度データ、角速度データ、速度データ、角加速度データ、圧力データおよび磁気データのうちの少なくとも1つを検出するように構成され、
前記制御装置の取得部は、前記検出装置の検出結果を取得し、その取得した検出結果を用いて前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御システム。 The control system according to claim 13.
The detection device is configured to detect at least one of acceleration data, angular velocity data, velocity data, angular acceleration data, pressure data, and magnetic data;
The acquisition unit of the control device is configured to acquire a detection result of the detection device, and calculate at least one of the position information and the posture information using the acquired detection result. And control system.
距離を計測するための機器を備え、
前記制御装置は、前記検出装置の検出結果の信頼性を判定する信頼性判定部を含み、
前記制御装置の取得部は、前記信頼性判定部により前記検出装置の検出結果の信頼性がないと判定された場合に、前記機器の検出結果を用いて、前記位置情報および前記姿勢情報の少なくともいずれか一方を算出するように構成されていることを特徴とする制御システム。 The control system according to claim 13 or 14,
With equipment to measure distance,
The control device includes a reliability determination unit that determines the reliability of the detection result of the detection device,
The acquisition unit of the control device uses the detection result of the device to determine at least the position information and the posture information when the reliability determination unit determines that the detection result of the detection device is not reliable. A control system configured to calculate either one of them.
前記機器は、画像センサ、超音波センサおよびレーザスキャナのうちの少なくとも1つを含むことを特徴とする制御システム。 The control system according to claim 15, wherein
The control apparatus includes at least one of an image sensor, an ultrasonic sensor, and a laser scanner.
作業者の位置情報および姿勢情報の少なくともいずれか一方を取得するステップと、
前記位置情報および前記姿勢情報の少なくともいずれか一方と作業者の人体モデルとに基づいて、作業者の各部位の動作を推定するステップと、
その推定結果と前記制御対象の状態とに基づいて、前記制御対象を制御するステップとを備えることを特徴とする制御方法。 A control method for controlling a control object,
Acquiring at least one of position information and posture information of the worker;
Estimating the movement of each part of the worker based on at least one of the position information and the posture information and the human body model of the worker;
And a step of controlling the control object based on the estimation result and the state of the control object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016025961A JP2017144490A (en) | 2016-02-15 | 2016-02-15 | Control device, control system, control method and program |
PCT/JP2017/000402 WO2017141569A1 (en) | 2016-02-15 | 2017-01-10 | Control device, control system, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016025961A JP2017144490A (en) | 2016-02-15 | 2016-02-15 | Control device, control system, control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017144490A true JP2017144490A (en) | 2017-08-24 |
Family
ID=59624997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016025961A Pending JP2017144490A (en) | 2016-02-15 | 2016-02-15 | Control device, control system, control method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017144490A (en) |
WO (1) | WO2017141569A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021171358A1 (en) * | 2020-02-25 | 2021-09-02 | ||
JP7098080B1 (en) * | 2021-09-08 | 2022-07-08 | 三菱電機株式会社 | Robot control device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7362107B2 (en) * | 2019-09-30 | 2023-10-17 | Johnan株式会社 | Control device, control method and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7469166B2 (en) * | 2001-06-29 | 2008-12-23 | Honda Motor Co., Ltd. | System and method of predicting novel motion in a serial chain system |
JP4148281B2 (en) * | 2006-06-19 | 2008-09-10 | ソニー株式会社 | Motion capture device, motion capture method, and motion capture program |
JP5048886B2 (en) * | 2011-01-17 | 2012-10-17 | パナソニック株式会社 | Safety device and preliminary operation determination method |
JP2014180519A (en) * | 2013-03-21 | 2014-09-29 | Casio Comput Co Ltd | Information processing apparatus, information processing method and program |
JP6218307B2 (en) * | 2013-06-06 | 2017-10-25 | 国立大学法人九州工業大学 | Standing motion guidance system |
-
2016
- 2016-02-15 JP JP2016025961A patent/JP2017144490A/en active Pending
-
2017
- 2017-01-10 WO PCT/JP2017/000402 patent/WO2017141569A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021171358A1 (en) * | 2020-02-25 | 2021-09-02 | ||
JP7364032B2 (en) | 2020-02-25 | 2023-10-18 | 日本電気株式会社 | Control device, control method and program |
JP7098080B1 (en) * | 2021-09-08 | 2022-07-08 | 三菱電機株式会社 | Robot control device |
US12017372B2 (en) | 2021-09-08 | 2024-06-25 | Mitsubishi Electric Corporation | Robot control device |
Also Published As
Publication number | Publication date |
---|---|
WO2017141569A1 (en) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6484265B2 (en) | Robot system having learning control function and learning control method | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
JP5893684B2 (en) | Robot control device for preventing erroneous determination by collision determination unit | |
JP6445092B2 (en) | Robot system displaying information for teaching robots | |
US10481571B2 (en) | Robot controller which automatically sets interference region for robot | |
JP2007144524A (en) | Interference avoiding method of robot and robot | |
JP6916157B2 (en) | Robot systems that collaborate with people and robot control methods | |
US10406688B2 (en) | Offline programming apparatus and method having workpiece position detection program generation function using contact sensor | |
EP3418835B1 (en) | Work region estimation device, control device, control system, work region estimation method, and program | |
WO2017141569A1 (en) | Control device, control system, control method, and program | |
JP2008183690A (en) | Robot control device and system | |
JP5228783B2 (en) | Robot origin return device | |
WO2017141579A1 (en) | Determination device, control device, control system, determination method, and program | |
JP2017077600A (en) | Manipulator device | |
CN116728397A (en) | Robot system, robot control method, and computer-readable storage medium | |
US20230125071A1 (en) | Offline teaching device and motion-program generation method | |
WO2017141570A1 (en) | Monitoring device, control device, control system, monitoring method, and program | |
US10635080B2 (en) | Work region estimation device, control device, control system, work region estimation method, and non-transitory computer-readable recording medium | |
WO2023095926A1 (en) | Robot control device, robot control system, and robot control method | |
US20220362934A1 (en) | Control device, control method, and program | |
JP2015208790A (en) | Device and method of estimating center of gravity | |
KR20200076541A (en) | Control algorithm of medical robotic arms attached to autonomous cart |