JP2017061026A - Robot control device, robot control method, robot system and computer program - Google Patents
Robot control device, robot control method, robot system and computer program Download PDFInfo
- Publication number
- JP2017061026A JP2017061026A JP2015188932A JP2015188932A JP2017061026A JP 2017061026 A JP2017061026 A JP 2017061026A JP 2015188932 A JP2015188932 A JP 2015188932A JP 2015188932 A JP2015188932 A JP 2015188932A JP 2017061026 A JP2017061026 A JP 2017061026A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- human
- information
- notification
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、産業用ロボットの分野における、人間の危険回避のためのロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラムに関する。 The present invention relates to a robot control apparatus, a robot control method, a robot system, and a computer program for avoiding human danger in the field of industrial robots.
産業用ロボット(以下、「ロボット」と称する。)を使用する際には、ロボットの周囲に位置する人間(ロボットを使用する作業者、メンテナンス担当者等)の危険回避のための制御が必要となる。この危険回避の制御として、安全管理者又は作業者が予め設定した領域に、人間が侵入又は接近した場合に、ロボットを停止又は減速する制御が知られている。
特許文献1は、作業者が安全のため進入が禁止されている禁止領域に侵入している場合に、ロボットを停止させる、または、ロボットの動力電源を遮断するロボット制御装置を開示する。特許文献2は、ロボットの位置が作業者の作業領域内にある場合に、ロボットを所定速度以下に減速するロボット制御装置を開示する。また、特許文献3は、作業者及びロボットの現在の位置及び移動速度から、それぞれの将来位置を予測して、作業者とロボットとの接触可能性を判断し、判断結果に応じた停止又は減速処理を行う安全制御装置を開示する。
When using an industrial robot (hereinafter referred to as a “robot”), it is necessary to control for avoiding the danger of humans (operators using the robot, maintenance personnel, etc.) located around the robot. Become. As this risk avoidance control, there is known control for stopping or decelerating a robot when a human enters or approaches an area set in advance by a safety manager or an operator.
Patent Document 1 discloses a robot control device that stops a robot or shuts off a power source of a robot when an operator has entered a prohibited area where entry is prohibited for safety. Patent Document 2 discloses a robot control device that decelerates a robot to a predetermined speed or less when the position of the robot is within the operator's work area. Patent Document 3 predicts the future positions of the workers and robots from the current positions and moving speeds, determines the possibility of contact between the workers and the robot, and stops or slows down according to the determination results. A safety control device that performs processing is disclosed.
しかしながら、従来の制御には以下の問題点があった。特許文献1では、ロボットの動作領域に作業者が侵入する度に、ロボットが停止してしまい、ロボットの作業効率が低下してしまう。特許文献2では、ロボットが作業領域内にある場合にロボットが減速される。このため、ロボットと作業者とがある時点で接近しただけで、将来接触の可能性が低い場合でも、その度にロボットが減速してしまい、作業効率が低下してしまう。
また、特許文献3では、ロボットの作業領域への人間の侵入の有無、人間とロボットの位置や移動速度等による接触判定のみで危険回避の要否を判断している。このため、人間がロボットを認識しているため人間側から危険回避動作が可能であり、ロボットの停止や減速をする必要がない場合であっても、その度にロボットの停止や減速を行ってしまう。したがって、ロボットの停止や減速が頻繁に発生し、ロボットの作業が滞って、ロボットの作業効率や生産性が低下してしまう。
However, the conventional control has the following problems. In Patent Document 1, each time an operator enters the operation area of the robot, the robot stops and the work efficiency of the robot decreases. In Patent Document 2, the robot is decelerated when the robot is in the work area. For this reason, even if the robot and the worker just approach each other at a certain point and the possibility of future contact is low, the robot is decelerated each time, and the work efficiency is lowered.
Further, in Patent Document 3, whether or not danger avoidance is necessary is determined only by contact determination based on the presence / absence of human intrusion into the work area of the robot, the position and movement speed of the human and the robot. For this reason, since humans recognize the robot, it is possible to perform danger avoidance operations from the human side, and even when there is no need to stop or decelerate the robot, stop and decelerate the robot each time. End up. Therefore, the robot is frequently stopped and decelerated, the work of the robot is delayed, and the work efficiency and productivity of the robot are lowered.
特に、ロボット側で動作経路をチューニングしたり、部品をランダムピッキングするロボットシステムでは、ロボットの動作経路が前回から変更され得るため、人間が変更(更新)されたロボットの軌道を予測することは困難である。この場合、ロボットがいつも同じ動作をするという前提で作業をしていると、ロボットが予測できない動作をしたときに、人間がロボットの動作に合わせて作業することが困難となる。このため、ロボットが人間等と接触等する危険が増大し、危険回避の制御の必要性がより高まる。
本発明は、上記課題に鑑みてなされたものであり、その目的は、人間の安全性を確保しつつ、ロボットによる作業の作業効率の低下を抑制して生産性をより向上することの可能なロボット制御装置及びロボット制御方法を提供することにある。
In particular, in robot systems that tune the motion path on the robot side or pick parts randomly, it is difficult to predict the trajectory of a robot that has been changed (updated) by a human because the robot motion path can be changed from the previous time. It is. In this case, if the robot is working on the assumption that it always performs the same operation, it becomes difficult for a human to work in accordance with the operation of the robot when the robot performs an unpredictable operation. For this reason, the danger that the robot will come into contact with a human or the like increases, and the necessity of risk avoidance control increases.
The present invention has been made in view of the above-described problems, and the object thereof is to improve productivity by suppressing a decrease in work efficiency of a robot operation while ensuring human safety. A robot control apparatus and a robot control method are provided.
上記課題を解決するために、本発明の一態様に係るロボット制御装置は、 ロボットの動作を制御するためのロボット制御装置であって、前記ロボットの位置を取得する取得手段と、人間の位置を検出する第1の検出手段と、前記人間が知覚可能な報知情報を報知する報知手段と、前記報知手段により出力された前記報知情報に応じた前記人間の反応を検出する第2の検出手段と、前記第2の検出手段により検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定する動作決定手段と、を具備する。
また、本発明の他の一態様に係るロボット制御方法は、ロボットの動作を制御するためのロボット制御方法であって、制御されるべき前記ロボットの位置を取得するステップと、人間の位置を検出するステップと、前記人間が知覚可能な報知情報を報知するステップと、報知された前記報知情報に応じた前記人間の反応を検出するステップと、検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定するステップと、を含む。
In order to solve the above-described problem, a robot control device according to an aspect of the present invention is a robot control device for controlling the operation of a robot, and includes an acquisition unit that acquires the position of the robot, and a human position. First detecting means for detecting, notifying means for notifying the notification information perceivable by the human, and second detecting means for detecting the human reaction according to the notification information output by the notifying means; And an action determining means for determining an action of the robot based on the reaction of the human detected by the second detecting means.
A robot control method according to another aspect of the present invention is a robot control method for controlling the operation of a robot, the step of obtaining the position of the robot to be controlled, and the detection of a human position. Based on the detected reaction of the human, the step of detecting the notification information perceivable by the human, the step of detecting the human reaction according to the notified notification information, Determining the operation of the robot.
本発明によれば、人間の安全性を確保しつつ、ロボットの作業効率の低下を抑制して生産性をより向上することができる。 ADVANTAGE OF THE INVENTION According to this invention, the fall of the working efficiency of a robot can be suppressed and productivity can be improved more, ensuring a human safety.
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
実施形態1
実施形態1に係るロボット制御装置は、所定の報知情報を、危険を回避すべき人間に報知し、報知情報に対する人間の反応を検出して、人間が報知情報を視覚等により意識したか(知覚したか)を推定する。ここで、報知情報とは、検出される人間の反応を得るため、人間が知覚可能な刺激として報知される情報である。接触などの危険予測情報と、この報知情報を意識したか(知覚したか)否かの推定結果に従って、ロボットが実行すべき危険回避動作を決定する。この危険回避動作の決定において、例えば、報知された情報を人間が意識している場合は、ロボットをそのまま動作させ、一方、報知された情報を人間が意識していない場合には、ロボットを減速したり、停止したりする。
Embodiment 1
The robot control apparatus according to the first embodiment notifies predetermined notification information to a person who should avoid danger, detects a human reaction to the notification information, and whether the person is aware of the notification information visually (perception) Estimated). Here, the notification information is information that is notified as a stimulus that can be perceived by a human to obtain a detected human reaction. A risk avoidance operation to be executed by the robot is determined according to risk prediction information such as contact and an estimation result of whether or not the notification information is conscious (perceived). In determining the risk avoidance operation, for example, when a person is conscious of the notified information, the robot is operated as it is. On the other hand, when the person is not conscious of the notified information, the robot is decelerated. To stop or stop.
人間がロボットと近接して作業する場合、ロボットがすでに生成された動作を変更することでロボットの動作が前回までと変わると、人間は、ロボットの変更された動作を予測できない場合がある。
このような場合に、実施形態1によれば、危険が予測された場合に、報知された情報(報知情報)を人間が意識(知覚)しているかによって、将来においての危険回避動作を決定する。ここで、本実施形態1においては、ロボットの動作の変更を含んだ状況を人間に報知し、人間の反応を観察することによって、人間がその報知情報を見て意識(知覚)したか否かを推定する。
このため、従来はロボットが停止していた状況においても、ロボットを継続して稼働させることができ、生産性が向上する。なお、本実施形態1において、「意識する」とは、人間が報知情報を知覚した状態をいう。また、「知覚する」とは、人間が、感覚器官を通じて外部のイベントを感得することをいい、例えば、後述のように報知情報が人間の視野内に入ったことを以って推定され得る。
When a human works in close proximity to the robot, if the robot's motion changes from the previous time by changing the motion already generated by the robot, the human may not be able to predict the changed motion of the robot.
In such a case, according to the first embodiment, when a danger is predicted, a future risk avoidance operation is determined depending on whether a person is conscious (perceived) of the notified information (notification information). . Here, in the first embodiment, whether or not a human being is conscious (perceived) by viewing the notification information by notifying a human being of a situation including a change in the operation of the robot and observing the human reaction. Is estimated.
For this reason, the robot can be continuously operated even in the situation where the robot is stopped conventionally, and the productivity is improved. In the first embodiment, “being conscious” means a state in which a human perceives notification information. Further, “perceive” means that a human senses an external event through a sensory organ, and can be estimated, for example, when notification information enters the human visual field as described later.
図1は、実施形態1のロボットシステム8の構成を示す。ロボットシステム8は、ロボット制御装置10と、ロボット11と、センサー12と、を備える。ロボット制御装置10は、制御部101と、ロボット位置取得部102(取得手段)と、画像情報取得部103と、人間位置検出部104(第1の検出手段)と、危険予測部105(予測手段)、を備える。実施形態1において、ロボット制御装置10は、さらに、情報報知部106(報知手段)と、反応情報検出部107(第2の検出手段)と、知覚(意識)状態推定部108(意識状態推定手段)と、危険回避対応動作決定部109(動作決定手段)と、を備える。
FIG. 1 shows a configuration of a robot system 8 according to the first embodiment. The robot system 8 includes a
ロボット11は、図示されないロボットアームと、このロボットアーム先端に備えられるロボットハンドとから構成される。このロボットアームは、複数のリンクと、リンク同士を接続する1つ又は複数のジョイント(関節)とを備える。
ロボット11は、ロボット制御装置10の制御部101に接続され、制御部101からの動作指示によって動作するとともに、動作するロボットの各部の位置を制御部101に出力する。ロボット11は、必要に応じて、アーム土台となるベース部、アームを駆動するサーボモータ、およびこのサーボモータの角度位置を検出するエンコーダ等を備える。
The
The
実施形態1において、ロボット11には、ロボット制御装置10の危険予測部から制御され、報知するための情報を出力する1つ又は複数の情報報知部106が配設される。
ロボット制御装置10の制御部101は、作業者からのロボット11の動作の指示(ティーチング)に基づき、ロボットの動作を制御する。具体的には、制御部101は、作業者が例えば部品(ワーク)を位置Aから位置Bへ移動させると指示した結果に基づき、障害物を回避して部品を位置Aから位置Bに移動するためのロボットの動作を規定する動作計画情報を生成(プランニング)する。ここで、位置Aはロボットの動作開始点で、位置Bはロボットの動作終了点とする。制御部101は、動作計画情報として、記憶手段(図7の外部メモリ714など)に、ロボット11で位置Aから位置Bへ部品を移動させるための動作の計画を保持している。
In the first embodiment, the
The
実施形態1において、制御部101は、初めに生成した動作計画情報を、タクトタイム短縮、軌道短縮、動作の円滑化、等の目的で、動作をチューニングする機能を有しており、生産性がより向上するようロボットの動作計画情報を変更する。つまり、ロボット11は毎回同じ動作を繰り返すとは限らず、制御部101が動作計画情報を変更すると、前回までとロボットの軌道が変更されることになる。
動作計画情報が変更される場合としては、この他、次の場合がある。まず、制御部101は、後述する危険回避対応動作決定部109(動作決定手段)が決定した危険回避対応動作に従って、ロボット11の動作計画情報を変更する。
さらに、部品の位置Aが予め指定された位置にない場合も考えられる。この場合は、センサーにより部品の置いてある位置Aを新たに取得し、取得した新たな位置Aに基づき部品の移動先である位置Bへ部品を移動する動作計画情報をプランニングして求めることになる。このように、ロボット11が部品を把持する位置Aが当初の位置と異なっている場合も、ロボット11の動作計画情報が前回から変更される。さらに、数種類の部品を組み付ける作業の場合にも、位置A、位置B共にその都度位置が異なり、ロボット11が生成する動作計画情報がその都度変更されることになる。
In the first embodiment, the
Other cases in which the operation plan information is changed include the following cases. First, the
Further, there may be a case where the position A of the component is not at a position designated in advance. In this case, the position A where the part is placed is newly acquired by the sensor, and the operation plan information for moving the part to the position B where the part is moved based on the acquired new position A is obtained by planning. Become. Thus, also when the position A at which the
制御部101は、ロボット11の動作計画情報が変更された場合、この変更状況を、ロボットの状況についての変更情報として保持記憶する。
ロボット位置取得部102(取得手段)は、制御部101が保持しているロボット11の動作計画情報から、ロボット11を構成するロボットアーム(アームを構成する各リンク)とロボットハンドの軌道を取得する。そして、ロボット位置取得部102は、ロボット11の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボットの位置の情報として算出する。この際、ロボット位置取得部102は、ロボット11の軌道の他に、ロボット11の現在の位置を制御部101から取得する。
When the operation plan information of the
The robot position acquisition unit 102 (acquisition means) acquires the robot arm (each link configuring the robot) and the trajectory of the robot hand from the operation plan information of the
センサー12は、本実施形態1乃至3では、例えば、ロボットの作業領域や作業者などの画像を撮像する撮像カメラを利用することができる。具体的には、センサー12は、画像を撮像する複数の撮像カメラを含み、撮像画像を外部出力するための回路やインターフェースを備える。センサー12は、撮像カメラにより撮像される画像に、人間(作業者等)が含まれるように、画像を撮像する。
センサー12はロボットの作業領域や、ロボットの位置、作業者の位置、等を検出するセンサーであれば、他の手段を利用してもよい。例えば、撮像カメラ以外の3次元レーザー測定器等を利用することもできる。
画像情報取得部103は、キャプチャーボードやメモリなどで構成され、センサー12から入力される撮像画像から、二次元画像と距離画像とを取得する。
In the first to third embodiments, for example, the
As long as the
The image
距離画像を取得するには、センサー12が視点の異なる複数の撮像カメラを備え、画像情報取得部103がこれら複数の撮像カメラが撮像した画像情報を取得すればよい。ここで、距離画像とは、2次元の画像データに、奥行き方向の距離のデータ、つまり、画像中の視点から対象物までの距離の値を有する画像データをいう。距離に関するデータを備えていれば、どのようなフォーマットのデータでもよい。また、例えば、通常の二次元の画像データの色彩や濃淡に加えてまたはこれに替えて、距離の値を有する画像データであってもよい。
なお、取得される画情情報は、二次元画像に替えて三次元画像でもよく、これらが取得できれば、画像情報取得部103、センサー12等の装置構成は、上記の構成には限定されない。例えば、センサー12が距離画像を生成して、画像情報取得部103に供給してもよい。
In order to acquire a distance image, the
The acquired image information may be a three-dimensional image instead of a two-dimensional image, and the apparatus configuration of the image
また、図示されない距離画像生成手段が、複数の撮像カメラで撮像した画像から、ステレオ法で撮影物体の距離画像を生成してもよい。
距離画像の取得は、これまで説明した構成に限定されず、他の構成を用いてもよい。例えば、撮像カメラと、撮像カメラと異なる位置から撮影物体に光のパターンを投影するパターン投影法などのアクティブ方式の三次元計測手法を利用してよい。あるいは、パターン投影法以外の三次元計測手法を利用して撮影物体の距離画像を算出してもよい。また、その他、TOF(Time Of Flight)方式等、種々の方式を利用して距離画像を取得してよい。画像情報取得部103は、人間位置検出部104(第1の検出手段)及び反応情報検出部107(第2の検出手段)に対して、取得した二次元画像と距離画像とを供給する。
In addition, a distance image generation unit (not shown) may generate a distance image of the photographed object by a stereo method from images captured by a plurality of imaging cameras.
The acquisition of the distance image is not limited to the configuration described so far, and other configurations may be used. For example, an active three-dimensional measurement method such as a pattern projection method of projecting a light pattern onto a photographing object from a position different from that of the imaging camera may be used. Alternatively, the distance image of the photographed object may be calculated using a three-dimensional measurement method other than the pattern projection method. In addition, the distance image may be acquired using various methods such as a TOF (Time Of Flight) method. The image
人間位置検出部104は、画像情報取得部103が取得した距離画像を領域分割(セグメンテーション)する。人間位置検出部104はまた、画像情報取得部103が取得した二次元画像から人間の頭部を検出する。人間位置検出部104は、領域分割した距離画像の複数の領域のうち、二次元画像の頭部に対応する部分を含む領域を人間の領域とし、この人間の領域に対応する距離画像の点群を、現在の人間の位置とする。
ここで、点群とはいわば点群データ(Point Cloud Data)のことを言い、点群とは、3D空間に存在する物や環境や人を、例えば3Dセンサを用いてその表面形状を撮影した「3D点の座標の集まり」のデータを意味する。この結果、撮影した距離画像を3D空間の点に透視投影したものが3D点群となる。
The human
Here, the point cloud means point cloud data (Point Cloud Data), and the point cloud is an image of the surface shape of an object, environment, or person existing in 3D space using, for example, a 3D sensor. It means data of “3D point coordinates”. As a result, a 3D point cloud is obtained by perspectively projecting the captured distance image onto a point in the 3D space.
危険予測部105(予測手段)は、人間の危険予測の一態様として、ロボットと人間の接触予測を行う。具体的には、危険予測部105は、ロボット位置取得部102が取得したロボットの位置と、人間位置検出部104が検出した人間の位置と、が重なる位置を、人間とロボットとが接触する可能性がある位置と予測する。この人間とロボットとが接触する可能性がある位置を示す情報を「接触情報」という。接触する可能性があると予測された場合、つまり、接触情報が存在する場合は、人間が現在の位置のまま移動せず、かつ、ロボットの動作が今回の軌道のままだと、時間が経過すると人間とロボットが接触する可能性がある。この場合、危険予測部105は、人間に危険の可能性があると予測する。すなわち、危険予測部105(予測手段)は、ロボットと人間との接触を危険として予測する。
The risk prediction unit 105 (prediction means) performs contact prediction between the robot and the human as an aspect of human risk prediction. Specifically, the
情報報知部106は、ロボット11の可動部分(可動部品)、例えば、ロボットアームの各リンクやロボットハンドに配設され、報知情報を人間に知覚可能に出力する。情報報知部106は、色や輝度を変化させることのできる液晶表示装置やLEDなどのデバイスで構成されてよい。
本実施形態1においては、光学的に報知を行うことができる液層表示装置やLED等を報知手段として利用したが、音声的に報知を行うスピーカやブザー等を利用することもできる。
なお、情報報知部106は、ロボット11の各リンクの外側となる面または側面に配設されてよい。ロボット11を構成するロボットアームとロボットハンドを構成する各リンクが、これらリンクを連結するジョイント(関節)で曲がった際に、情報報知部106が内側となる面にあっては、人間の視界から遮られ見え難くなるからである。また、情報報知部106の数は、各リンクに1つには限定されず、各リンクの外側と側面に複数配設してもよい。
The
In the first embodiment, the liquid layer display device or LED that can optically notify is used as the notification means. However, a speaker or a buzzer that performs voice notification can also be used.
Note that the
危険予測部105は、人間に危険の可能性があると予測した場合、上記接触情報を求める。危険予測部105は、この接触情報に基づき、接触情報以外の部分の情報報知部106を水色点灯させる。危険予測部105は例えば、ロボット11の軌道が前回と同じであり、かつ、接触する可能性がないと判断されるリンクまたはロボットハンドに配設されている情報報知部106を、水色で点灯(発光)させる。この水色表示色の点灯により、情報報知部106が配設されているリンク(又はロボットハンド)が、軌道が変更されず、かつ、人間との接触の可能性がないことが人間に報知される。
The
他方、危険予測部105は、接触情報に基づき、ロボット11の軌道が変更され、かつ、接触の可能性があると判断されるリンクまたはロボットハンドに配設されている情報報知部106のみを、桃色で点灯(発光)させる。この桃色表示色の点灯により、情報報知部106が配設されているリンク(又はロボットハンド)が、軌道が変更され、かつ、人間と接触の危険があることが人間に報知される。
なお、ロボット11の軌道の変更の有無にかかわらず、前回のロボット11の動作から桃色の発光表示を続けている情報報知部106は、ロボット11の該当するリンクまたはロボットハンドが人間と接触する可能性がある間は桃色の発光表示を継続する。これは、ロボット11の異常や非常停止やその他の原因で作業を停止し、その後ロボット11の動作を停止位置から再開する際、又は位置Aから動作をやり直す際に、人間への安全性を確保するためである。
On the other hand, the
Regardless of whether or not the trajectory of the
また、人間とロボット11とが接触すると予測される時刻までに時間がある場合は、水色から桃色に変えた情報報知部106の表示色を桃色のまま維持させ、継続して人間の反応を検出してもよい。
なお、表示色として、実施形態1では、水色と桃色の例を説明したが、ロボット11の状況の情報報知を人間が知覚上識別可能に行えることができれば、いかなる色を用いてもよい。
また、報知情報の他の提示方法としては、表示色の変更ではなく、ロボット11の軌道が同じ場合は点灯表示し、一方、ロボットの軌道が変更し、かつ、接触の可能性がある場合は、周期の長い点滅表示を行うことによって、人間に報知してもよい。あるいは、消灯と、点滅とを用いて、人間に報知してもよい。
In addition, when there is a time until the time when the human and the
In the first embodiment, examples of light blue and pink have been described as display colors. However, any color may be used as long as information notification of the status of the
Further, as another method of presenting the notification information, when the
さらに、報知情報を出力すべき情報報知部106そのものだけでなく、出力すべき情報報知部106の近傍に位置する等の複数の情報報知部106に対して報知内容を変更させてもよい。また、ロボット11に配設されたすべての情報報知部106の報知内容を変更させてもよい。これにより、人間がより報知情報を知覚し、反応しやすくなるため、ロボット11の危険回避反応動作の機会が低減する。
本実施形態1では、情報報知部106として、LED等の発光手段を利用しているが、他の発光手段でもよい。また、情報報知部106をLEDマトリクスや液晶表示装置で構成し、文字表示で情報報知を行ってもよい。また、情報報知部106としてスピーカ等を用い、音声による情報報知を行わせてもよい。
Furthermore, the notification content may be changed not only for the
In the first embodiment, a light emitting unit such as an LED is used as the
また、本実施形態1においては、情報報知部106は、ロボット11の各リンクに設ける例を説明したが、設置場所に特段の制限はなく、どこに設置されていてもよい。例えば、ロボットのいずれかの部位に(集中して)配置されていてもよい。また例えば、情報報知部106である液晶ディスプレイをロボット11の近傍に配置して、人間に対する情報報知を行わせることができる。また、例えば、天井や壁に情報報知部106を設け、情報報知を行わせてもよい。
さらに、情報報知部106は、人間(例えば操作者)の体に装着するように構成してもよい。例えば、帽子、時計等にLEDを設けて情報報知部106を構成してもよい。さらにバイブレータを用いた情報報知部106を人間に携帯させて、振動で人間に情報報知を行うこともできる。また、情報報知部106としてスピーカを用いて音声による情報報知を行わせる場合は、人間に音声が聞こえれば、どこに設置されていてもよい。例えば人間が装着するヘッドホンやイヤホンを情報報知部106として利用してもよいし、壁に取り付けられたスピーカを情報報知部106として利用してもよい。
In the first embodiment, the
Furthermore, the
反応情報検出部107は、画像情報取得部103が取得した二次元画像から、人間の頭部を検出し、さらに、人間の反応として顔の向き、又は、視線の向きを抽出する。反応情報とは、報知された報知情報に対する人間の反応に関する情報をいい、ここでは例えば、顔の向き、視線の向き等を含む。
知覚(意識)状態推定部108には、危険予測部205で予測した接触情報(ロボットと人間の接触位置)と、反応情報検出部107が検出した顔の向き又は視線の向き(以下、「反応情報」という。)と、が入力される。知覚(意識)状態推定部108は、この接触情報及び反応情報に基づいて、水色から桃色に表示色を変更させた情報報知部106の位置が、人間の視野内に入ったか否かを判断する。
The reaction
The perception (consciousness)
実施形態1において、知覚(意識)状態推定部108は、水色から桃色に表示色を変更させた情報報知部106が人間の視野内に入ったか否かによって、人間が、表示色が変更された情報報知部106を、見た状態か否かを推定する。ここで、「見た状態」とは、表示色が変更された情報報知部106が、人間の視野内に入ることによって、人間が当該情報報知部106から出力された報知情報(表示色が変更されたこと)を知覚した、ないし意識した、と推定できることを意味するものとする。すなわち、知覚(意識)状態推定部108(推定手段)は、人間が報知情報を意識したか否かを推定するのである。
In the first embodiment, the perception (consciousness)
知覚(意識)状態推定部108は、表示色を変更させた情報報知部106を人間が見た状態であると判断した場合、人間が、情報報知部106から出力された報知情報に反応し、ロボット11の動作が変更したことを意識(知覚)している状態と推定する。一方、表示色を変更させた情報報知部106を人間が見た状態でないと判断した場合、人間が、情報報知部106から出力された報知情報に反応せず、ロボットの11の動作が変更したことを意識(知覚)していない状態と推定する。
危険回避対応動作決定部109(動作決定手段)は、知覚(意識)状態推定部108で推定された推定結果に従って、ロボット11の動作を変更せずに現状のまま継続するか、又は、危険回避対応動作を取るかを決定する。ここで、危険回避対応動作とは、ロボットの動作の減速、動作の停止、及び動作軌道変更(動作の経路変更)を含む。
When the perception (consciousness)
The danger avoidance corresponding motion determination unit 109 (motion determination means) continues the current state of the
(ロボット制御装置の処理の流れ)
次に、図2のフローチャートに基づき、ロボット制御装置10の処理の流れを説明する。図2の各処理動作は、図1に示されるロボット制御装置10のハードウエアがプログラムを実行することによって達成されてよい。
まず、S200において、ロボット位置取得部102は、制御部101が保持しているロボット11の軌道データとロボット11の現在の位置とから、ロボット11の動作完了に至るまでの動作範囲を算出する。このロボット11の軌道データは、ロボット11が現在の位置から位置Bに部品を移動する際の、ロボット11を構成するロボットアームとロボットハンドの各部材の時系列の位置と関節角、および各部材の形状寸法を含む。ロボット位置取得部102は、この軌道データから、ロボット11が、現在の位置から位置Bに移動する際に通過する空間的な領域を算出し、これをロボット11の位置とする。
(Robot controller processing flow)
Next, the processing flow of the
First, in S <b> 200, the robot
S201において、画像情報取得部103は、二次元画像と距離画像とを取得する。
S202において、人間位置検出部104は、現在の人間の位置を検出する。具体的には、人間位置検出部104は、S201で取得した距離画像の点群を領域分割し、二次元画像から人間の頭部を検出する。そして、人間位置検出部104は、領域分割した距離画像の複数領域のうち、二次元画像の頭部に対応する点群を含む分割領域を人間の領域とする。この人間の領域に含まれる点群が、現在の人間の位置として検出される。
S203において、危険予測部105は、人間とロボット11の接触の可能性を予測することによって、人間の危険予測を行う。具体的には、危険予測部105は、S202で求めた人間の位置として検出された点群のうち、S200で求めたロボットの位置である空間的な領域の中に存在する点群の位置を、人間とロボットが接触する可能性がある位置(接触情報)として求める。
In S201, the image
In S202, the human
In S <b> 203, the
ここで、ロボット11の位置は、現在の位置から位置Bに移動する際に通過する空間的な領域として、S200において求められている。このように、ロボット11の位置を空間的な領域として求めることによって、危険予測部105は、現在の人間の位置から、将来的にロボット11と接触する可能性があるかを予測することができる。
S203において、危険予測部105は、人間とロボット11とが接触する可能性がある位置(接触情報)を求めるが、この位置(接触情報)は、人間とロボット11が接触する際のロボット11の接触部分の位置となる。なお、現在のロボット11の位置と移動速度、及び現在の人間の位置と移動速度から、ロボット11と人間の将来位置を予測して、位置(接触情報)を推定してもよい。
Here, the position of the
In S203, the
S204において、危険予測部105は、人間とロボット11との接触可能性の有無を判定する。具体的には、S203において、人間とロボット11とが接触する位置(接触情報)がなかった場合は、危険予測部105は接触可能性が無いと判定し、S212に進む。
S212において、危険予測部105は、ロボット11のすべての情報報知部106を水色で点灯させる。
S213において、制御部101は、ロボット11の動作を変更することなく再びS200に戻り、処理を続行する。
In S <b> 204, the
In S <b> 212, the
In S213, the
他方、S203において、危険予測部105は、人間とロボット11とが接触する位置(接触情報)があると判断した場合は、S204において危険予測部105が人間とロボット11とが接触可能性は有りと判定し、S205に進む。
S205において、危険予測部105は、ロボットの軌道が変更し、かつ、接触の可能性があるリンクまたはロボットハンドに配設されている情報報知部106の表示色を水色から桃色に変更する。これによって、情報検知部106は、ロボット11の動作が変更されたことによるロボットの状況の変更を、人間に報知する。
ロボット11に配設された複数の情報報知部106のうち一部の情報報知部106の表示色を変更することで、接触する可能性があり危険が予測されたリンクがどれであるかを知らせ、人間が、どのリンク(又はハンド)と接触する可能性があるかを、即座に把握するメリットがある。ここで、「即座に把握する」とは、接触する可能性がある位置を、人間がすぐに(短時間で)知覚することができるように報知することを意味する。例えば、文字を表示して人間に読ませる等の(ある程度時間がかかる)方法ではなく色彩を変更することによって報知を行う例を示したものである。
On the other hand, if the
In S <b> 205, the
By changing the display color of some of the
S206において、反応情報検出部107は、S200で取得した二次元画像から人間の頭部を検出し、人間の反応情報として、顔の向きと、視線の向きとを検出する。頭部の検出は、人間の肩から頭部の形状であるΩ(オメガ)形状を検出することで行ってよい。また、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴により、顔の向きを検出することができ、また、目の領域を抽出することができる。
さらに、抽出した目の領域の中の瞳位置と顔の向きとから、視線の向きを推定することができる。
S207において、知覚(意識)状態推定部108は、人間の視野範囲を算出する。具体的には、S206において推定された視線の向きを人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、人間の視野範囲を算出することができる。
In S206, the reaction
Furthermore, the direction of the line of sight can be estimated from the pupil position and the face direction in the extracted eye region.
In S207, the perception (consciousness)
S208において、知覚(意識)状態推定部108は、S207において算出した視野範囲である視野角内に、S205において水色から桃色に表示色を変更した情報報知部106の位置が入ったか否かを算出する。
S209において、知覚(意識)状態推定部108は、時間が経過すると人間とロボットが接触する可能性がある、水色から桃色に表示色を変更した情報報知部106の位置を、人間が見た状態か否かを推定する。つまり、知覚(意識)状態推定部108(推定手段)は、人間が、報知情報を意識したか否かを推定する。
具体的には、S208において、桃色に表示色が変更された情報報知部106が人間の視野内に入っている場合は、人間が情報報知部106を見た状態(知覚ないし意識した状態)と判断(推定)し、S210に進む。他方、当該情報報知部106が人間の視野内に入っていない場合は、人間が情報報知部106を見ていない状態と判断(推定)し、S214に進む。
このように、実施形態1においては、S207からS209で、知覚(意識)状態推定部108により、ロボット11から及ぼされる危険についての人間の意識状態の推定を行う。
In S208, the perception (consciousness)
In S209, the perception (consciousness)
Specifically, in S208, when the
As described above, in the first embodiment, in S207 to S209, the perception (consciousness)
つまり、実施形態1においては、ロボット11の軌道が変更され、かつ、人間と接触の可能性があるリンク又はロボットハンドに配設されている情報報知部106の表示色を、その他の情報報知部106から識別可能に変更する。これによりロボット11の動作状況の変更などのロボットの状況が、人間に報知される。このように表示色が変更された情報報知部106が報知する報知情報を、人間が見た状態と判断されれば、人間がロボット11の状況の変更を意識しているものと推定する。
あるいは、危険予測部105が危険を予測した場合に、または、動作が変更された場合のいずれかで、情報報知部106を介して報知情報を報知してもよい。
S210において、危険回避対応動作決定部109は、危険回避対応動作としてロボット11の動作を変更しないと決定する。この場合、制御部101は、ロボット11に対する制御を変更せずに、S211に進む。S211において、制御部101は、ロボット11の作業(例えば、部品(ワーク)の移動)の継続か完了かを判断する。ロボット11による部品の移動が完了していなければS200に戻り処理を続行し、部品の移動が完了していれば処理を終了する。
In other words, in the first embodiment, the display color of the
Alternatively, the notification information may be notified via the
In S210, the danger avoidance corresponding
一方、S214において、危険回避対応動作決定部109は、ロボット11が実行すべき危険回避対応動作を決定し、決定された危険回避対応動作を制御部101に指示する。制御部101は、危険回避対応動作決定部109が決定した危険回避対応動作をロボット11に実行させる。この危険回避対応動作は、人間とロボットの接触回避のため、ロボット11の動作速度を減速させることであってよい。また、人間の位置とロボット11の位置の現在の距離が、予め定められた距離以下の場合は、ロボット11を停止するようにしてもよい。あるいは、減速や停止ではなく、人間との接触を避けるため、人間とロボット11とが接触する際のロボットの接触部分の位置をロボット11が通過しないよう、ロボット11の軌道を変更してもよい。
なお、人間とロボット11とが接触する可能性がある時刻まで時間があり、予め設定されている接触までの猶予時間に達していない場合は、次のような処理をしてよい。すなわち、水色から桃色に変更した情報報知部106の表示色をその間桃色のまま維持し、継続して、人間の反応情報の検出を続けてもよい。
On the other hand, in S214, the danger avoidance corresponding
In addition, when there is a time until the time when the human and the
この場合は、S209において、現時刻が、人間とロボット11とが接触する可能性がある時刻までの予め設定した時間に達したか否かの判断を併せて行えばよい。達していない場合はS210へ進んでロボットに通常動作を行わせて、危険回避対応動作を行わせなければよい。一方、予め設定した時間に達した場合に、S214に進み、ロボット11に危険回避対応動作を実行させればよい。
なお、ここでは、人間とロボット11とが接触する可能性がある時刻までの時間が予め設定されている接触までの所定の猶予時間に達していない場合の例を説明したが、時間的な要件に加えて、距離的な要件を採用してもよい。
すなわち、
・人間とロボット11とが接触する可能性がある時刻までの時間が所定の猶予時間に達していない
・人間とロボット11との距離が所定の距離未満
の2要件を満たす場合には、危険回避対応動作決定部109は、ロボット11の動作を変更せず、情報報知部106の表示色を桃色のまま維持させるという処理を行うこともできる。
In this case, in S209, it may be determined whether or not the current time has reached a preset time until a time when the human and the
Here, an example has been described in which the time until the time at which the human and the
That is,
・ The time until the time when the human and the
この場合も、例えば、上で述べたS209において、上記2種類の要件が共に満たされているか否かを検査することがよい。具体的には、人間とロボット11とが接触する可能性がある時刻までの時間が、予め設定した時間(猶予時間)に達したか否かの判断を行うと共に、人間とロボット11との距離が、所定の距離未満になったか否かの判断を行う。
このような処理は、例えば、作業者が熟練者の場合を考慮したものである。作業者が熟練者の場合、その作業者はロボットの動作パターンを把握しているので、あるタイミングまでは情報報知部106の表示を見ることも煩わしく、作業効率も落ちてしまう。したがって、情報報知部106を見ないまま作業を続けることを許容するために、ある程度時間がある場合は、予め設定した時間に達するまでは、危険回避対応動作を行わせないようにしたものである。
Also in this case, for example, in the above-described S209, it is preferable to check whether or not both of the two types of requirements are satisfied. Specifically, it is determined whether or not the time until the time when the human and the
Such processing takes into account, for example, the case where the worker is an expert. When the worker is a skilled worker, the worker grasps the movement pattern of the robot, so it is bothersome to see the display on the
また、このようにして、例えば、人間とロボット11とが接触するまでに予め設定した時間以上の時間がある場合は、人間(例えば作業者)が、情報報知部106の表示色の変更を都度確認しなくても、作業を継続することが可能となる。従って、人間はロボット11に接触する時刻までの予め設定した時間に到達するまでは、情報報知部106が出力する報知情報を都度確認しながら作業をする必要がなく、作業効率が向上する。さらに、危険回避対応動作が行われる頻度をさらに低減することができる。
人間は、設定された時間に達する前に、情報報知部106から出力される報知情報(例えば、表示色の変更)に気付いて確認を行えば、人間の安全性は確保される。仮に、設定された時間に達する前に、報知情報に気付かずに、又は気付いていても、人間が危険回避を行えなかった場合であっても、設定された接触までの時間に達した時点以降に、制御部101がロボット11を停止させればよい。接触前に最終的にロボット11が停止するので、人間の安全性は確保される。
In this way, for example, when there is a time longer than a preset time until the human and the
If a human notices and confirms notification information (for example, a change in display color) output from the
(実施形態1の変形例)
上記実施形態1では、顔の向きと視線の向きから、人間の視野内に情報報知部106の位置が入った状態を以て、人間がロボット11を見た状態か否かを推定した。これに替えて、顔の向きから、人間の顔が情報報知部106の側を向いているのか、背にしているのか、に基づき、人間が情報報知部106を見ているか否かを推定してもよい。
いずれの場合でも、実施形態1においては、画像情報取得部103が取得した画像に撮像された人間を含む画像から人間の意識状態(知覚しているか否か)を推定する。したがって、ロボット11と協調して作業を行う作業者だけでなく、作業領域への侵入者、部品補充者又はメンテナンス者など、作業者以外の人間の安全性も、同様に確保することができる。
(Modification of Embodiment 1)
In the first embodiment, it is estimated from the orientation of the face and the direction of the line of sight whether or not the human has seen the
In any case, in the first embodiment, the human consciousness state (whether or not it is perceived) is estimated from the image including the person captured in the image acquired by the image
また、上記実施形態1では、ロボット11の動作の状況として、ロボット11の動作軌道が変更される状況を説明した。しかしながら、報知情報を報知するトリガとなる、ロボット11の動作の状況(ロボットの状況)は、ロボット11の動作の内部情報であって、ロボットの動作に関連する、温度、電流値、電圧値、圧力、把持力、動作速度、および外部へ加える力、などの情報を含んでよい。
温度としては、電子部品のはんだ付けやリフローはんだ付けの温度、温度に関連する内部情報としては、はんだ付け等の温度を制御する電流値なども含んでよい。温度に関しての危険予測は、危険予測部105が、人間の位置とロボット11の位置とから、温度に対して人間との間隔をどの程度離さなければ危険であるかの予め設定された距離に基づいて行えばよい。温度による人間の危険が予測された場合に、危険予測部105が、情報報知部106の表示色の変更を行って、人間に危険を報知すればよい。また、電流値が予め設定された閾値を超えた場合に、情報報知部106の表示色の変更を行って、人間に危険の報知をしてもよい。
In the first embodiment, the situation in which the motion trajectory of the
The temperature may include electronic component soldering or reflow soldering temperature, and the internal information related to temperature may include a current value for controlling the temperature of soldering or the like. The danger prediction regarding the temperature is based on a preset distance indicating how dangerous the
また、報知情報を報知するトリガとなるロボット11の周囲の状況は、ロボット11が把持している物(部品)の温度、形状、大きさ、質量、化学物質の反応、放射性物質(の放射能などによる人間へ)の影響、などの状況を含んでよい。さらに、周囲の状況は、人間とロボットの周囲の作業環境に存在する、専用治具、搬送装置、他のロボット、組み付けが行われる対象、組み付け部品の配置やそれらが入っている箱などの状況を含むこともできる。その他に、周囲の状況は、周辺の雰囲気である、明るさ、気温、湿度、圧力、振動、音、粉塵、風、光などの状況も含んでよい。
In addition, the situation around the
また、上記実施形態1では、危険予測部105が、情報報知部106を介して、人間に報知情報を報知する方法として、情報報知部106の表示色の変更、点灯や点滅の周期で報知する方法を説明した。しかしながら、前述したロボット11の動作の状況の各種パラメータや各種の数値に対応して、情報報知部106が発光する光の強度を徐々に変化させることで報知してもよい。光の強度の変化は、数値等に応じてリニアに変化させてもよいし、小、中、大、のように段階的に変化させてもよい。
Moreover, in the said Embodiment 1, the
また、光の表示色や発光強度の他に、音、圧力、風圧、温度、振動、を用いて、人間に報知情報を報知してもよい。この場合は、情報報知部106が、音を出力するスピーカや、振動を発生させるアクチュエータ等を備えればよい。また、情報報知部106により報知情報を報知することに替えて、ロボット11の動きを用いて報知情報を報知してもよい。この場合は、危険予測部105が、情報報知部106の表示を制御することに替えて、制御部101に対して人間に報知するためのロボット11の動きを送出すればよい。制御部101は、送出されるロボット11の報知のための動きをロボット11に実行させればよい。
In addition to light display color and light emission intensity, notification information may be notified to humans using sound, pressure, wind pressure, temperature, and vibration. In this case, the
さらに、危険予測部105は、人間に危険を及ぼすパラメータ、または、その値に基づく危険度を、情報報知部106に、数値で、あるいは、数値のレベルに応じた可変長のバーを表示させる等して、人間に報知情報を報知してもよい。または、情報報知部106は、危険度の値に応じて、表示の輝度を変化させてもよい。危険度に基づく報知を行う場合、情報報知部106は、このような表示を行うために数値を表示できるデバイスや、バー表示を行えるデバイス等を備えればよい。また、デジタル表示ではなく、インジケータのようなアナログ表示で危険度等の数値の情報を報知してもよい。
また、人間に報知情報を報知するタイミングとしては、ロボット11の動作の状況が変更されたか否かにかかわらず、常時報知し続けてもよいし、あるいは、ロボット11の動作の状況が変化した際に報知してもよい。
Furthermore, the
Further, the notification information to the human may be continuously notified regardless of whether the operation state of the
以上述べたように、実施形態1においては、危険予測に加え、ロボット11の動作の状況を人間に報知情報として報知し、報知情報の報知に対する人間の反応を検出する。そして、人間がその報知の位置(例えば報知情報を出力する情報報知部106の位置)を見た状態か否かを推定することで、ロボット11の状況の変化を意識(知覚)したかを推定する。この推定結果に基づき、危険回避対応動作の決定を行う。
したがって、人間がロボット11の状況の変化を意識している(知覚している)場合は、危険回避を行う必要がないため、ロボット11の停止や減速によるロボット11の作業効率の低下が抑制される。人間が変更されるロボットの動作を予測できない場合に対応した危険回避動作の実行が可能になる。これにより、ロボット11の作業効率及び生産性がより向上する。
As described above, in the first embodiment, in addition to the risk prediction, the operation status of the
Therefore, when a human is conscious (perceived) of a change in the situation of the
実施形態2
以下、本発明の実施形態2を、実施形態1と異なる点につき説明する。実施形態2も実施形態1と同様、ロボットの動作の変更状況を報知情報として人間に報知して、人間の反応を観察する。この人間の反応として、実施形態2は、人間に対する報知情報の報知に伴って、人間の中心視野が移動したかを検出することによって、人間がその報知情報によりロボットの状況の変更を認識したか否かを推定する。ここで、「認識」とは、「意識」の一種である。
図3は、実施形態2に係るロボットシステム38の構成を示す。図3において、図1に示す実施形態1に係るロボット制御装置10内の各部と同一の機能を有する構成には実施形態1と同一の符号が付されておりその説明は省略する。実施形態2のロボットシステム38は、センサー12と、ロボット制御装置30と、ロボット11と、から構成される。実施形態2に係るロボット制御装置30は、実施形態1に係るロボット制御装置10における知覚(意識)状態推定部108に替えて、認識状態推定部308(認識状態推定手段)を備える。
Embodiment 2
Hereinafter, the second embodiment of the present invention will be described with respect to differences from the first embodiment. Similarly to the first embodiment, the second embodiment notifies the human being of the change state of the operation of the robot as notification information, and observes the human reaction. As the human reaction, the second embodiment detects whether the central visual field of the human has moved in accordance with the notification of the notification information to the human, so that the human has recognized the change in the status of the robot based on the notification information. Estimate whether or not. Here, “recognition” is a kind of “awareness”.
FIG. 3 shows a configuration of the
認識状態推定部308は、人間にロボット11の動作の変更状況を報知する情報報知部106を介して報知する報知情報が変化する際に、その報知情報が変化した情報報知部106に人間が視線を移したか否かを検出する。そして、認識状態推定部308は、人間がその報知情報が変化した情報報知部106に視線を移したか否かによって、人間がロボット11の状況の変更を認識までしたか否かを推定する。
報知情報を変更した情報報知部106の位置が、人間の視野内にあって見えた状態であっても、その位置以外の場所や他のことに意識が集中しており、情報報知部106の位置には注意が向けられていない場合もある。
When the notification information to be notified via the
Even if the position of the
これに対して、実施形態2の認識情報推定部308は、危険予測部105が情報報知部106の出力する報知情報を変化させてから以降に、人間が報知情報の変化した情報報知部106の位置に中心視野を移動させたか否かを検出する。報知情報が変化してから以降に、人間の中心視野が情報報知部106に向けて移動していれば、報知情報の報知を認識した状態であると推定する。一方、人間が中心視野を移動させていなければ、たとえ報知情報の報知を意識(知覚)していたとしても、認識まではしていないものと推定する。ここで、「認識する」とは、外部のイベントを識別および判断したことをいい、例えば、後述のように人間が中心視野を報知情報に移動させたことを以って推定され得る。
On the other hand, the recognition
図4は、実施形態2のロボット制御装置30の処理の流れを示すフローチャートを示す。
図4の各処理動作は、図3に示されるロボット制御装置30のハードウエアがプログラムを実行することによって達成されてよい。実施形態2に係る図4のフローチャートは、実施形態1で説明したロボット制御装置10の処理の流れを示すフローチャート(図2)と、S407、S407b、S408、S409の処理動作が異なる。すなわち、ロボットに対する人間の認識状態を推定する処理が異なる。それ以外の処理は、図2に示すフローチャートの処理と同一であって、図2と同一の符号が付されておりその説明は省略する。
FIG. 4 is a flowchart illustrating a process flow of the
Each processing operation in FIG. 4 may be achieved by the hardware of the
まず、S407において、認識状態推定部308は、人間の視野範囲を算出する。具体的には、S206において検出した視線の向きを、人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、人間の視野範囲を算出する。
S407bにおいて、認識状態推定部308は、危険予測部105が情報報知部106の報知情報の表示色を変更する前と変更した以降との、人間の視線の動きを取得する。
実施形態1においては、画像情報取得部103が取得した現在の画像から抽出した、現在の視線の向きを用いて、人間が、情報報知部106が出力する報知情報への意識状態(知覚したか否かの状態)を推定した。これに対して、実施形態2においては、現在だけでなく、過去に検出した以前の視線の向きも利用する。過去の視線の向きから、情報報知部106の表示色が変更される前の視線の向きを得ることができる。画像情報取得部103が、例えば、一定時間Δt毎に画像情報を取得していれば、時系列データとして、一定間隔Δtでの時系列上の視線の動きが取得できる。S408において、認識状態推定部308は、S207で算出した視野範囲である視野角内での、S205において水色から桃色に表示色を変更した情報報知部106の位置の動きを算出する。
First, in S407, the recognition
In S407b, the recognition
In the first embodiment, using the current line-of-sight direction extracted from the current image acquired by the image
次に、S409において、認識状態推定部308は、情報報知部106の表示色が変更された後、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動したか否かを検出する。この中心視野の視野角として、視野の中心から例えば上下左右に2度の範囲を用いてよい。なお、中心視野の視野角は、2度に限定されず、また、上下と左右で異なる数値の角度としてもよい。
認識状態推定部308は、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動していれば、報知情報の変更に人間が反応して、少なくとも一瞬視線を移動させたと判断する。この場合、認識状態推定部308は、ロボットの状況の変更があったことを人間が認識(意識)したものと推定して、ロボット11の動作を変更せずにS210に進み、それ以降の動作は、実施形態1の図2において説明したとおりである。このように、認識状態推定部308(推定手段)は、人間が報知情報を意識したか否かを推定する。なお、本実施形態では、理解を容易にするために、「意識した」の一種として「認識した」という用語を用いている。
Next, in S409, the recognition
If the position of the
S409に戻り、認識状態推定部308は、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動していない場合は、表示部106の表示色の変更に人間が反応しなかったものと判断する。この場合、認識状態推定部308は、ロボット11の状況の変更を人間が認識していないものと推定して、S214に進み、危険回避対応動作が行われる、その動作は、実施形態1の図2において説明したとおりである。
以上説明したように、実施形態2においては、危険予測に加え、ロボット11の動作の状況を報知情報として人間に報知し、報知情報が変更された情報報知部106の位置に、人間が視線を移動させたか否かを検出する。そして、人間が視線を情報報知部106に移動させたか否かによって、人間がロボット11の状況の変更を認識しているか否かを推定し、その推定結果に基づき、危険回避対応動作の決定(判定)を行う。
Returning to S409, when the position of the
As described above, in the second embodiment, in addition to danger prediction, the state of operation of the
実施形態2においては、人間が視線を情報報知部106に移動させたか否かを、報知情報が変更された情報報知部106の位置が、人間の中心視野の範囲内に移動したか否かで判断する。人間が、報知情報を報知する情報報知部106に向けて中心視野を移動していれば、人間がそのロボットの状況を認識している可能性はより高いと考えられる。
これにより、人間がロボット11の状況の変化を認識していると判断できる場合は、ロボット11が危険回避対応動作を行う必要がなくなり、作業効率の低下が抑制され、生産性が向上する。
特に、人間が報知情報の変更を意識(知覚)はしていたとしても、報知情報の変更に注意が向かず認識していない状態の場合に、実施形態2によれば、ロボット11の状況の変更を認識していると誤って判断してしまうことが抑制できる。つまり、人間が危険回避を確実に実行できると推定できる場合以外は、ロボット11側に危険回避対応動作を実行させることにより、人間の安全性確保がより確実となる。
In the second embodiment, whether or not a person has moved his / her line of sight to the
As a result, when it can be determined that the human is recognizing a change in the situation of the
In particular, even if a human is conscious (perceived) to change the notification information, the state of the
実施形態3
以下、本発明の実施形態3を、実施形態2と異なる点につき説明する。実施形態3も実施形態2と同様、ロボットの動作の状況の変更を含む情報を報知情報として人間に報知して、人間の反応を観察する。この人間の反応として、実施形態3は、人間が危険回避の動き(動作)をしたか否かを検出し、この検出結果に基づいて、人間がロボットの状況の変更を認識したか否かを推定する。
図5は、実施形態3に係るロボットシステム58の構成を示す。図5において、図1に示す実施形態1に係るロボット制御装置10(図3のロボット制御装置30)内の各部と同一の機能を有する構成には実施形態1と同一の符号を付し、その説明は省略する。実施形態3のロボットシステム58は、センサー12と、ロボット制御装置50と、ロボット11とから構成される。実施形態3に係るロボット制御装置50は、実施形態1及び実施形態2の反応情報検出部107に替えて、反応情報検出部507を備える。また、実施形態3に係るロボット制御装置50は、実施形態2の認識状態推定部308に替えて、認識状態推定部508を備える。
Embodiment 3
Hereinafter, the third embodiment of the present invention will be described with respect to differences from the second embodiment. In the third embodiment, as in the second embodiment, information including a change in the state of operation of the robot is notified to a person as notification information, and a human reaction is observed. As this human reaction, the third embodiment detects whether or not a human has made a movement (motion) for avoiding danger, and based on the detection result, whether or not the human has recognized a change in the situation of the robot. presume.
FIG. 5 shows a configuration of a
反応情報検出部507は、ロボット11の状況の変更を危険予測部105が表示部106を介して人間に報知した後の、人間の位置を検出して、認識状態推定部508に供給する。反応情報検出部507は、この人間の位置の検出において用いられる画像情報を、実施形態1の画像情報取得部103により取得でき、また、人間の位置を、実施形態1の人間位置検出部104により検出できる。
認識状態推定部508は、情報報知部106が出力する報知情報の表示色が変更された後に、検出された人間の位置が、危険予測部105で予測された人間とロボット11とが接触する可能性のある位置(接触情報)から移動したか否かを判定する。認識状態推定部508は、人間が、接触する可能性のある位置から移動したか(接触情報が変位したか)否かで、人間がロボット11の状況の変更を認識したか否かを推定する。実施形態3は、人間が、報知情報の報知に応じて、接触する可能性のある位置から移動したかを判断することによって、人間が危険回避動作などの反応動作をしたか否かを推定する。
The reaction
The recognition
図6は、実施形態3のロボット制御装置50の処理の流れを表すフローチャートを示す。図6の各処理動作は、図5に示されるロボット制御装置50のハードウエアがプログラムを実行することによって達成されてよい。図6の例に示すフローチャートは、実施形態2で説明したロボット制御装置30の処理の流れを示すフローチャート(図4)と、S606及びS607の処理動作が異なる。すなわち、人間の反応情報検出の処理とロボット11についての人間の認識状態の推定の処理とが異なる。それ以外の他の処理は、図4に示すフローチャートの処理と同様であって図4と同一の符号を付し、その説明は省略する。
FIG. 6 is a flowchart showing the process flow of the
S606において、反応情報検出部507は、情報報知部106の出力する報知情報を変更して人間に報知した後の、人間の位置を検出して、認識状態推定部508に供給する。人間の位置の検出処理は、S201及びS202の処理と同様の処理で実行できる。
S607において、認識状態推定部508(推定手段)は、人間がロボット11の状況の変更を認識(意識)したか否かを推定する。
実施形態3においては、情報報知部106の報知情報が変更された後、人間の位置がロボット11と接触する位置から移動していれば、人間がロボット11の状況の変化を認識して接触回避(危険回避)動作を行ったものと推定する。すなわち、認識状態推定部508(推定手段)は、人間が情報報知を意識したか否かを推定する。なお、本実施形態では、理解を容易にするために、「意識した」の一種として、「認識した」との用語を用いている。
In step S <b> 606, the reaction
In step S <b> 607, the recognition state estimation unit 508 (estimation unit) estimates whether a human has recognized (consciously) a change in the situation of the
In the third embodiment, after the notification information of the
具体的には、危険予測部105が情報報知部106の報知情報を変更して人間に報知した後の、S606で得られた人間の位置である点群と、S203で得られたロボット11の接触部分の位置(接触情報)となる点群と、を比較する。この報知情報の報知後の人間の位置の点群の中に、ロボット11の接触部分の位置(接触情報)となる点群の領域がなければ、人間とロボット11とが接触する可能性のある位置から、人間が危険回避のため移動したことになる。この場合、実施形態3では、人間がロボット11の状況の変更を認識した(さらに危険回避動作を取った)と推定し、S210に進む。一方、報知情報の報知後の人間の位置の点群の中に、ロボット11の接触部分の位置(接触情報)となる点群の領域があれば、人間とロボット11とが接触する可能性のある位置から、人間が危険回避動作をしていないことになる。実施形態3においては、人間が危険回避動作をしていない場合は、人間がロボット11の状況の変更を認識していない(意識していない)と推定し、S214に進んでロボット11側の危険回避対応動作を決定(判定)する。
Specifically, after the
以上説明したように、実施形態3においては、人間が危険予測部105により情報報知部106に出力された報知情報を見るかどうかを、ロボット11側で危険回避対応動作を実行するか否かの決定には用いていない。これに替えて、実施形態3では、人間の反応動作(人間の動き)の検出結果を反応情報として取得し、この反応情報の変化に基づくロボットの動作などの状況のその後の変化を、常に情報報知部106を介して報知情報として報知(表示)し続ければよい。
As described above, in the third embodiment, whether or not a human sees the notification information output from the
これに対して、人間は、情報報知部106が出力する報知情報を見ることによって、ロボット11の状況の変化に気が付いて、人間がロボット11との接触を回避する行動を起こしてもよい。あるいは、作業に熟練している人間であれば、情報報知部106が出力する報知情報を見ることなく、将来のロボットの動作が複数パターンあり、それが切り替わることを十分に把握している場合もある。この場合は、ロボット11の動作などの状況変化が予測可能であるので、やはり人間がロボット11との接触を回避する行動をとることができる。
実施形態3において、情報報知部106は、いずれの場合であっても、人間がロボット11と接触しない状況になり人間の危険が回避された状態を判定した場合に、情報報知部106の表示色を桃色から水色に変更すればよい(図6のS204Y、S212)。
On the other hand, the human may notice the change in the situation of the
In the third embodiment, in any case, the
一方、ロボット11と人間とが接触する状況が回避されず、人間の危険が回避される状況にならない場合は、危険回避のため、ロボットの危険回避対応動作として減速または停止などすればよい(図6のS214)。危険予測部105が算出する危険度の値が所定の基準値より高い場合も同様である。
ここで、人間が作業の熟練者であれば、情報報知部106が出力する報知情報を、見たければ必要な場合にだけ見ればよいし、ロボット11の動きを熟知していれば見なくてもよい。万が一、見ないことにより、接触の危険度が高まれば、ロボット制御装置50側で危険回避を行うとの判断をして、ロボット11の動作を減速または停止させればよい。
On the other hand, if the situation in which the
Here, if the person is a skilled worker, the notification information output by the
以上説明したように、実施形態3においては、危険予測に加え、ロボット11の動作の状況を報知情報として人間に報知した後、人間が危険回避の動きをしたか否かを検出する。そして、人間が危険回避と推定できる動きをしたか否かによって、人間がロボット11の状況の変更を認識したか否かを推定し、その推定結果に基づき、危険回避対応動作の決定を行う。
これにより、人間がロボット11の状況の変化を認識していると推定できる場合は、ロボット11が危険回避対応動作を行う必要がなくなり、ロボットの作業効率の低下が抑制され、生産性が向上する。
As described above, in the third embodiment, in addition to danger prediction, after notifying a person of the operation status of the
Accordingly, when it can be estimated that a human is aware of a change in the situation of the
(他の構成例)
本発明は、上述の実施形態1ないし3で説明した構成中1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して所定のシステム又は装置に供給し、そのシステム又は装置がプログラムを実行することで実現することも可能である。このプログラムの実行は、システム又は装置のコンピュータにおける1つ以上のプロセッサーが、プログラムを読出し実行する処理を行えばよい。
また、1以上の機能を実現する回路(例えば、ASIC(Application Specific Integrated Circuit))によっても実現可能である。
図7は、上記各実施形態に係るロボット制御装置の各構成部の全部又は一部を構成することのできるコンピュータ710のハードウエア構成を示す。コンピュータ710は、CPU711と、ROM712と、RAM713と、外部メモリ714と、入力部716と、表示部717と、通信I/F718と、システムバス719とを備える。コンピュータ710は、さらに撮像部715を備えてもよい。
(Other configuration examples)
The present invention supplies a program that realizes one or more functions of the configurations described in the first to third embodiments to a predetermined system or apparatus via a network or a storage medium, and the system or apparatus executes the program. This can also be realized. The program may be executed by a process in which one or more processors in the computer of the system or apparatus read and execute the program.
Further, it can be realized by a circuit that realizes one or more functions (for example, ASIC (Application Specific Integrated Circuit)).
FIG. 7 shows a hardware configuration of a
CPU711は、ロボット制御装置の各部の動作を統括的に制御するものであり、システムバス719を介して、各構成部を制御する。
ROM712は、CPU711が処理を実行するために必要な制御プログラム等を記憶する不揮発メモリである。なお、これらプログラムは、外部メモリ714や着脱可能な記憶媒体(不図示)に記憶されてもよい。
RAM713は、CPU711の主メモリ、ワークエリア等として機能する。すなわち、CPU711は、処理の実行に際してROM22から必要なプログラムやデータをRAM713にロードし、当該プログラムを実行することで各種の機能動作を実現する。
外部メモリ714は、例えば、CPU711がプログラムを実行する処理を行う再に必要な各種データや各種情報等を記憶している。また、外部メモリ714には、例えば、CPU711がプログラムを実行する処理を行うことにより得られた各種データや各種情報等も記憶される。
The
The
The
The
入力部716は、例えばキーボードやマウス等により構成され、ユーザが入力部716を介してロボット制御装置にティーチング等の指示を与えることができるよう構成される。
表示部717は、液晶ディスプレイ(LCD)等のモニタで構成されてよい。
通信I/F718は、外部装置と通信するためのインターフェースである。システムバス719は、CPU711、ROM712、RAM713、外部メモリ714、撮像部715、入力部716、表示部717及び通信I/F部718を通信可能に接相互続する。
The
The
The communication I /
また、上記実施形態1〜3では、ロボット11が1台の場合を説明したが、複数台のロボット11を制御する場合に応用してもよい。また、ロボット制御装置10等とロボット11とは、近接して配置されている場合だけでなく、離隔して配置されていてもよい。また、ロボット制御装置10等とロボット11とが所定のネットワークで接続されているような構成をしていてもよい。
以上、本発明の実施形態について詳細に説明したが、これら実施形態は、本発明を実施するにあたっての具体例を示したに過ぎず、本発明の技術的範囲は、上記実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。
In the first to third embodiments, the case where the number of the
As mentioned above, although embodiment of this invention was described in detail, these embodiment only showed the specific example in implementing this invention, and the technical scope of this invention is limited to the said embodiment. It is not a thing. The present invention can be variously modified without departing from the gist thereof, and these are also included in the technical scope of the present invention.
8…ロボット制御システム、10…ロボット制御装置、11…ロボット、12…センサー、101…制御部、102…ロボット位置取得部、103…画像情報取得部、104…人間位置検出部、105…危険予測部、106…情報報知部、107…反応情報検出部、108…知覚(意識)状態推定部、109…危険回避対応動作決定部、308…認識状態推定部 DESCRIPTION OF SYMBOLS 8 ... Robot control system, 10 ... Robot control apparatus, 11 ... Robot, 12 ... Sensor, 101 ... Control part, 102 ... Robot position acquisition part, 103 ... Image information acquisition part, 104 ... Human position detection part, 105 ... Risk prediction , 106 ... Information notification unit, 107 ... Reaction information detection unit, 108 ... Perception (consciousness) state estimation unit, 109 ... Danger avoidance corresponding action determination unit, 308 ... Recognition state estimation unit
Claims (17)
前記ロボットの位置を取得する取得手段と、
人間の位置を検出する第1の検出手段と、
前記人間が知覚可能な報知情報を報知する報知手段と、
前記報知手段により出力された前記報知情報に応じた前記人間の反応を検出する第2の検出手段と、
前記第2の検出手段により検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定する動作決定手段と、
を具備することを特徴とするロボット制御装置。 A robot control device for controlling the operation of a robot,
Obtaining means for obtaining the position of the robot;
First detecting means for detecting a human position;
Informing means for informing the human perceptible notification information;
Second detection means for detecting the human reaction according to the notification information output by the notification means;
An action determining means for determining an action of the robot based on the reaction of the human detected by the second detecting means;
A robot control device comprising:
をさらに具備し、前記動作決定手段は、前記予測手段により予測された前記危険と、前記第2の検出手段により検出された前記人間の前記反応とに基づいて、前記ロボットの動作を決定する、
ことを特徴とする請求項1記載のロボット制御装置。 Predicting means for predicting the danger of the robot to the human based on the position of the robot acquired by the acquiring means and the position of the human detected by the first detecting means;
The movement determining means determines the movement of the robot based on the danger predicted by the prediction means and the human reaction detected by the second detection means.
The robot control apparatus according to claim 1.
ことを特徴とする請求項2に記載のロボット制御装置。 The predicting means predicts contact between the robot and the human as dangerous;
The robot control apparatus according to claim 2.
ことを特徴とする請求項2または3に記載のロボット制御装置。 Even if the predicting means predicts the danger to the human being of the robot, the operation determining means, when the predicted time until the occurrence of the danger has not reached a predetermined grace time, Does not change the behavior of the robot,
The robot control apparatus according to claim 2 or 3, wherein
ことを特徴とする請求項2または3に記載のロボット制御装置。 The operation determining means, even if the predicting means predicts the danger to the human being of the robot, the time to occurrence of the predicted danger has not reached a predetermined grace period, and When the distance between the robot and the human is a predetermined distance or more, do not change the operation of the robot.
The robot control apparatus according to claim 2 or 3, wherein
前記第2の検出手段が検出する前記反応は、前記報知されたロボットの状況に対する前記人間の反応である、
ことを特徴とする請求項1から請求項5のいずれか1項に記載のロボット制御装置。 The informing means informs the situation of the robot or the situation around the robot,
The reaction detected by the second detection means is the human reaction to the informed robot status.
The robot control apparatus according to any one of claims 1 to 5, wherein
ことを特徴とする請求項6に記載のロボット制御装置。 The state of the robot includes at least one of a temperature, a current value, a voltage value, a pressure, a gripping force, an operation speed, and an external force related to the operation of the robot, and a trajectory change state of the robot. ,
The robot control apparatus according to claim 6.
ことを特徴とする請求項6に記載のロボット制御装置。 The surrounding environment of the robot includes at least one of temperature, shape, size, mass, chemical reaction, and radioactive substance influence of an object held by the robot.
The robot control apparatus according to claim 6.
ことを特徴とする請求項1から8のいずれか1項に記載のロボット制御装置。 The notification means includes a light emission means, and performs information notification by a display color of emitted light or an emission intensity of emitted light.
The robot control apparatus according to any one of claims 1 to 8, wherein
前記動作決定手段は、前記推定手段の推定結果に基づき、前記動作を決定する、
ことを特徴とする請求項1乃至9のいずれか1項に記載のロボット制御装置。 An estimation means for estimating whether or not the person is aware of the notification information based on the reaction of the person detected by the second detection means;
The motion determining means determines the motion based on an estimation result of the estimating means;
The robot control device according to claim 1, wherein the robot control device is a robot.
前記推定手段は、前記人間の前記視線または前記顔の向きから前記人間の視野を得、前記報知手段が前記視野内に位置するか否かを判定することにより、前記報知情報を意識したか否かを推定する、
ことを特徴とする請求項10記載のロボット制御装置。 The reaction detected by the second detection means includes the human gaze or face orientation,
Whether the estimation means is aware of the notification information by obtaining the human visual field from the line of sight of the human or the face direction and determining whether the notification means is located in the visual field. To estimate,
The robot control apparatus according to claim 10.
前記推定手段は、前記人間の前記視線の動きまたは前記顔の動きから、前記人間の中心視野を得、得られた前記人間の中心視野が移動したか否かを判定することにより、前記報知情報を意識したか否かを推定する、
ことを特徴とする請求項10記載のロボット制御装置。 The reaction detected by the second detection means is the movement of the human eye or the movement of the face,
The estimating means obtains the human central visual field from the movement of the line of sight of the human or the movement of the face, and determines whether the obtained central visual field of the human has moved, thereby determining the notification information. Estimating whether or not
The robot control apparatus according to claim 10.
ことを特徴とする請求項10記載のロボット制御装置。 Whether the estimation means is aware of the notification information by determining whether the person has moved from a position where danger is predicted by the prediction means based on the detected movement of the person. To estimate,
The robot control apparatus according to claim 10.
ことを特徴とする請求項1〜13のいずれか1項に記載のロボット制御装置。 The operation determining means determines at least one of operation stop, operation deceleration, and operation path change as the operation.
The robot control device according to claim 1, wherein the robot control device is a robot.
前記第2の検出手段は、前記センサーからの情報に基づき前記人間の反応を検出し、
前記第1の検出手段は、前記センサーからの情報に基づき前記人間の位置を検出する、
ことを特徴とするロボットシステム。 The robot control device according to any one of claims 1 to 14, comprising at least one of a sensor and the robot,
The second detection means detects the human reaction based on information from the sensor,
The first detection means detects the position of the person based on information from the sensor.
A robot system characterized by this.
制御されるべき前記ロボットの位置を取得するステップと、
人間の位置を検出するステップと、
前記人間が知覚可能な報知情報を報知するステップと、
報知された前記報知情報に応じた前記人間の反応を検出するステップと、
検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定するステップと、
を含むことを特徴とするロボット制御方法。 A robot control method for controlling the operation of a robot,
Obtaining the position of the robot to be controlled;
Detecting a human position;
Informing the human-perceivable notification information;
Detecting the human reaction according to the notified information,
Determining the movement of the robot based on the detected human response;
A robot control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015188932A JP2017061026A (en) | 2015-09-25 | 2015-09-25 | Robot control device, robot control method, robot system and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015188932A JP2017061026A (en) | 2015-09-25 | 2015-09-25 | Robot control device, robot control method, robot system and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017061026A true JP2017061026A (en) | 2017-03-30 |
Family
ID=58430382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015188932A Pending JP2017061026A (en) | 2015-09-25 | 2015-09-25 | Robot control device, robot control method, robot system and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017061026A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020001109A (en) * | 2018-06-26 | 2020-01-09 | セイコーエプソン株式会社 | Robot control device and robot system |
JP2020006494A (en) * | 2018-07-12 | 2020-01-16 | ファナック株式会社 | robot |
JP2020055066A (en) * | 2018-10-02 | 2020-04-09 | カシオ計算機株式会社 | Robot control device, robot, robot control method and program |
WO2021039897A1 (en) * | 2019-08-30 | 2021-03-04 | Johnan株式会社 | Control device, control method, and program |
WO2022196010A1 (en) * | 2021-03-15 | 2022-09-22 | オムロン株式会社 | Control device, control system, control method, and program |
US11565418B2 (en) * | 2019-05-22 | 2023-01-31 | Seiko Epson Corporation | Robot system |
-
2015
- 2015-09-25 JP JP2015188932A patent/JP2017061026A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020001109A (en) * | 2018-06-26 | 2020-01-09 | セイコーエプソン株式会社 | Robot control device and robot system |
US11235469B2 (en) | 2018-06-26 | 2022-02-01 | Seiko Epson Corporation | Robot controller and robot system |
JP7155660B2 (en) | 2018-06-26 | 2022-10-19 | セイコーエプソン株式会社 | Robot controller and robot system |
JP2020006494A (en) * | 2018-07-12 | 2020-01-16 | ファナック株式会社 | robot |
JP2020055066A (en) * | 2018-10-02 | 2020-04-09 | カシオ計算機株式会社 | Robot control device, robot, robot control method and program |
JP7275518B2 (en) | 2018-10-02 | 2023-05-18 | カシオ計算機株式会社 | ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
US11565418B2 (en) * | 2019-05-22 | 2023-01-31 | Seiko Epson Corporation | Robot system |
WO2021039897A1 (en) * | 2019-08-30 | 2021-03-04 | Johnan株式会社 | Control device, control method, and program |
WO2022196010A1 (en) * | 2021-03-15 | 2022-09-22 | オムロン株式会社 | Control device, control system, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017061026A (en) | Robot control device, robot control method, robot system and computer program | |
CN106808496B (en) | Robot safety system | |
EP3715065B1 (en) | Controlling a robot in the presence of a moving object | |
JP6824622B2 (en) | Robot controls, control methods and systems | |
EP2772336B1 (en) | Recognition-based industrial automation control with position and derivative decision reference | |
US20120182155A1 (en) | Danger presentation device, danger presentation system, danger presentation method and program | |
JP2018202531A (en) | Safety control device, method of controlling safety control device, information processing program, and recording medium | |
US20180120804A1 (en) | Monitoring system, monitoring device, and monitoring method | |
JP2021500668A (en) | Monitoring equipment, industrial equipment, monitoring methods and computer programs | |
JP7119442B2 (en) | Monitoring system, monitoring method and monitoring program | |
JPWO2008047872A1 (en) | manipulator | |
US11148299B2 (en) | Teaching apparatus and teaching method for robots | |
JP2017028364A (en) | Monitoring system and monitoring device | |
US10750127B2 (en) | Monitoring system, monitoring method, and monitoring program | |
US11192249B2 (en) | Simulation device for robot | |
JP2019063947A (en) | Robot system | |
JP6544044B2 (en) | Image processing apparatus, image processing system and image processing method | |
EP2772812B1 (en) | Recognition-based industrial automation control with redundant system input support | |
KR20130120119A (en) | Integrated wireless ship management system based on local information of worker | |
US11815598B2 (en) | Anti-collision and motion monitoring, control, and alerting systems and methods | |
CN111614919A (en) | Image recording device and head-mounted display | |
KR20210086790A (en) | Risk notification system and the method thereof using virtual proxy sensor and virtual space-based danger zone setting with rtls sensor | |
JP2013188815A (en) | Control device, control method and computer program | |
JP2020002514A (en) | Helmet | |
JP6690203B2 (en) | Robot safety system |