JP2017061026A - Robot control device, robot control method, robot system and computer program - Google Patents

Robot control device, robot control method, robot system and computer program Download PDF

Info

Publication number
JP2017061026A
JP2017061026A JP2015188932A JP2015188932A JP2017061026A JP 2017061026 A JP2017061026 A JP 2017061026A JP 2015188932 A JP2015188932 A JP 2015188932A JP 2015188932 A JP2015188932 A JP 2015188932A JP 2017061026 A JP2017061026 A JP 2017061026A
Authority
JP
Japan
Prior art keywords
robot
human
information
notification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015188932A
Other languages
Japanese (ja)
Inventor
政人 池田
Masato Ikeda
政人 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015188932A priority Critical patent/JP2017061026A/en
Publication of JP2017061026A publication Critical patent/JP2017061026A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot control device and a robot control method capable of improving productivity more by suppression a decline of work efficiency of work by a robot while securing the safety of a person.SOLUTION: The robot control device for controlling the operation of a robot includes acquisition means for acquiring the position of the robot, first detection means for detecting the position of a person, notification means for giving notification information that can be perceived by the person, second detection means for detecting a reaction of the person who responds to the notification information outputted by the notification means, and operation determination means for determining the operation of the robot on the basis of the reaction of the person detected by the second detection means.SELECTED DRAWING: Figure 1

Description

本発明は、産業用ロボットの分野における、人間の危険回避のためのロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラムに関する。   The present invention relates to a robot control apparatus, a robot control method, a robot system, and a computer program for avoiding human danger in the field of industrial robots.

産業用ロボット(以下、「ロボット」と称する。)を使用する際には、ロボットの周囲に位置する人間(ロボットを使用する作業者、メンテナンス担当者等)の危険回避のための制御が必要となる。この危険回避の制御として、安全管理者又は作業者が予め設定した領域に、人間が侵入又は接近した場合に、ロボットを停止又は減速する制御が知られている。
特許文献1は、作業者が安全のため進入が禁止されている禁止領域に侵入している場合に、ロボットを停止させる、または、ロボットの動力電源を遮断するロボット制御装置を開示する。特許文献2は、ロボットの位置が作業者の作業領域内にある場合に、ロボットを所定速度以下に減速するロボット制御装置を開示する。また、特許文献3は、作業者及びロボットの現在の位置及び移動速度から、それぞれの将来位置を予測して、作業者とロボットとの接触可能性を判断し、判断結果に応じた停止又は減速処理を行う安全制御装置を開示する。
When using an industrial robot (hereinafter referred to as a “robot”), it is necessary to control for avoiding the danger of humans (operators using the robot, maintenance personnel, etc.) located around the robot. Become. As this risk avoidance control, there is known control for stopping or decelerating a robot when a human enters or approaches an area set in advance by a safety manager or an operator.
Patent Document 1 discloses a robot control device that stops a robot or shuts off a power source of a robot when an operator has entered a prohibited area where entry is prohibited for safety. Patent Document 2 discloses a robot control device that decelerates a robot to a predetermined speed or less when the position of the robot is within the operator's work area. Patent Document 3 predicts the future positions of the workers and robots from the current positions and moving speeds, determines the possibility of contact between the workers and the robot, and stops or slows down according to the determination results. A safety control device that performs processing is disclosed.

特開2009−050958号公報JP 2009-050958 A 特開2007−283448号公報JP 2007-283448 A 特開2010−120139号公報JP 2010-120139 A

しかしながら、従来の制御には以下の問題点があった。特許文献1では、ロボットの動作領域に作業者が侵入する度に、ロボットが停止してしまい、ロボットの作業効率が低下してしまう。特許文献2では、ロボットが作業領域内にある場合にロボットが減速される。このため、ロボットと作業者とがある時点で接近しただけで、将来接触の可能性が低い場合でも、その度にロボットが減速してしまい、作業効率が低下してしまう。
また、特許文献3では、ロボットの作業領域への人間の侵入の有無、人間とロボットの位置や移動速度等による接触判定のみで危険回避の要否を判断している。このため、人間がロボットを認識しているため人間側から危険回避動作が可能であり、ロボットの停止や減速をする必要がない場合であっても、その度にロボットの停止や減速を行ってしまう。したがって、ロボットの停止や減速が頻繁に発生し、ロボットの作業が滞って、ロボットの作業効率や生産性が低下してしまう。
However, the conventional control has the following problems. In Patent Document 1, each time an operator enters the operation area of the robot, the robot stops and the work efficiency of the robot decreases. In Patent Document 2, the robot is decelerated when the robot is in the work area. For this reason, even if the robot and the worker just approach each other at a certain point and the possibility of future contact is low, the robot is decelerated each time, and the work efficiency is lowered.
Further, in Patent Document 3, whether or not danger avoidance is necessary is determined only by contact determination based on the presence / absence of human intrusion into the work area of the robot, the position and movement speed of the human and the robot. For this reason, since humans recognize the robot, it is possible to perform danger avoidance operations from the human side, and even when there is no need to stop or decelerate the robot, stop and decelerate the robot each time. End up. Therefore, the robot is frequently stopped and decelerated, the work of the robot is delayed, and the work efficiency and productivity of the robot are lowered.

特に、ロボット側で動作経路をチューニングしたり、部品をランダムピッキングするロボットシステムでは、ロボットの動作経路が前回から変更され得るため、人間が変更(更新)されたロボットの軌道を予測することは困難である。この場合、ロボットがいつも同じ動作をするという前提で作業をしていると、ロボットが予測できない動作をしたときに、人間がロボットの動作に合わせて作業することが困難となる。このため、ロボットが人間等と接触等する危険が増大し、危険回避の制御の必要性がより高まる。
本発明は、上記課題に鑑みてなされたものであり、その目的は、人間の安全性を確保しつつ、ロボットによる作業の作業効率の低下を抑制して生産性をより向上することの可能なロボット制御装置及びロボット制御方法を提供することにある。
In particular, in robot systems that tune the motion path on the robot side or pick parts randomly, it is difficult to predict the trajectory of a robot that has been changed (updated) by a human because the robot motion path can be changed from the previous time. It is. In this case, if the robot is working on the assumption that it always performs the same operation, it becomes difficult for a human to work in accordance with the operation of the robot when the robot performs an unpredictable operation. For this reason, the danger that the robot will come into contact with a human or the like increases, and the necessity of risk avoidance control increases.
The present invention has been made in view of the above-described problems, and the object thereof is to improve productivity by suppressing a decrease in work efficiency of a robot operation while ensuring human safety. A robot control apparatus and a robot control method are provided.

上記課題を解決するために、本発明の一態様に係るロボット制御装置は、 ロボットの動作を制御するためのロボット制御装置であって、前記ロボットの位置を取得する取得手段と、人間の位置を検出する第1の検出手段と、前記人間が知覚可能な報知情報を報知する報知手段と、前記報知手段により出力された前記報知情報に応じた前記人間の反応を検出する第2の検出手段と、前記第2の検出手段により検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定する動作決定手段と、を具備する。
また、本発明の他の一態様に係るロボット制御方法は、ロボットの動作を制御するためのロボット制御方法であって、制御されるべき前記ロボットの位置を取得するステップと、人間の位置を検出するステップと、前記人間が知覚可能な報知情報を報知するステップと、報知された前記報知情報に応じた前記人間の反応を検出するステップと、検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定するステップと、を含む。
In order to solve the above-described problem, a robot control device according to an aspect of the present invention is a robot control device for controlling the operation of a robot, and includes an acquisition unit that acquires the position of the robot, and a human position. First detecting means for detecting, notifying means for notifying the notification information perceivable by the human, and second detecting means for detecting the human reaction according to the notification information output by the notifying means; And an action determining means for determining an action of the robot based on the reaction of the human detected by the second detecting means.
A robot control method according to another aspect of the present invention is a robot control method for controlling the operation of a robot, the step of obtaining the position of the robot to be controlled, and the detection of a human position. Based on the detected reaction of the human, the step of detecting the notification information perceivable by the human, the step of detecting the human reaction according to the notified notification information, Determining the operation of the robot.

本発明によれば、人間の安全性を確保しつつ、ロボットの作業効率の低下を抑制して生産性をより向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, the fall of the working efficiency of a robot can be suppressed and productivity can be improved more, ensuring a human safety.

本発明の実施形態1のロボットシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of the robot system of Embodiment 1 of this invention. 実施形態1のロボット制御装置の処理の流れを示すフローチャートである。4 is a flowchart illustrating a flow of processing of the robot control apparatus according to the first embodiment. 実施形態2のロボットシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of the robot system of Embodiment 2. FIG. 実施形態2のロボット制御装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the robot control apparatus of Embodiment 2. 実施形態3のロボットシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of the robot system of Embodiment 3. 実施形態3のロボット制御装置の処理の流れを示すフローチャートである。10 is a flowchart illustrating a processing flow of the robot control apparatus according to the third embodiment. 各実施形態のロボット制御装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the robot control apparatus of each embodiment.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

実施形態1
実施形態1に係るロボット制御装置は、所定の報知情報を、危険を回避すべき人間に報知し、報知情報に対する人間の反応を検出して、人間が報知情報を視覚等により意識したか(知覚したか)を推定する。ここで、報知情報とは、検出される人間の反応を得るため、人間が知覚可能な刺激として報知される情報である。接触などの危険予測情報と、この報知情報を意識したか(知覚したか)否かの推定結果に従って、ロボットが実行すべき危険回避動作を決定する。この危険回避動作の決定において、例えば、報知された情報を人間が意識している場合は、ロボットをそのまま動作させ、一方、報知された情報を人間が意識していない場合には、ロボットを減速したり、停止したりする。
Embodiment 1
The robot control apparatus according to the first embodiment notifies predetermined notification information to a person who should avoid danger, detects a human reaction to the notification information, and whether the person is aware of the notification information visually (perception) Estimated). Here, the notification information is information that is notified as a stimulus that can be perceived by a human to obtain a detected human reaction. A risk avoidance operation to be executed by the robot is determined according to risk prediction information such as contact and an estimation result of whether or not the notification information is conscious (perceived). In determining the risk avoidance operation, for example, when a person is conscious of the notified information, the robot is operated as it is. On the other hand, when the person is not conscious of the notified information, the robot is decelerated. To stop or stop.

人間がロボットと近接して作業する場合、ロボットがすでに生成された動作を変更することでロボットの動作が前回までと変わると、人間は、ロボットの変更された動作を予測できない場合がある。
このような場合に、実施形態1によれば、危険が予測された場合に、報知された情報(報知情報)を人間が意識(知覚)しているかによって、将来においての危険回避動作を決定する。ここで、本実施形態1においては、ロボットの動作の変更を含んだ状況を人間に報知し、人間の反応を観察することによって、人間がその報知情報を見て意識(知覚)したか否かを推定する。
このため、従来はロボットが停止していた状況においても、ロボットを継続して稼働させることができ、生産性が向上する。なお、本実施形態1において、「意識する」とは、人間が報知情報を知覚した状態をいう。また、「知覚する」とは、人間が、感覚器官を通じて外部のイベントを感得することをいい、例えば、後述のように報知情報が人間の視野内に入ったことを以って推定され得る。
When a human works in close proximity to the robot, if the robot's motion changes from the previous time by changing the motion already generated by the robot, the human may not be able to predict the changed motion of the robot.
In such a case, according to the first embodiment, when a danger is predicted, a future risk avoidance operation is determined depending on whether a person is conscious (perceived) of the notified information (notification information). . Here, in the first embodiment, whether or not a human being is conscious (perceived) by viewing the notification information by notifying a human being of a situation including a change in the operation of the robot and observing the human reaction. Is estimated.
For this reason, the robot can be continuously operated even in the situation where the robot is stopped conventionally, and the productivity is improved. In the first embodiment, “being conscious” means a state in which a human perceives notification information. Further, “perceive” means that a human senses an external event through a sensory organ, and can be estimated, for example, when notification information enters the human visual field as described later.

図1は、実施形態1のロボットシステム8の構成を示す。ロボットシステム8は、ロボット制御装置10と、ロボット11と、センサー12と、を備える。ロボット制御装置10は、制御部101と、ロボット位置取得部102(取得手段)と、画像情報取得部103と、人間位置検出部104(第1の検出手段)と、危険予測部105(予測手段)、を備える。実施形態1において、ロボット制御装置10は、さらに、情報報知部106(報知手段)と、反応情報検出部107(第2の検出手段)と、知覚(意識)状態推定部108(意識状態推定手段)と、危険回避対応動作決定部109(動作決定手段)と、を備える。   FIG. 1 shows a configuration of a robot system 8 according to the first embodiment. The robot system 8 includes a robot control device 10, a robot 11, and a sensor 12. The robot control apparatus 10 includes a control unit 101, a robot position acquisition unit 102 (acquisition unit), an image information acquisition unit 103, a human position detection unit 104 (first detection unit), and a risk prediction unit 105 (prediction unit). ). In the first embodiment, the robot control apparatus 10 further includes an information notification unit 106 (notification unit), a reaction information detection unit 107 (second detection unit), and a perception (consciousness) state estimation unit 108 (consciousness state estimation unit). ) And a danger avoidance handling operation determination unit 109 (operation determination means).

ロボット11は、図示されないロボットアームと、このロボットアーム先端に備えられるロボットハンドとから構成される。このロボットアームは、複数のリンクと、リンク同士を接続する1つ又は複数のジョイント(関節)とを備える。
ロボット11は、ロボット制御装置10の制御部101に接続され、制御部101からの動作指示によって動作するとともに、動作するロボットの各部の位置を制御部101に出力する。ロボット11は、必要に応じて、アーム土台となるベース部、アームを駆動するサーボモータ、およびこのサーボモータの角度位置を検出するエンコーダ等を備える。
The robot 11 includes a robot arm (not shown) and a robot hand provided at the tip of the robot arm. The robot arm includes a plurality of links and one or a plurality of joints (joints) that connect the links.
The robot 11 is connected to the control unit 101 of the robot control apparatus 10, operates in accordance with an operation instruction from the control unit 101, and outputs the position of each part of the operating robot to the control unit 101. The robot 11 includes a base portion serving as an arm base, a servo motor that drives the arm, an encoder that detects the angular position of the servo motor, and the like as necessary.

実施形態1において、ロボット11には、ロボット制御装置10の危険予測部から制御され、報知するための情報を出力する1つ又は複数の情報報知部106が配設される。
ロボット制御装置10の制御部101は、作業者からのロボット11の動作の指示(ティーチング)に基づき、ロボットの動作を制御する。具体的には、制御部101は、作業者が例えば部品(ワーク)を位置Aから位置Bへ移動させると指示した結果に基づき、障害物を回避して部品を位置Aから位置Bに移動するためのロボットの動作を規定する動作計画情報を生成(プランニング)する。ここで、位置Aはロボットの動作開始点で、位置Bはロボットの動作終了点とする。制御部101は、動作計画情報として、記憶手段(図7の外部メモリ714など)に、ロボット11で位置Aから位置Bへ部品を移動させるための動作の計画を保持している。
In the first embodiment, the robot 11 is provided with one or more information notification units 106 that are controlled by the danger prediction unit of the robot control device 10 and output information for notification.
The control unit 101 of the robot control apparatus 10 controls the operation of the robot based on an instruction (teaching) of the operation of the robot 11 from the operator. Specifically, the control unit 101 moves the part from the position A to the position B while avoiding the obstacle based on the result of the operator instructing the part (work) to be moved from the position A to the position B, for example. To generate (plan) motion plan information that defines the motion of the robot. Here, position A is the robot operation start point, and position B is the robot operation end point. The control unit 101 holds, as operation plan information, an operation plan for moving a part from position A to position B by the robot 11 in storage means (such as the external memory 714 in FIG. 7).

実施形態1において、制御部101は、初めに生成した動作計画情報を、タクトタイム短縮、軌道短縮、動作の円滑化、等の目的で、動作をチューニングする機能を有しており、生産性がより向上するようロボットの動作計画情報を変更する。つまり、ロボット11は毎回同じ動作を繰り返すとは限らず、制御部101が動作計画情報を変更すると、前回までとロボットの軌道が変更されることになる。
動作計画情報が変更される場合としては、この他、次の場合がある。まず、制御部101は、後述する危険回避対応動作決定部109(動作決定手段)が決定した危険回避対応動作に従って、ロボット11の動作計画情報を変更する。
さらに、部品の位置Aが予め指定された位置にない場合も考えられる。この場合は、センサーにより部品の置いてある位置Aを新たに取得し、取得した新たな位置Aに基づき部品の移動先である位置Bへ部品を移動する動作計画情報をプランニングして求めることになる。このように、ロボット11が部品を把持する位置Aが当初の位置と異なっている場合も、ロボット11の動作計画情報が前回から変更される。さらに、数種類の部品を組み付ける作業の場合にも、位置A、位置B共にその都度位置が異なり、ロボット11が生成する動作計画情報がその都度変更されることになる。
In the first embodiment, the control unit 101 has a function of tuning the operation for the purpose of shortening the tact time, shortening the trajectory, smoothing the operation, etc., for the operation plan information generated at the beginning, and productivity is improved. Change the robot motion plan information to improve it. That is, the robot 11 does not always repeat the same operation every time. When the control unit 101 changes the operation plan information, the robot trajectory is changed from the previous time.
Other cases in which the operation plan information is changed include the following cases. First, the control unit 101 changes the operation plan information of the robot 11 in accordance with a risk avoidance response operation determined by a risk avoidance response operation determination unit 109 (operation determination unit) described later.
Further, there may be a case where the position A of the component is not at a position designated in advance. In this case, the position A where the part is placed is newly acquired by the sensor, and the operation plan information for moving the part to the position B where the part is moved based on the acquired new position A is obtained by planning. Become. Thus, also when the position A at which the robot 11 grips a part is different from the initial position, the operation plan information of the robot 11 is changed from the previous time. Further, even in the work of assembling several types of parts, the position A and the position B are different each time, and the operation plan information generated by the robot 11 is changed each time.

制御部101は、ロボット11の動作計画情報が変更された場合、この変更状況を、ロボットの状況についての変更情報として保持記憶する。
ロボット位置取得部102(取得手段)は、制御部101が保持しているロボット11の動作計画情報から、ロボット11を構成するロボットアーム(アームを構成する各リンク)とロボットハンドの軌道を取得する。そして、ロボット位置取得部102は、ロボット11の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボットの位置の情報として算出する。この際、ロボット位置取得部102は、ロボット11の軌道の他に、ロボット11の現在の位置を制御部101から取得する。
When the operation plan information of the robot 11 is changed, the control unit 101 retains and stores the change status as change information regarding the robot status.
The robot position acquisition unit 102 (acquisition means) acquires the robot arm (each link configuring the robot) and the trajectory of the robot hand from the operation plan information of the robot 11 held by the control unit 101. . Then, the robot position acquisition unit 102 calculates a spatial area that passes when moving the part from the current position of the robot 11 to the position B as information on the position of the robot. At this time, the robot position acquisition unit 102 acquires the current position of the robot 11 from the control unit 101 in addition to the trajectory of the robot 11.

センサー12は、本実施形態1乃至3では、例えば、ロボットの作業領域や作業者などの画像を撮像する撮像カメラを利用することができる。具体的には、センサー12は、画像を撮像する複数の撮像カメラを含み、撮像画像を外部出力するための回路やインターフェースを備える。センサー12は、撮像カメラにより撮像される画像に、人間(作業者等)が含まれるように、画像を撮像する。
センサー12はロボットの作業領域や、ロボットの位置、作業者の位置、等を検出するセンサーであれば、他の手段を利用してもよい。例えば、撮像カメラ以外の3次元レーザー測定器等を利用することもできる。
画像情報取得部103は、キャプチャーボードやメモリなどで構成され、センサー12から入力される撮像画像から、二次元画像と距離画像とを取得する。
In the first to third embodiments, for example, the sensor 12 can use an imaging camera that captures an image of a robot work area or a worker. Specifically, the sensor 12 includes a plurality of imaging cameras that capture images, and includes a circuit and an interface for outputting the captured images to the outside. The sensor 12 captures an image so that a human (such as an operator) is included in the image captured by the imaging camera.
As long as the sensor 12 is a sensor that detects a robot work area, a robot position, a worker position, and the like, other means may be used. For example, a three-dimensional laser measuring device other than the imaging camera can be used.
The image information acquisition unit 103 includes a capture board, a memory, and the like, and acquires a two-dimensional image and a distance image from the captured image input from the sensor 12.

距離画像を取得するには、センサー12が視点の異なる複数の撮像カメラを備え、画像情報取得部103がこれら複数の撮像カメラが撮像した画像情報を取得すればよい。ここで、距離画像とは、2次元の画像データに、奥行き方向の距離のデータ、つまり、画像中の視点から対象物までの距離の値を有する画像データをいう。距離に関するデータを備えていれば、どのようなフォーマットのデータでもよい。また、例えば、通常の二次元の画像データの色彩や濃淡に加えてまたはこれに替えて、距離の値を有する画像データであってもよい。
なお、取得される画情情報は、二次元画像に替えて三次元画像でもよく、これらが取得できれば、画像情報取得部103、センサー12等の装置構成は、上記の構成には限定されない。例えば、センサー12が距離画像を生成して、画像情報取得部103に供給してもよい。
In order to acquire a distance image, the sensor 12 includes a plurality of imaging cameras having different viewpoints, and the image information acquisition unit 103 may acquire image information captured by the plurality of imaging cameras. Here, the distance image refers to distance data in the depth direction in two-dimensional image data, that is, image data having a distance value from the viewpoint in the image to the object. Data in any format may be used as long as data regarding distance is provided. Further, for example, image data having a distance value may be used in addition to or in place of the color and shading of normal two-dimensional image data.
The acquired image information may be a three-dimensional image instead of a two-dimensional image, and the apparatus configuration of the image information acquisition unit 103, the sensor 12, and the like is not limited to the above configuration as long as these can be acquired. For example, the sensor 12 may generate a distance image and supply it to the image information acquisition unit 103.

また、図示されない距離画像生成手段が、複数の撮像カメラで撮像した画像から、ステレオ法で撮影物体の距離画像を生成してもよい。
距離画像の取得は、これまで説明した構成に限定されず、他の構成を用いてもよい。例えば、撮像カメラと、撮像カメラと異なる位置から撮影物体に光のパターンを投影するパターン投影法などのアクティブ方式の三次元計測手法を利用してよい。あるいは、パターン投影法以外の三次元計測手法を利用して撮影物体の距離画像を算出してもよい。また、その他、TOF(Time Of Flight)方式等、種々の方式を利用して距離画像を取得してよい。画像情報取得部103は、人間位置検出部104(第1の検出手段)及び反応情報検出部107(第2の検出手段)に対して、取得した二次元画像と距離画像とを供給する。
In addition, a distance image generation unit (not shown) may generate a distance image of the photographed object by a stereo method from images captured by a plurality of imaging cameras.
The acquisition of the distance image is not limited to the configuration described so far, and other configurations may be used. For example, an active three-dimensional measurement method such as a pattern projection method of projecting a light pattern onto a photographing object from a position different from that of the imaging camera may be used. Alternatively, the distance image of the photographed object may be calculated using a three-dimensional measurement method other than the pattern projection method. In addition, the distance image may be acquired using various methods such as a TOF (Time Of Flight) method. The image information acquisition unit 103 supplies the acquired two-dimensional image and distance image to the human position detection unit 104 (first detection unit) and the reaction information detection unit 107 (second detection unit).

人間位置検出部104は、画像情報取得部103が取得した距離画像を領域分割(セグメンテーション)する。人間位置検出部104はまた、画像情報取得部103が取得した二次元画像から人間の頭部を検出する。人間位置検出部104は、領域分割した距離画像の複数の領域のうち、二次元画像の頭部に対応する部分を含む領域を人間の領域とし、この人間の領域に対応する距離画像の点群を、現在の人間の位置とする。
ここで、点群とはいわば点群データ(Point Cloud Data)のことを言い、点群とは、3D空間に存在する物や環境や人を、例えば3Dセンサを用いてその表面形状を撮影した「3D点の座標の集まり」のデータを意味する。この結果、撮影した距離画像を3D空間の点に透視投影したものが3D点群となる。
The human position detection unit 104 divides the distance image acquired by the image information acquisition unit 103 into regions (segmentation). The human position detection unit 104 also detects the human head from the two-dimensional image acquired by the image information acquisition unit 103. The human position detection unit 104 sets a region including a portion corresponding to the head of the two-dimensional image among a plurality of regions of the divided distance image as a human region, and a point cloud of the distance image corresponding to the human region Is the current human position.
Here, the point cloud means point cloud data (Point Cloud Data), and the point cloud is an image of the surface shape of an object, environment, or person existing in 3D space using, for example, a 3D sensor. It means data of “3D point coordinates”. As a result, a 3D point cloud is obtained by perspectively projecting the captured distance image onto a point in the 3D space.

危険予測部105(予測手段)は、人間の危険予測の一態様として、ロボットと人間の接触予測を行う。具体的には、危険予測部105は、ロボット位置取得部102が取得したロボットの位置と、人間位置検出部104が検出した人間の位置と、が重なる位置を、人間とロボットとが接触する可能性がある位置と予測する。この人間とロボットとが接触する可能性がある位置を示す情報を「接触情報」という。接触する可能性があると予測された場合、つまり、接触情報が存在する場合は、人間が現在の位置のまま移動せず、かつ、ロボットの動作が今回の軌道のままだと、時間が経過すると人間とロボットが接触する可能性がある。この場合、危険予測部105は、人間に危険の可能性があると予測する。すなわち、危険予測部105(予測手段)は、ロボットと人間との接触を危険として予測する。   The risk prediction unit 105 (prediction means) performs contact prediction between the robot and the human as an aspect of human risk prediction. Specifically, the danger prediction unit 105 can contact the human and the robot at a position where the robot position acquired by the robot position acquisition unit 102 and the human position detected by the human position detection unit 104 overlap. Predict that the position has sex. Information indicating a position where the human and the robot may come into contact is referred to as “contact information”. If it is predicted that there is a possibility of contact, that is, if contact information exists, if the human does not move at the current position and the robot's movement remains in the current trajectory, the time elapses Then, humans and robots may come into contact. In this case, the danger prediction unit 105 predicts that there is a possibility of danger to humans. That is, the danger prediction unit 105 (prediction means) predicts a contact between the robot and a human as a danger.

情報報知部106は、ロボット11の可動部分(可動部品)、例えば、ロボットアームの各リンクやロボットハンドに配設され、報知情報を人間に知覚可能に出力する。情報報知部106は、色や輝度を変化させることのできる液晶表示装置やLEDなどのデバイスで構成されてよい。
本実施形態1においては、光学的に報知を行うことができる液層表示装置やLED等を報知手段として利用したが、音声的に報知を行うスピーカやブザー等を利用することもできる。
なお、情報報知部106は、ロボット11の各リンクの外側となる面または側面に配設されてよい。ロボット11を構成するロボットアームとロボットハンドを構成する各リンクが、これらリンクを連結するジョイント(関節)で曲がった際に、情報報知部106が内側となる面にあっては、人間の視界から遮られ見え難くなるからである。また、情報報知部106の数は、各リンクに1つには限定されず、各リンクの外側と側面に複数配設してもよい。
The information notification unit 106 is disposed on a movable part (movable part) of the robot 11, for example, each link of the robot arm or the robot hand, and outputs the notification information so that it can be perceived by humans. The information notification unit 106 may be configured by a device such as a liquid crystal display device or an LED that can change color and brightness.
In the first embodiment, the liquid layer display device or LED that can optically notify is used as the notification means. However, a speaker or a buzzer that performs voice notification can also be used.
Note that the information notification unit 106 may be disposed on a surface or a side surface that is outside each link of the robot 11. When the links constituting the robot arm and the robot hand constituting the robot 11 are bent at the joints (joints) connecting these links, the information notification unit 106 is located on the inner surface, and thus from the human field of view. This is because it is difficult to see. Further, the number of information notification units 106 is not limited to one for each link, and a plurality of information notification units 106 may be provided on the outer side and the side surface of each link.

危険予測部105は、人間に危険の可能性があると予測した場合、上記接触情報を求める。危険予測部105は、この接触情報に基づき、接触情報以外の部分の情報報知部106を水色点灯させる。危険予測部105は例えば、ロボット11の軌道が前回と同じであり、かつ、接触する可能性がないと判断されるリンクまたはロボットハンドに配設されている情報報知部106を、水色で点灯(発光)させる。この水色表示色の点灯により、情報報知部106が配設されているリンク(又はロボットハンド)が、軌道が変更されず、かつ、人間との接触の可能性がないことが人間に報知される。   The danger prediction unit 105 obtains the contact information when predicting that there is a possibility of danger to humans. Based on the contact information, the danger prediction unit 105 turns on the information notification unit 106 other than the contact information in light blue. For example, the danger prediction unit 105 lights the information notification unit 106 arranged on the link or the robot hand that is determined to have the same trajectory of the robot 11 as the previous one and that there is no possibility of contact with the light blue ( Luminescence). By turning on the light blue display color, the link (or robot hand) on which the information notification unit 106 is disposed is notified to the human that the trajectory is not changed and there is no possibility of contact with the human. .

他方、危険予測部105は、接触情報に基づき、ロボット11の軌道が変更され、かつ、接触の可能性があると判断されるリンクまたはロボットハンドに配設されている情報報知部106のみを、桃色で点灯(発光)させる。この桃色表示色の点灯により、情報報知部106が配設されているリンク(又はロボットハンド)が、軌道が変更され、かつ、人間と接触の危険があることが人間に報知される。
なお、ロボット11の軌道の変更の有無にかかわらず、前回のロボット11の動作から桃色の発光表示を続けている情報報知部106は、ロボット11の該当するリンクまたはロボットハンドが人間と接触する可能性がある間は桃色の発光表示を継続する。これは、ロボット11の異常や非常停止やその他の原因で作業を停止し、その後ロボット11の動作を停止位置から再開する際、又は位置Aから動作をやり直す際に、人間への安全性を確保するためである。
On the other hand, the risk predicting unit 105 changes only the information notification unit 106 disposed on the link or the robot hand in which the trajectory of the robot 11 is changed and it is determined that there is a possibility of contact based on the contact information. Lights up (emits light) in pink. By turning on the pink display color, the link (or robot hand) on which the information notification unit 106 is arranged is notified to the human that the trajectory is changed and there is a risk of contact with the human.
Regardless of whether or not the trajectory of the robot 11 has changed, the information notification unit 106 that has continued to display the pink light emission from the previous operation of the robot 11 can make contact with the corresponding link of the robot 11 or the robot hand. The pink light emission display is continued while there is sex. This ensures safety to humans when the robot 11 is stopped due to an abnormality, emergency stop, or other cause, and then the robot 11 is restarted from the stop position or restarted from the position A. It is to do.

また、人間とロボット11とが接触すると予測される時刻までに時間がある場合は、水色から桃色に変えた情報報知部106の表示色を桃色のまま維持させ、継続して人間の反応を検出してもよい。
なお、表示色として、実施形態1では、水色と桃色の例を説明したが、ロボット11の状況の情報報知を人間が知覚上識別可能に行えることができれば、いかなる色を用いてもよい。
また、報知情報の他の提示方法としては、表示色の変更ではなく、ロボット11の軌道が同じ場合は点灯表示し、一方、ロボットの軌道が変更し、かつ、接触の可能性がある場合は、周期の長い点滅表示を行うことによって、人間に報知してもよい。あるいは、消灯と、点滅とを用いて、人間に報知してもよい。
In addition, when there is a time until the time when the human and the robot 11 are predicted to come into contact, the display color of the information notification unit 106 changed from light blue to pink is maintained pink, and the human reaction is continuously detected. May be.
In the first embodiment, examples of light blue and pink have been described as display colors. However, any color may be used as long as information notification of the status of the robot 11 can be perceived by humans.
Further, as another method of presenting the notification information, when the robot 11 has the same trajectory instead of changing the display color, the display is turned on. On the other hand, when the robot trajectory changes and there is a possibility of contact, Alternatively, it may be notified to a human by performing blinking display with a long cycle. Or you may alert | report to a person using light extinction and blinking.

さらに、報知情報を出力すべき情報報知部106そのものだけでなく、出力すべき情報報知部106の近傍に位置する等の複数の情報報知部106に対して報知内容を変更させてもよい。また、ロボット11に配設されたすべての情報報知部106の報知内容を変更させてもよい。これにより、人間がより報知情報を知覚し、反応しやすくなるため、ロボット11の危険回避反応動作の機会が低減する。
本実施形態1では、情報報知部106として、LED等の発光手段を利用しているが、他の発光手段でもよい。また、情報報知部106をLEDマトリクスや液晶表示装置で構成し、文字表示で情報報知を行ってもよい。また、情報報知部106としてスピーカ等を用い、音声による情報報知を行わせてもよい。
Furthermore, the notification content may be changed not only for the information notification unit 106 that should output the notification information but also for a plurality of information notification units 106 that are located in the vicinity of the information notification unit 106 that should output the notification information. Further, the notification contents of all the information notification units 106 arranged in the robot 11 may be changed. This makes it easier for humans to perceive the notification information and react, thereby reducing the chance of the robot 11 to perform the danger avoidance reaction operation.
In the first embodiment, a light emitting unit such as an LED is used as the information notification unit 106, but another light emitting unit may be used. Further, the information notification unit 106 may be configured by an LED matrix or a liquid crystal display device, and information notification may be performed by character display. Further, a speaker or the like may be used as the information notification unit 106 to perform information notification by voice.

また、本実施形態1においては、情報報知部106は、ロボット11の各リンクに設ける例を説明したが、設置場所に特段の制限はなく、どこに設置されていてもよい。例えば、ロボットのいずれかの部位に(集中して)配置されていてもよい。また例えば、情報報知部106である液晶ディスプレイをロボット11の近傍に配置して、人間に対する情報報知を行わせることができる。また、例えば、天井や壁に情報報知部106を設け、情報報知を行わせてもよい。
さらに、情報報知部106は、人間(例えば操作者)の体に装着するように構成してもよい。例えば、帽子、時計等にLEDを設けて情報報知部106を構成してもよい。さらにバイブレータを用いた情報報知部106を人間に携帯させて、振動で人間に情報報知を行うこともできる。また、情報報知部106としてスピーカを用いて音声による情報報知を行わせる場合は、人間に音声が聞こえれば、どこに設置されていてもよい。例えば人間が装着するヘッドホンやイヤホンを情報報知部106として利用してもよいし、壁に取り付けられたスピーカを情報報知部106として利用してもよい。
In the first embodiment, the information notification unit 106 has been described as being provided at each link of the robot 11. However, the installation location is not particularly limited and may be installed anywhere. For example, it may be arranged (concentrated) at any part of the robot. In addition, for example, a liquid crystal display that is the information notification unit 106 can be arranged in the vicinity of the robot 11 to notify information to a human. Further, for example, the information notification unit 106 may be provided on a ceiling or a wall to perform information notification.
Furthermore, the information notification unit 106 may be configured to be worn on a human body (for example, an operator). For example, the information notification unit 106 may be configured by providing an LED on a hat, a clock, or the like. In addition, an information notification unit 106 using a vibrator can be carried by a person and information can be notified to the person by vibration. In addition, when the information notification unit 106 uses a speaker to perform information notification by voice, the information notification unit 106 may be installed anywhere as long as a human can hear the voice. For example, headphones or earphones worn by humans may be used as the information notification unit 106, or a speaker attached to a wall may be used as the information notification unit 106.

反応情報検出部107は、画像情報取得部103が取得した二次元画像から、人間の頭部を検出し、さらに、人間の反応として顔の向き、又は、視線の向きを抽出する。反応情報とは、報知された報知情報に対する人間の反応に関する情報をいい、ここでは例えば、顔の向き、視線の向き等を含む。
知覚(意識)状態推定部108には、危険予測部205で予測した接触情報(ロボットと人間の接触位置)と、反応情報検出部107が検出した顔の向き又は視線の向き(以下、「反応情報」という。)と、が入力される。知覚(意識)状態推定部108は、この接触情報及び反応情報に基づいて、水色から桃色に表示色を変更させた情報報知部106の位置が、人間の視野内に入ったか否かを判断する。
The reaction information detection unit 107 detects a human head from the two-dimensional image acquired by the image information acquisition unit 103, and further extracts a face direction or a line-of-sight direction as a human reaction. The reaction information refers to information related to a human reaction to the notified information, and includes, for example, a face direction, a line-of-sight direction, and the like.
The perception (consciousness) state estimation unit 108 includes contact information (contact position between the robot and human) predicted by the risk prediction unit 205 and a face direction or line-of-sight direction detected by the reaction information detection unit 107 (hereinafter referred to as “reaction”). "Information")). Based on this contact information and reaction information, the perception (consciousness) state estimation unit 108 determines whether or not the position of the information notification unit 106 that has changed the display color from light blue to pink has entered the human visual field. .

実施形態1において、知覚(意識)状態推定部108は、水色から桃色に表示色を変更させた情報報知部106が人間の視野内に入ったか否かによって、人間が、表示色が変更された情報報知部106を、見た状態か否かを推定する。ここで、「見た状態」とは、表示色が変更された情報報知部106が、人間の視野内に入ることによって、人間が当該情報報知部106から出力された報知情報(表示色が変更されたこと)を知覚した、ないし意識した、と推定できることを意味するものとする。すなわち、知覚(意識)状態推定部108(推定手段)は、人間が報知情報を意識したか否かを推定するのである。   In the first embodiment, the perception (consciousness) state estimation unit 108 determines whether the display color has been changed by the human depending on whether the information notification unit 106 that has changed the display color from light blue to pink has entered the human visual field. It is estimated whether or not the information notification unit 106 is seen. Here, the “viewed state” means that the information notification unit 106 whose display color has been changed enters the human visual field, so that the information output from the information notification unit 106 by the human (the display color is changed). It can be assumed that it has been perceived or conscious. That is, the perception (consciousness) state estimation unit 108 (estimating means) estimates whether or not a person is aware of the notification information.

知覚(意識)状態推定部108は、表示色を変更させた情報報知部106を人間が見た状態であると判断した場合、人間が、情報報知部106から出力された報知情報に反応し、ロボット11の動作が変更したことを意識(知覚)している状態と推定する。一方、表示色を変更させた情報報知部106を人間が見た状態でないと判断した場合、人間が、情報報知部106から出力された報知情報に反応せず、ロボットの11の動作が変更したことを意識(知覚)していない状態と推定する。
危険回避対応動作決定部109(動作決定手段)は、知覚(意識)状態推定部108で推定された推定結果に従って、ロボット11の動作を変更せずに現状のまま継続するか、又は、危険回避対応動作を取るかを決定する。ここで、危険回避対応動作とは、ロボットの動作の減速、動作の停止、及び動作軌道変更(動作の経路変更)を含む。
When the perception (consciousness) state estimation unit 108 determines that the person has seen the information notification unit 106 whose display color has been changed, the human responds to the notification information output from the information notification unit 106, It is estimated that the movement of the robot 11 is conscious (perceived). On the other hand, when it is determined that the information notification unit 106 whose display color has been changed is not in a state where a human has seen, the human does not react to the notification information output from the information notification unit 106 and the 11 operations of the robot have changed. This is presumed to be unconscious (perceived).
The danger avoidance corresponding motion determination unit 109 (motion determination means) continues the current state of the robot 11 without changing the motion of the robot 11 according to the estimation result estimated by the perception (consciousness) state estimation unit 108, or avoids danger Decide whether to take action. Here, the danger avoidance response operation includes deceleration of the operation of the robot, stop of the operation, and change of the operation trajectory (change of the operation path).

(ロボット制御装置の処理の流れ)
次に、図2のフローチャートに基づき、ロボット制御装置10の処理の流れを説明する。図2の各処理動作は、図1に示されるロボット制御装置10のハードウエアがプログラムを実行することによって達成されてよい。
まず、S200において、ロボット位置取得部102は、制御部101が保持しているロボット11の軌道データとロボット11の現在の位置とから、ロボット11の動作完了に至るまでの動作範囲を算出する。このロボット11の軌道データは、ロボット11が現在の位置から位置Bに部品を移動する際の、ロボット11を構成するロボットアームとロボットハンドの各部材の時系列の位置と関節角、および各部材の形状寸法を含む。ロボット位置取得部102は、この軌道データから、ロボット11が、現在の位置から位置Bに移動する際に通過する空間的な領域を算出し、これをロボット11の位置とする。
(Robot controller processing flow)
Next, the processing flow of the robot control apparatus 10 will be described based on the flowchart of FIG. Each processing operation in FIG. 2 may be achieved by the hardware of the robot controller 10 shown in FIG. 1 executing a program.
First, in S <b> 200, the robot position acquisition unit 102 calculates an operation range from the trajectory data of the robot 11 held by the control unit 101 and the current position of the robot 11 to the completion of the operation of the robot 11. The trajectory data of the robot 11 includes the time-series positions and joint angles of the members of the robot arm and the robot hand constituting the robot 11 and the members when the robot 11 moves the part from the current position to the position B. Including the dimensions of From this trajectory data, the robot position acquisition unit 102 calculates a spatial region through which the robot 11 passes when moving from the current position to the position B, and uses this as the position of the robot 11.

S201において、画像情報取得部103は、二次元画像と距離画像とを取得する。
S202において、人間位置検出部104は、現在の人間の位置を検出する。具体的には、人間位置検出部104は、S201で取得した距離画像の点群を領域分割し、二次元画像から人間の頭部を検出する。そして、人間位置検出部104は、領域分割した距離画像の複数領域のうち、二次元画像の頭部に対応する点群を含む分割領域を人間の領域とする。この人間の領域に含まれる点群が、現在の人間の位置として検出される。
S203において、危険予測部105は、人間とロボット11の接触の可能性を予測することによって、人間の危険予測を行う。具体的には、危険予測部105は、S202で求めた人間の位置として検出された点群のうち、S200で求めたロボットの位置である空間的な領域の中に存在する点群の位置を、人間とロボットが接触する可能性がある位置(接触情報)として求める。
In S201, the image information acquisition unit 103 acquires a two-dimensional image and a distance image.
In S202, the human position detection unit 104 detects the current human position. Specifically, the human position detection unit 104 divides the point group of the distance image acquired in S201 into regions, and detects the human head from the two-dimensional image. Then, the human position detection unit 104 sets a divided area including a point group corresponding to the head of the two-dimensional image among a plurality of areas of the distance image obtained by dividing the area as a human area. A point group included in the human region is detected as the current human position.
In S <b> 203, the risk prediction unit 105 performs human risk prediction by predicting the possibility of contact between the human and the robot 11. Specifically, the risk prediction unit 105 determines the position of the point group existing in the spatial region that is the position of the robot obtained in S200 among the point groups detected as the human position obtained in S202. It is obtained as a position (contact information) where a human and a robot may contact each other.

ここで、ロボット11の位置は、現在の位置から位置Bに移動する際に通過する空間的な領域として、S200において求められている。このように、ロボット11の位置を空間的な領域として求めることによって、危険予測部105は、現在の人間の位置から、将来的にロボット11と接触する可能性があるかを予測することができる。
S203において、危険予測部105は、人間とロボット11とが接触する可能性がある位置(接触情報)を求めるが、この位置(接触情報)は、人間とロボット11が接触する際のロボット11の接触部分の位置となる。なお、現在のロボット11の位置と移動速度、及び現在の人間の位置と移動速度から、ロボット11と人間の将来位置を予測して、位置(接触情報)を推定してもよい。
Here, the position of the robot 11 is obtained in S200 as a spatial region through which the robot 11 passes when moving from the current position to the position B. In this way, by determining the position of the robot 11 as a spatial region, the danger prediction unit 105 can predict whether there is a possibility of contact with the robot 11 in the future from the current human position. .
In S203, the danger prediction unit 105 obtains a position (contact information) where the human and the robot 11 may come into contact. The position (contact information) is determined by the robot 11 when the human and the robot 11 come into contact with each other. This is the position of the contact part. Note that the position (contact information) may be estimated by predicting the future positions of the robot 11 and the human from the current position and moving speed of the robot 11 and the current position and moving speed of the human.

S204において、危険予測部105は、人間とロボット11との接触可能性の有無を判定する。具体的には、S203において、人間とロボット11とが接触する位置(接触情報)がなかった場合は、危険予測部105は接触可能性が無いと判定し、S212に進む。
S212において、危険予測部105は、ロボット11のすべての情報報知部106を水色で点灯させる。
S213において、制御部101は、ロボット11の動作を変更することなく再びS200に戻り、処理を続行する。
In S <b> 204, the danger prediction unit 105 determines whether or not there is a possibility of contact between the human and the robot 11. Specifically, in S203, if there is no position (contact information) where the human and the robot 11 contact each other, the risk prediction unit 105 determines that there is no possibility of contact, and the process proceeds to S212.
In S <b> 212, the danger prediction unit 105 lights all the information notification units 106 of the robot 11 in light blue.
In S213, the control unit 101 returns to S200 again without changing the operation of the robot 11, and continues the process.

他方、S203において、危険予測部105は、人間とロボット11とが接触する位置(接触情報)があると判断した場合は、S204において危険予測部105が人間とロボット11とが接触可能性は有りと判定し、S205に進む。
S205において、危険予測部105は、ロボットの軌道が変更し、かつ、接触の可能性があるリンクまたはロボットハンドに配設されている情報報知部106の表示色を水色から桃色に変更する。これによって、情報検知部106は、ロボット11の動作が変更されたことによるロボットの状況の変更を、人間に報知する。
ロボット11に配設された複数の情報報知部106のうち一部の情報報知部106の表示色を変更することで、接触する可能性があり危険が予測されたリンクがどれであるかを知らせ、人間が、どのリンク(又はハンド)と接触する可能性があるかを、即座に把握するメリットがある。ここで、「即座に把握する」とは、接触する可能性がある位置を、人間がすぐに(短時間で)知覚することができるように報知することを意味する。例えば、文字を表示して人間に読ませる等の(ある程度時間がかかる)方法ではなく色彩を変更することによって報知を行う例を示したものである。
On the other hand, if the risk prediction unit 105 determines in S203 that there is a position (contact information) where the human and the robot 11 contact each other, the risk prediction unit 105 may contact the human and the robot 11 in S204. And the process proceeds to S205.
In S <b> 205, the danger prediction unit 105 changes the display color of the information notification unit 106 arranged on the link or the robot hand in which the robot trajectory is changed and which may be contacted from light blue to pink. As a result, the information detection unit 106 notifies the human being of the change in the status of the robot due to the change in the operation of the robot 11.
By changing the display color of some of the information notification units 106 of the plurality of information notification units 106 arranged in the robot 11, it is possible to know which link is likely to be contacted and predicted to be dangerous. There is an advantage of immediately knowing which link (or hand) a human may contact. Here, “immediately grasp” means notifying a position where there is a possibility of contact so that a human can immediately perceive (in a short time). For example, an example is shown in which notification is performed by changing the color instead of a method of displaying characters and allowing a human to read (it takes some time).

S206において、反応情報検出部107は、S200で取得した二次元画像から人間の頭部を検出し、人間の反応情報として、顔の向きと、視線の向きとを検出する。頭部の検出は、人間の肩から頭部の形状であるΩ(オメガ)形状を検出することで行ってよい。また、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴により、顔の向きを検出することができ、また、目の領域を抽出することができる。
さらに、抽出した目の領域の中の瞳位置と顔の向きとから、視線の向きを推定することができる。
S207において、知覚(意識)状態推定部108は、人間の視野範囲を算出する。具体的には、S206において推定された視線の向きを人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、人間の視野範囲を算出することができる。
In S206, the reaction information detection unit 107 detects the human head from the two-dimensional image acquired in S200, and detects the face direction and the line-of-sight direction as human reaction information. The head may be detected by detecting the Ω (omega) shape that is the shape of the head from the human shoulder. Moreover, the orientation of the face can be detected and the eye region can be extracted by the Haar-like feature using local contrast of the eyes, nose, and mouth which are facial organs.
Furthermore, the direction of the line of sight can be estimated from the pupil position and the face direction in the extracted eye region.
In S207, the perception (consciousness) state estimation unit 108 calculates a human visual field range. Specifically, the direction of the line of sight estimated in S206 is the center of the human visual field, and the human visual angle is, for example, 90 degrees in the horizontal direction with respect to the center of the visual field, and 60 in the vertical direction is up. The human visual field range can be calculated with 70 degrees and 70 degrees below.

S208において、知覚(意識)状態推定部108は、S207において算出した視野範囲である視野角内に、S205において水色から桃色に表示色を変更した情報報知部106の位置が入ったか否かを算出する。
S209において、知覚(意識)状態推定部108は、時間が経過すると人間とロボットが接触する可能性がある、水色から桃色に表示色を変更した情報報知部106の位置を、人間が見た状態か否かを推定する。つまり、知覚(意識)状態推定部108(推定手段)は、人間が、報知情報を意識したか否かを推定する。
具体的には、S208において、桃色に表示色が変更された情報報知部106が人間の視野内に入っている場合は、人間が情報報知部106を見た状態(知覚ないし意識した状態)と判断(推定)し、S210に進む。他方、当該情報報知部106が人間の視野内に入っていない場合は、人間が情報報知部106を見ていない状態と判断(推定)し、S214に進む。
このように、実施形態1においては、S207からS209で、知覚(意識)状態推定部108により、ロボット11から及ぼされる危険についての人間の意識状態の推定を行う。
In S208, the perception (consciousness) state estimation unit 108 calculates whether or not the position of the information notification unit 106 whose display color has been changed from light blue to pink in S205 is within the viewing angle that is the viewing range calculated in S207. To do.
In S209, the perception (consciousness) state estimation unit 108 is a state in which the person has seen the position of the information notification unit 106 that has changed the display color from light blue to pink, which may contact the robot with time. Whether or not. That is, the perception (consciousness) state estimation unit 108 (estimating means) estimates whether or not a human is aware of the notification information.
Specifically, in S208, when the information notification unit 106 whose display color is changed to pink is in the human visual field, the state in which the human has viewed the information notification unit 106 (perception or conscious state) Judge (estimate), and proceed to S210. On the other hand, if the information notification unit 106 is not within the human visual field, it is determined (estimated) that the human is not looking at the information notification unit 106, and the process proceeds to S214.
As described above, in the first embodiment, in S207 to S209, the perception (consciousness) state estimation unit 108 estimates the human consciousness state about the danger posed from the robot 11.

つまり、実施形態1においては、ロボット11の軌道が変更され、かつ、人間と接触の可能性があるリンク又はロボットハンドに配設されている情報報知部106の表示色を、その他の情報報知部106から識別可能に変更する。これによりロボット11の動作状況の変更などのロボットの状況が、人間に報知される。このように表示色が変更された情報報知部106が報知する報知情報を、人間が見た状態と判断されれば、人間がロボット11の状況の変更を意識しているものと推定する。
あるいは、危険予測部105が危険を予測した場合に、または、動作が変更された場合のいずれかで、情報報知部106を介して報知情報を報知してもよい。
S210において、危険回避対応動作決定部109は、危険回避対応動作としてロボット11の動作を変更しないと決定する。この場合、制御部101は、ロボット11に対する制御を変更せずに、S211に進む。S211において、制御部101は、ロボット11の作業(例えば、部品(ワーク)の移動)の継続か完了かを判断する。ロボット11による部品の移動が完了していなければS200に戻り処理を続行し、部品の移動が完了していれば処理を終了する。
In other words, in the first embodiment, the display color of the information notification unit 106 arranged in the link or the robot hand in which the trajectory of the robot 11 is changed and which may be in contact with humans is changed to other information notification units. 106 so as to be identifiable. Thereby, the state of the robot such as a change in the operation state of the robot 11 is notified to the human. If it is determined that the notification information notified by the information notification unit 106 whose display color has been changed in this manner is viewed by a person, it is estimated that the person is aware of the change in the situation of the robot 11.
Alternatively, the notification information may be notified via the information notification unit 106 either when the danger prediction unit 105 predicts a danger or when the operation is changed.
In S210, the danger avoidance corresponding operation determination unit 109 determines not to change the operation of the robot 11 as the danger avoidance corresponding operation. In this case, the control unit 101 proceeds to S211 without changing the control of the robot 11. In step S <b> 211, the control unit 101 determines whether the operation of the robot 11 (for example, movement of a part (work)) is continued or completed. If the movement of the part by the robot 11 has not been completed, the process returns to S200 to continue the process, and if the movement of the part has been completed, the process ends.

一方、S214において、危険回避対応動作決定部109は、ロボット11が実行すべき危険回避対応動作を決定し、決定された危険回避対応動作を制御部101に指示する。制御部101は、危険回避対応動作決定部109が決定した危険回避対応動作をロボット11に実行させる。この危険回避対応動作は、人間とロボットの接触回避のため、ロボット11の動作速度を減速させることであってよい。また、人間の位置とロボット11の位置の現在の距離が、予め定められた距離以下の場合は、ロボット11を停止するようにしてもよい。あるいは、減速や停止ではなく、人間との接触を避けるため、人間とロボット11とが接触する際のロボットの接触部分の位置をロボット11が通過しないよう、ロボット11の軌道を変更してもよい。
なお、人間とロボット11とが接触する可能性がある時刻まで時間があり、予め設定されている接触までの猶予時間に達していない場合は、次のような処理をしてよい。すなわち、水色から桃色に変更した情報報知部106の表示色をその間桃色のまま維持し、継続して、人間の反応情報の検出を続けてもよい。
On the other hand, in S214, the danger avoidance corresponding action determining unit 109 determines the danger avoidance corresponding action to be executed by the robot 11, and instructs the control part 101 of the determined danger avoidance corresponding action. The control unit 101 causes the robot 11 to execute the risk avoidance response operation determined by the risk avoidance response operation determination unit 109. This danger avoidance response operation may be to reduce the operation speed of the robot 11 in order to avoid contact between the human and the robot. Further, the robot 11 may be stopped when the current distance between the human position and the position of the robot 11 is equal to or less than a predetermined distance. Alternatively, the trajectory of the robot 11 may be changed so that the robot 11 does not pass through the position of the contact portion of the robot when the human and the robot 11 are in contact with each other in order to avoid contact with the human rather than deceleration or stop. .
In addition, when there is a time until the time when the human and the robot 11 may come into contact and the preset time until contact is not reached, the following processing may be performed. That is, the display color of the information notification unit 106 that has been changed from light blue to pink may be kept pink while the detection of human reaction information may be continued.

この場合は、S209において、現時刻が、人間とロボット11とが接触する可能性がある時刻までの予め設定した時間に達したか否かの判断を併せて行えばよい。達していない場合はS210へ進んでロボットに通常動作を行わせて、危険回避対応動作を行わせなければよい。一方、予め設定した時間に達した場合に、S214に進み、ロボット11に危険回避対応動作を実行させればよい。
なお、ここでは、人間とロボット11とが接触する可能性がある時刻までの時間が予め設定されている接触までの所定の猶予時間に達していない場合の例を説明したが、時間的な要件に加えて、距離的な要件を採用してもよい。
すなわち、
・人間とロボット11とが接触する可能性がある時刻までの時間が所定の猶予時間に達していない
・人間とロボット11との距離が所定の距離未満
の2要件を満たす場合には、危険回避対応動作決定部109は、ロボット11の動作を変更せず、情報報知部106の表示色を桃色のまま維持させるという処理を行うこともできる。
In this case, in S209, it may be determined whether or not the current time has reached a preset time until a time when the human and the robot 11 may come into contact with each other. If not reached, the process proceeds to S210 and the robot does not have to perform the normal operation and perform the danger avoidance response operation. On the other hand, when the preset time is reached, the process proceeds to S214, and the robot 11 may perform the danger avoidance response operation.
Here, an example has been described in which the time until the time at which the human and the robot 11 may come into contact has not reached the predetermined grace time until the contact is set in advance. In addition, distance requirements may be employed.
That is,
・ The time until the time when the human and the robot 11 may come into contact has not reached the predetermined grace period. ・ When the distance between the human and the robot 11 satisfies the two requirements of less than the predetermined distance, avoiding danger. The corresponding action determination unit 109 can also perform a process of maintaining the display color of the information notification unit 106 in pink without changing the operation of the robot 11.

この場合も、例えば、上で述べたS209において、上記2種類の要件が共に満たされているか否かを検査することがよい。具体的には、人間とロボット11とが接触する可能性がある時刻までの時間が、予め設定した時間(猶予時間)に達したか否かの判断を行うと共に、人間とロボット11との距離が、所定の距離未満になったか否かの判断を行う。
このような処理は、例えば、作業者が熟練者の場合を考慮したものである。作業者が熟練者の場合、その作業者はロボットの動作パターンを把握しているので、あるタイミングまでは情報報知部106の表示を見ることも煩わしく、作業効率も落ちてしまう。したがって、情報報知部106を見ないまま作業を続けることを許容するために、ある程度時間がある場合は、予め設定した時間に達するまでは、危険回避対応動作を行わせないようにしたものである。
Also in this case, for example, in the above-described S209, it is preferable to check whether or not both of the two types of requirements are satisfied. Specifically, it is determined whether or not the time until the time when the human and the robot 11 may come into contact has reached a preset time (grace time), and the distance between the human and the robot 11 Is determined to be less than a predetermined distance.
Such processing takes into account, for example, the case where the worker is an expert. When the worker is a skilled worker, the worker grasps the movement pattern of the robot, so it is bothersome to see the display on the information notification unit 106 until a certain timing, and the work efficiency is also lowered. Therefore, in order to allow the work to be continued without looking at the information notification unit 106, when there is a certain amount of time, the risk avoidance response operation is not performed until the preset time is reached. .

また、このようにして、例えば、人間とロボット11とが接触するまでに予め設定した時間以上の時間がある場合は、人間(例えば作業者)が、情報報知部106の表示色の変更を都度確認しなくても、作業を継続することが可能となる。従って、人間はロボット11に接触する時刻までの予め設定した時間に到達するまでは、情報報知部106が出力する報知情報を都度確認しながら作業をする必要がなく、作業効率が向上する。さらに、危険回避対応動作が行われる頻度をさらに低減することができる。
人間は、設定された時間に達する前に、情報報知部106から出力される報知情報(例えば、表示色の変更)に気付いて確認を行えば、人間の安全性は確保される。仮に、設定された時間に達する前に、報知情報に気付かずに、又は気付いていても、人間が危険回避を行えなかった場合であっても、設定された接触までの時間に達した時点以降に、制御部101がロボット11を停止させればよい。接触前に最終的にロボット11が停止するので、人間の安全性は確保される。
In this way, for example, when there is a time longer than a preset time until the human and the robot 11 contact each other, the human (for example, an operator) changes the display color of the information notification unit 106 each time. The work can be continued without confirmation. Accordingly, it is not necessary for the human to work while confirming the notification information output from the information notification unit 106 each time until a predetermined time until the time when the human touches the robot 11, and the work efficiency is improved. Furthermore, it is possible to further reduce the frequency at which the danger avoidance response operation is performed.
If a human notices and confirms notification information (for example, a change in display color) output from the information notification unit 106 before reaching the set time, human safety is ensured. Even if the notification information is not noticed before the set time is reached, or even if it is not noticed, even if human beings have not been able to avoid danger, the time after reaching the set time is reached In addition, the control unit 101 may stop the robot 11. Since the robot 11 finally stops before contact, human safety is ensured.

(実施形態1の変形例)
上記実施形態1では、顔の向きと視線の向きから、人間の視野内に情報報知部106の位置が入った状態を以て、人間がロボット11を見た状態か否かを推定した。これに替えて、顔の向きから、人間の顔が情報報知部106の側を向いているのか、背にしているのか、に基づき、人間が情報報知部106を見ているか否かを推定してもよい。
いずれの場合でも、実施形態1においては、画像情報取得部103が取得した画像に撮像された人間を含む画像から人間の意識状態(知覚しているか否か)を推定する。したがって、ロボット11と協調して作業を行う作業者だけでなく、作業領域への侵入者、部品補充者又はメンテナンス者など、作業者以外の人間の安全性も、同様に確保することができる。
(Modification of Embodiment 1)
In the first embodiment, it is estimated from the orientation of the face and the direction of the line of sight whether or not the human has seen the robot 11 with the state where the information notification unit 106 is in the human visual field. Instead, it is estimated whether the human is looking at the information notification unit 106 based on whether the human face is facing the information notification unit 106 or the back from the direction of the face. May be.
In any case, in the first embodiment, the human consciousness state (whether or not it is perceived) is estimated from the image including the person captured in the image acquired by the image information acquisition unit 103. Therefore, not only the worker who performs work in cooperation with the robot 11 but also the safety of humans other than the worker, such as an intruder into the work area, a parts replenisher, or a maintenance person, can be similarly secured.

また、上記実施形態1では、ロボット11の動作の状況として、ロボット11の動作軌道が変更される状況を説明した。しかしながら、報知情報を報知するトリガとなる、ロボット11の動作の状況(ロボットの状況)は、ロボット11の動作の内部情報であって、ロボットの動作に関連する、温度、電流値、電圧値、圧力、把持力、動作速度、および外部へ加える力、などの情報を含んでよい。
温度としては、電子部品のはんだ付けやリフローはんだ付けの温度、温度に関連する内部情報としては、はんだ付け等の温度を制御する電流値なども含んでよい。温度に関しての危険予測は、危険予測部105が、人間の位置とロボット11の位置とから、温度に対して人間との間隔をどの程度離さなければ危険であるかの予め設定された距離に基づいて行えばよい。温度による人間の危険が予測された場合に、危険予測部105が、情報報知部106の表示色の変更を行って、人間に危険を報知すればよい。また、電流値が予め設定された閾値を超えた場合に、情報報知部106の表示色の変更を行って、人間に危険の報知をしてもよい。
In the first embodiment, the situation in which the motion trajectory of the robot 11 is changed has been described as the motion situation of the robot 11. However, the operation state (robot state) of the robot 11 serving as a trigger for notifying the notification information is internal information of the operation of the robot 11 and is related to the temperature, current value, voltage value, Information such as pressure, gripping force, operation speed, and external force may be included.
The temperature may include electronic component soldering or reflow soldering temperature, and the internal information related to temperature may include a current value for controlling the temperature of soldering or the like. The danger prediction regarding the temperature is based on a preset distance indicating how dangerous the danger prediction unit 105 should be from the human position and the position of the robot 11 if the distance between the human being and the human being is not separated from the temperature. Just do it. When a human danger due to temperature is predicted, the danger prediction unit 105 may change the display color of the information notification unit 106 to notify the person of the danger. Further, when the current value exceeds a preset threshold value, the display color of the information notification unit 106 may be changed to notify the danger to the human.

また、報知情報を報知するトリガとなるロボット11の周囲の状況は、ロボット11が把持している物(部品)の温度、形状、大きさ、質量、化学物質の反応、放射性物質(の放射能などによる人間へ)の影響、などの状況を含んでよい。さらに、周囲の状況は、人間とロボットの周囲の作業環境に存在する、専用治具、搬送装置、他のロボット、組み付けが行われる対象、組み付け部品の配置やそれらが入っている箱などの状況を含むこともできる。その他に、周囲の状況は、周辺の雰囲気である、明るさ、気温、湿度、圧力、振動、音、粉塵、風、光などの状況も含んでよい。   In addition, the situation around the robot 11 serving as a trigger for notifying the notification information includes the temperature, shape, size, mass, reaction of the chemical substance, and the radioactive substance (radioactivity of the substance (part) held by the robot 11. It may include situations such as the impact on humans). Furthermore, the surrounding situation is the situation such as dedicated jigs, transfer devices, other robots, objects to be assembled, placement of assembled parts and boxes containing them, which exist in the work environment around humans and robots Can also be included. In addition, the surrounding conditions may include surrounding conditions such as brightness, temperature, humidity, pressure, vibration, sound, dust, wind, and light.

また、上記実施形態1では、危険予測部105が、情報報知部106を介して、人間に報知情報を報知する方法として、情報報知部106の表示色の変更、点灯や点滅の周期で報知する方法を説明した。しかしながら、前述したロボット11の動作の状況の各種パラメータや各種の数値に対応して、情報報知部106が発光する光の強度を徐々に変化させることで報知してもよい。光の強度の変化は、数値等に応じてリニアに変化させてもよいし、小、中、大、のように段階的に変化させてもよい。   Moreover, in the said Embodiment 1, the danger prediction part 105 alert | reports by the period of a change of the display color of the information alerting | reporting part 106, lighting, or blinking as a method of alerting | reporting information to a person via the information alerting | reporting part 106. Explained the method. However, the information may be notified by gradually changing the intensity of light emitted by the information notification unit 106 in accordance with the various parameters and various numerical values of the operation state of the robot 11 described above. The change in light intensity may be changed linearly according to a numerical value or the like, or may be changed stepwise such as small, medium, and large.

また、光の表示色や発光強度の他に、音、圧力、風圧、温度、振動、を用いて、人間に報知情報を報知してもよい。この場合は、情報報知部106が、音を出力するスピーカや、振動を発生させるアクチュエータ等を備えればよい。また、情報報知部106により報知情報を報知することに替えて、ロボット11の動きを用いて報知情報を報知してもよい。この場合は、危険予測部105が、情報報知部106の表示を制御することに替えて、制御部101に対して人間に報知するためのロボット11の動きを送出すればよい。制御部101は、送出されるロボット11の報知のための動きをロボット11に実行させればよい。   In addition to light display color and light emission intensity, notification information may be notified to humans using sound, pressure, wind pressure, temperature, and vibration. In this case, the information notification unit 106 may include a speaker that outputs sound, an actuator that generates vibration, and the like. Further, instead of notifying the notification information by the information notification unit 106, the notification information may be notified using the movement of the robot 11. In this case, instead of controlling the display of the information notification unit 106, the danger prediction unit 105 may send a motion of the robot 11 for notifying the control unit 101 of a person. The control unit 101 may cause the robot 11 to perform a motion for notification of the robot 11 that is sent out.

さらに、危険予測部105は、人間に危険を及ぼすパラメータ、または、その値に基づく危険度を、情報報知部106に、数値で、あるいは、数値のレベルに応じた可変長のバーを表示させる等して、人間に報知情報を報知してもよい。または、情報報知部106は、危険度の値に応じて、表示の輝度を変化させてもよい。危険度に基づく報知を行う場合、情報報知部106は、このような表示を行うために数値を表示できるデバイスや、バー表示を行えるデバイス等を備えればよい。また、デジタル表示ではなく、インジケータのようなアナログ表示で危険度等の数値の情報を報知してもよい。
また、人間に報知情報を報知するタイミングとしては、ロボット11の動作の状況が変更されたか否かにかかわらず、常時報知し続けてもよいし、あるいは、ロボット11の動作の状況が変化した際に報知してもよい。
Furthermore, the risk prediction unit 105 displays a parameter that causes danger to humans or a risk level based on the value, on the information notification unit 106 as a numerical value or a variable-length bar corresponding to the level of the numerical value, etc. Then, the notification information may be notified to a human. Or the information alerting | reporting part 106 may change the brightness | luminance of a display according to the value of a danger level. When performing notification based on the degree of risk, the information notification unit 106 may include a device that can display numerical values, a device that can perform bar display, and the like in order to perform such display. Also, numerical information such as the degree of danger may be notified by analog display such as an indicator instead of digital display.
Further, the notification information to the human may be continuously notified regardless of whether the operation state of the robot 11 is changed or when the operation state of the robot 11 is changed. May be notified.

以上述べたように、実施形態1においては、危険予測に加え、ロボット11の動作の状況を人間に報知情報として報知し、報知情報の報知に対する人間の反応を検出する。そして、人間がその報知の位置(例えば報知情報を出力する情報報知部106の位置)を見た状態か否かを推定することで、ロボット11の状況の変化を意識(知覚)したかを推定する。この推定結果に基づき、危険回避対応動作の決定を行う。
したがって、人間がロボット11の状況の変化を意識している(知覚している)場合は、危険回避を行う必要がないため、ロボット11の停止や減速によるロボット11の作業効率の低下が抑制される。人間が変更されるロボットの動作を予測できない場合に対応した危険回避動作の実行が可能になる。これにより、ロボット11の作業効率及び生産性がより向上する。
As described above, in the first embodiment, in addition to the risk prediction, the operation status of the robot 11 is notified to the human as notification information, and a human reaction to the notification of the notification information is detected. Then, by estimating whether or not a person has seen the notification position (for example, the position of the information notification unit 106 that outputs the notification information), it is estimated whether or not the change in the situation of the robot 11 is conscious (perceived). To do. Based on this estimation result, the danger avoidance action is determined.
Therefore, when a human is conscious (perceived) of a change in the situation of the robot 11, it is not necessary to avoid danger, so that a decrease in the work efficiency of the robot 11 due to the stop or deceleration of the robot 11 is suppressed. The It is possible to execute a danger avoidance operation corresponding to a case where a human motion cannot be predicted. Thereby, the working efficiency and productivity of the robot 11 are further improved.

実施形態2
以下、本発明の実施形態2を、実施形態1と異なる点につき説明する。実施形態2も実施形態1と同様、ロボットの動作の変更状況を報知情報として人間に報知して、人間の反応を観察する。この人間の反応として、実施形態2は、人間に対する報知情報の報知に伴って、人間の中心視野が移動したかを検出することによって、人間がその報知情報によりロボットの状況の変更を認識したか否かを推定する。ここで、「認識」とは、「意識」の一種である。
図3は、実施形態2に係るロボットシステム38の構成を示す。図3において、図1に示す実施形態1に係るロボット制御装置10内の各部と同一の機能を有する構成には実施形態1と同一の符号が付されておりその説明は省略する。実施形態2のロボットシステム38は、センサー12と、ロボット制御装置30と、ロボット11と、から構成される。実施形態2に係るロボット制御装置30は、実施形態1に係るロボット制御装置10における知覚(意識)状態推定部108に替えて、認識状態推定部308(認識状態推定手段)を備える。
Embodiment 2
Hereinafter, the second embodiment of the present invention will be described with respect to differences from the first embodiment. Similarly to the first embodiment, the second embodiment notifies the human being of the change state of the operation of the robot as notification information, and observes the human reaction. As the human reaction, the second embodiment detects whether the central visual field of the human has moved in accordance with the notification of the notification information to the human, so that the human has recognized the change in the status of the robot based on the notification information. Estimate whether or not. Here, “recognition” is a kind of “awareness”.
FIG. 3 shows a configuration of the robot system 38 according to the second embodiment. 3, components having the same functions as those in the robot control apparatus 10 according to the first embodiment shown in FIG. 1 are denoted by the same reference numerals as those in the first embodiment, and description thereof is omitted. The robot system 38 according to the second embodiment includes the sensor 12, the robot control device 30, and the robot 11. The robot control apparatus 30 according to the second embodiment includes a recognition state estimation unit 308 (recognition state estimation unit) instead of the perception (consciousness) state estimation unit 108 in the robot control apparatus 10 according to the first embodiment.

認識状態推定部308は、人間にロボット11の動作の変更状況を報知する情報報知部106を介して報知する報知情報が変化する際に、その報知情報が変化した情報報知部106に人間が視線を移したか否かを検出する。そして、認識状態推定部308は、人間がその報知情報が変化した情報報知部106に視線を移したか否かによって、人間がロボット11の状況の変更を認識までしたか否かを推定する。
報知情報を変更した情報報知部106の位置が、人間の視野内にあって見えた状態であっても、その位置以外の場所や他のことに意識が集中しており、情報報知部106の位置には注意が向けられていない場合もある。
When the notification information to be notified via the information notification unit 106 that notifies the human of the change state of the operation of the robot 11 changes, the recognition state estimation unit 308 causes the human to gaze at the information notification unit 106 in which the notification information has changed. Is detected. Then, the recognition state estimation unit 308 estimates whether or not the human has recognized the change in the situation of the robot 11 depending on whether or not the human has moved his / her line of sight to the information notification unit 106 whose notification information has changed.
Even if the position of the information notification unit 106 that has changed the notification information is within the human field of view, the consciousness is concentrated on places other than the position and other matters. In some cases, attention is not directed to the position.

これに対して、実施形態2の認識情報推定部308は、危険予測部105が情報報知部106の出力する報知情報を変化させてから以降に、人間が報知情報の変化した情報報知部106の位置に中心視野を移動させたか否かを検出する。報知情報が変化してから以降に、人間の中心視野が情報報知部106に向けて移動していれば、報知情報の報知を認識した状態であると推定する。一方、人間が中心視野を移動させていなければ、たとえ報知情報の報知を意識(知覚)していたとしても、認識まではしていないものと推定する。ここで、「認識する」とは、外部のイベントを識別および判断したことをいい、例えば、後述のように人間が中心視野を報知情報に移動させたことを以って推定され得る。   On the other hand, the recognition information estimation unit 308 according to the second exemplary embodiment is configured such that the human being changes the notification information output from the information notification unit 106 after the danger prediction unit 105 changes the notification information. It is detected whether the central visual field has been moved to the position. After the notification information is changed, if the central visual field of the person has moved toward the information notification unit 106, it is estimated that the notification of the notification information has been recognized. On the other hand, if the human has not moved the central visual field, it is estimated that even if the notification of the notification information is conscious (perceived), it is not recognized. Here, “recognize” means that an external event has been identified and determined, and can be estimated, for example, by moving a central visual field to notification information as described later.

図4は、実施形態2のロボット制御装置30の処理の流れを示すフローチャートを示す。
図4の各処理動作は、図3に示されるロボット制御装置30のハードウエアがプログラムを実行することによって達成されてよい。実施形態2に係る図4のフローチャートは、実施形態1で説明したロボット制御装置10の処理の流れを示すフローチャート(図2)と、S407、S407b、S408、S409の処理動作が異なる。すなわち、ロボットに対する人間の認識状態を推定する処理が異なる。それ以外の処理は、図2に示すフローチャートの処理と同一であって、図2と同一の符号が付されておりその説明は省略する。
FIG. 4 is a flowchart illustrating a process flow of the robot control device 30 according to the second embodiment.
Each processing operation in FIG. 4 may be achieved by the hardware of the robot controller 30 shown in FIG. 3 executing a program. The flowchart of FIG. 4 according to the second embodiment is different from the flowchart (FIG. 2) showing the processing flow of the robot control apparatus 10 described in the first embodiment in the processing operations of S407, S407b, S408, and S409. That is, the process for estimating the human recognition state for the robot is different. The other processes are the same as those in the flowchart shown in FIG. 2 and are denoted by the same reference numerals as those in FIG.

まず、S407において、認識状態推定部308は、人間の視野範囲を算出する。具体的には、S206において検出した視線の向きを、人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、人間の視野範囲を算出する。
S407bにおいて、認識状態推定部308は、危険予測部105が情報報知部106の報知情報の表示色を変更する前と変更した以降との、人間の視線の動きを取得する。
実施形態1においては、画像情報取得部103が取得した現在の画像から抽出した、現在の視線の向きを用いて、人間が、情報報知部106が出力する報知情報への意識状態(知覚したか否かの状態)を推定した。これに対して、実施形態2においては、現在だけでなく、過去に検出した以前の視線の向きも利用する。過去の視線の向きから、情報報知部106の表示色が変更される前の視線の向きを得ることができる。画像情報取得部103が、例えば、一定時間Δt毎に画像情報を取得していれば、時系列データとして、一定間隔Δtでの時系列上の視線の動きが取得できる。S408において、認識状態推定部308は、S207で算出した視野範囲である視野角内での、S205において水色から桃色に表示色を変更した情報報知部106の位置の動きを算出する。
First, in S407, the recognition state estimation unit 308 calculates a human visual field range. Specifically, the direction of the line of sight detected in S206 is the center of the human visual field, and the human visual angle is, for example, 90 degrees in the horizontal direction and 60 in the vertical direction with respect to the center of the visual field. The visual field range of human beings is calculated with 70 degrees and below.
In S407b, the recognition state estimation unit 308 acquires the movement of the human eye line before and after the risk prediction unit 105 changes the display color of the notification information of the information notification unit 106.
In the first embodiment, using the current line-of-sight direction extracted from the current image acquired by the image information acquisition unit 103, a human being is aware of the notification information output by the information notification unit 106 (whether it has been perceived. The state of whether or not) was estimated. On the other hand, in the second embodiment, not only the present time but also the previous gaze direction detected in the past is used. From the past line-of-sight direction, it is possible to obtain the line-of-sight direction before the display color of the information notification unit 106 is changed. For example, if the image information acquisition unit 103 acquires image information every fixed time Δt, the movement of the line of sight on the time series at a constant interval Δt can be acquired as time series data. In S408, the recognition state estimation unit 308 calculates the movement of the position of the information notification unit 106 that has changed the display color from light blue to pink in S205 within the viewing angle that is the viewing range calculated in S207.

次に、S409において、認識状態推定部308は、情報報知部106の表示色が変更された後、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動したか否かを検出する。この中心視野の視野角として、視野の中心から例えば上下左右に2度の範囲を用いてよい。なお、中心視野の視野角は、2度に限定されず、また、上下と左右で異なる数値の角度としてもよい。
認識状態推定部308は、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動していれば、報知情報の変更に人間が反応して、少なくとも一瞬視線を移動させたと判断する。この場合、認識状態推定部308は、ロボットの状況の変更があったことを人間が認識(意識)したものと推定して、ロボット11の動作を変更せずにS210に進み、それ以降の動作は、実施形態1の図2において説明したとおりである。このように、認識状態推定部308(推定手段)は、人間が報知情報を意識したか否かを推定する。なお、本実施形態では、理解を容易にするために、「意識した」の一種として「認識した」という用語を用いている。
Next, in S409, the recognition state estimation unit 308 determines whether or not the position of the information notification unit 106 whose notification information has been changed has moved within the range of the central visual field after the display color of the information notification unit 106 has been changed. To detect. As the viewing angle of the central visual field, a range of 2 degrees from the center of the visual field, for example, up, down, left, and right may be used. The viewing angle of the central visual field is not limited to 2 degrees, and may be a numerical value that is different between the upper and lower sides and the left and right sides.
If the position of the information notification unit 106 in which the notification information has been changed has moved within the range of the central visual field, the recognition state estimation unit 308 causes the human to react to the change of the notification information and move the line of sight at least for a moment. Judge that In this case, the recognition state estimation unit 308 assumes that the human has recognized (consciously) that the robot status has changed, and proceeds to S210 without changing the operation of the robot 11, and the subsequent operation These are as described in FIG. 2 of the first embodiment. As described above, the recognition state estimation unit 308 (estimating means) estimates whether or not a person is aware of the notification information. In this embodiment, in order to facilitate understanding, the term “recognized” is used as a type of “awareness”.

S409に戻り、認識状態推定部308は、報知情報が変更された情報報知部106の位置が、中心視野の範囲内に移動していない場合は、表示部106の表示色の変更に人間が反応しなかったものと判断する。この場合、認識状態推定部308は、ロボット11の状況の変更を人間が認識していないものと推定して、S214に進み、危険回避対応動作が行われる、その動作は、実施形態1の図2において説明したとおりである。
以上説明したように、実施形態2においては、危険予測に加え、ロボット11の動作の状況を報知情報として人間に報知し、報知情報が変更された情報報知部106の位置に、人間が視線を移動させたか否かを検出する。そして、人間が視線を情報報知部106に移動させたか否かによって、人間がロボット11の状況の変更を認識しているか否かを推定し、その推定結果に基づき、危険回避対応動作の決定(判定)を行う。
Returning to S409, when the position of the information notification unit 106 whose notification information has been changed has not moved within the range of the central visual field, the recognition state estimation unit 308 responds to a change in the display color of the display unit 106 by a human. Judge that it was not. In this case, the recognition state estimation unit 308 estimates that the change in the state of the robot 11 has not been recognized by the human, and proceeds to S214, in which a risk avoidance response operation is performed. 2 as described above.
As described above, in the second embodiment, in addition to danger prediction, the state of operation of the robot 11 is notified to the human as notification information, and the human gazes at the position of the information notification unit 106 where the notification information is changed. It is detected whether or not it has been moved. Then, it is estimated whether or not the person recognizes the change in the situation of the robot 11 based on whether or not the person has moved his / her line of sight to the information notification unit 106, and based on the estimation result, determination of the risk avoidance response operation ( Judgment).

実施形態2においては、人間が視線を情報報知部106に移動させたか否かを、報知情報が変更された情報報知部106の位置が、人間の中心視野の範囲内に移動したか否かで判断する。人間が、報知情報を報知する情報報知部106に向けて中心視野を移動していれば、人間がそのロボットの状況を認識している可能性はより高いと考えられる。
これにより、人間がロボット11の状況の変化を認識していると判断できる場合は、ロボット11が危険回避対応動作を行う必要がなくなり、作業効率の低下が抑制され、生産性が向上する。
特に、人間が報知情報の変更を意識(知覚)はしていたとしても、報知情報の変更に注意が向かず認識していない状態の場合に、実施形態2によれば、ロボット11の状況の変更を認識していると誤って判断してしまうことが抑制できる。つまり、人間が危険回避を確実に実行できると推定できる場合以外は、ロボット11側に危険回避対応動作を実行させることにより、人間の安全性確保がより確実となる。
In the second embodiment, whether or not a person has moved his / her line of sight to the information notification unit 106 is determined based on whether or not the position of the information notification unit 106 whose notification information has been changed has moved within the range of the central visual field of the person. to decide. If the human is moving the central visual field toward the information notification unit 106 that notifies the notification information, the possibility that the human is recognizing the situation of the robot is considered higher.
As a result, when it can be determined that the human is recognizing a change in the situation of the robot 11, it is not necessary for the robot 11 to perform the danger avoidance response operation, the reduction in work efficiency is suppressed, and productivity is improved.
In particular, even if a human is conscious (perceived) to change the notification information, the state of the robot 11 is changed according to the second embodiment in a state where attention is not paid to the change of the notification information and the recognition is not performed. It can be suppressed that the change is recognized erroneously. In other words, unless it is estimated that a human can reliably perform danger avoidance, the safety of human beings can be more reliably ensured by causing the robot 11 side to perform the danger avoidance response operation.

実施形態3
以下、本発明の実施形態3を、実施形態2と異なる点につき説明する。実施形態3も実施形態2と同様、ロボットの動作の状況の変更を含む情報を報知情報として人間に報知して、人間の反応を観察する。この人間の反応として、実施形態3は、人間が危険回避の動き(動作)をしたか否かを検出し、この検出結果に基づいて、人間がロボットの状況の変更を認識したか否かを推定する。
図5は、実施形態3に係るロボットシステム58の構成を示す。図5において、図1に示す実施形態1に係るロボット制御装置10(図3のロボット制御装置30)内の各部と同一の機能を有する構成には実施形態1と同一の符号を付し、その説明は省略する。実施形態3のロボットシステム58は、センサー12と、ロボット制御装置50と、ロボット11とから構成される。実施形態3に係るロボット制御装置50は、実施形態1及び実施形態2の反応情報検出部107に替えて、反応情報検出部507を備える。また、実施形態3に係るロボット制御装置50は、実施形態2の認識状態推定部308に替えて、認識状態推定部508を備える。
Embodiment 3
Hereinafter, the third embodiment of the present invention will be described with respect to differences from the second embodiment. In the third embodiment, as in the second embodiment, information including a change in the state of operation of the robot is notified to a person as notification information, and a human reaction is observed. As this human reaction, the third embodiment detects whether or not a human has made a movement (motion) for avoiding danger, and based on the detection result, whether or not the human has recognized a change in the situation of the robot. presume.
FIG. 5 shows a configuration of a robot system 58 according to the third embodiment. In FIG. 5, the same reference numerals as those in the first embodiment are assigned to the components having the same functions as those in the robot control device 10 (the robot control device 30 in FIG. 3) according to the first embodiment shown in FIG. Description is omitted. The robot system 58 according to the third embodiment includes the sensor 12, the robot control device 50, and the robot 11. The robot control apparatus 50 according to the third embodiment includes a reaction information detection unit 507 in place of the reaction information detection unit 107 of the first and second embodiments. The robot control apparatus 50 according to the third embodiment includes a recognition state estimation unit 508 instead of the recognition state estimation unit 308 of the second embodiment.

反応情報検出部507は、ロボット11の状況の変更を危険予測部105が表示部106を介して人間に報知した後の、人間の位置を検出して、認識状態推定部508に供給する。反応情報検出部507は、この人間の位置の検出において用いられる画像情報を、実施形態1の画像情報取得部103により取得でき、また、人間の位置を、実施形態1の人間位置検出部104により検出できる。
認識状態推定部508は、情報報知部106が出力する報知情報の表示色が変更された後に、検出された人間の位置が、危険予測部105で予測された人間とロボット11とが接触する可能性のある位置(接触情報)から移動したか否かを判定する。認識状態推定部508は、人間が、接触する可能性のある位置から移動したか(接触情報が変位したか)否かで、人間がロボット11の状況の変更を認識したか否かを推定する。実施形態3は、人間が、報知情報の報知に応じて、接触する可能性のある位置から移動したかを判断することによって、人間が危険回避動作などの反応動作をしたか否かを推定する。
The reaction information detection unit 507 detects the position of the human after the danger prediction unit 105 notifies the change of the situation of the robot 11 to the human through the display unit 106 and supplies the detected position to the recognition state estimation unit 508. The reaction information detection unit 507 can acquire the image information used in the detection of the human position by the image information acquisition unit 103 of the first embodiment, and the human position can be acquired by the human position detection unit 104 of the first embodiment. It can be detected.
The recognition state estimation unit 508 may contact the robot 11 with the person whose human position is detected by the risk prediction unit 105 after the display color of the notification information output from the information notification unit 106 is changed. It is determined whether or not it has moved from a certain position (contact information). The recognition state estimation unit 508 estimates whether or not the person has recognized the change in the situation of the robot 11 based on whether or not the person has moved from a position where contact is likely (contact information has been displaced). . In the third embodiment, it is estimated whether or not a human has performed a reaction operation such as a danger avoidance operation by determining whether or not the human has moved from a position where there is a possibility of contact according to the notification of the notification information. .

図6は、実施形態3のロボット制御装置50の処理の流れを表すフローチャートを示す。図6の各処理動作は、図5に示されるロボット制御装置50のハードウエアがプログラムを実行することによって達成されてよい。図6の例に示すフローチャートは、実施形態2で説明したロボット制御装置30の処理の流れを示すフローチャート(図4)と、S606及びS607の処理動作が異なる。すなわち、人間の反応情報検出の処理とロボット11についての人間の認識状態の推定の処理とが異なる。それ以外の他の処理は、図4に示すフローチャートの処理と同様であって図4と同一の符号を付し、その説明は省略する。   FIG. 6 is a flowchart showing the process flow of the robot control apparatus 50 according to the third embodiment. Each processing operation of FIG. 6 may be achieved by the hardware of the robot control device 50 shown in FIG. 5 executing a program. The flowchart shown in the example of FIG. 6 is different from the flowchart (FIG. 4) showing the processing flow of the robot control apparatus 30 described in the second embodiment in the processing operations of S606 and S607. That is, the process for detecting human reaction information is different from the process for estimating the human recognition state of the robot 11. The other processes are the same as those in the flowchart shown in FIG. 4, and the same reference numerals as those in FIG.

S606において、反応情報検出部507は、情報報知部106の出力する報知情報を変更して人間に報知した後の、人間の位置を検出して、認識状態推定部508に供給する。人間の位置の検出処理は、S201及びS202の処理と同様の処理で実行できる。
S607において、認識状態推定部508(推定手段)は、人間がロボット11の状況の変更を認識(意識)したか否かを推定する。
実施形態3においては、情報報知部106の報知情報が変更された後、人間の位置がロボット11と接触する位置から移動していれば、人間がロボット11の状況の変化を認識して接触回避(危険回避)動作を行ったものと推定する。すなわち、認識状態推定部508(推定手段)は、人間が情報報知を意識したか否かを推定する。なお、本実施形態では、理解を容易にするために、「意識した」の一種として、「認識した」との用語を用いている。
In step S <b> 606, the reaction information detection unit 507 detects the position of the person after changing the notification information output from the information notification unit 106 and informing the person, and supplies the detected position to the recognition state estimation unit 508. The human position detection process can be executed by the same process as the process of S201 and S202.
In step S <b> 607, the recognition state estimation unit 508 (estimation unit) estimates whether a human has recognized (consciously) a change in the situation of the robot 11.
In the third embodiment, after the notification information of the information notification unit 106 is changed, if the position of the person has moved from a position in contact with the robot 11, the person will recognize the change in the situation of the robot 11 and avoid contact. (Dangerous avoidance) Presumed that the operation was performed. That is, the recognition state estimation unit 508 (estimating means) estimates whether or not a human is aware of information notification. In this embodiment, in order to facilitate understanding, the term “recognized” is used as a kind of “awareness”.

具体的には、危険予測部105が情報報知部106の報知情報を変更して人間に報知した後の、S606で得られた人間の位置である点群と、S203で得られたロボット11の接触部分の位置(接触情報)となる点群と、を比較する。この報知情報の報知後の人間の位置の点群の中に、ロボット11の接触部分の位置(接触情報)となる点群の領域がなければ、人間とロボット11とが接触する可能性のある位置から、人間が危険回避のため移動したことになる。この場合、実施形態3では、人間がロボット11の状況の変更を認識した(さらに危険回避動作を取った)と推定し、S210に進む。一方、報知情報の報知後の人間の位置の点群の中に、ロボット11の接触部分の位置(接触情報)となる点群の領域があれば、人間とロボット11とが接触する可能性のある位置から、人間が危険回避動作をしていないことになる。実施形態3においては、人間が危険回避動作をしていない場合は、人間がロボット11の状況の変更を認識していない(意識していない)と推定し、S214に進んでロボット11側の危険回避対応動作を決定(判定)する。   Specifically, after the risk prediction unit 105 changes the notification information of the information notification unit 106 and notifies the human being, the point cloud that is the position of the human obtained in S606 and the robot 11 obtained in S203. A point cloud that becomes the position of the contact portion (contact information) is compared. If there is no point group area that is the position (contact information) of the contact portion of the robot 11 in the point cloud of the human position after the notification of the notification information, the human and the robot 11 may contact each other. From the position, the human has moved to avoid danger. In this case, in the third embodiment, it is estimated that a human has recognized a change in the situation of the robot 11 (and has taken a risk avoiding operation), and the process proceeds to S210. On the other hand, if there is a point cloud area that is the position (contact information) of the contact portion of the robot 11 in the point cloud of the human position after the notification of the notification information, the human and the robot 11 may contact each other. From a certain position, the human is not performing the danger avoiding operation. In the third embodiment, when the human is not performing the danger avoiding operation, it is assumed that the human is not aware of the change in the situation of the robot 11 (not conscious), and the process proceeds to S214, and the danger on the robot 11 side. Determine (determine) the avoidance action.

以上説明したように、実施形態3においては、人間が危険予測部105により情報報知部106に出力された報知情報を見るかどうかを、ロボット11側で危険回避対応動作を実行するか否かの決定には用いていない。これに替えて、実施形態3では、人間の反応動作(人間の動き)の検出結果を反応情報として取得し、この反応情報の変化に基づくロボットの動作などの状況のその後の変化を、常に情報報知部106を介して報知情報として報知(表示)し続ければよい。   As described above, in the third embodiment, whether or not a human sees the notification information output from the danger prediction unit 105 to the information notification unit 106 is determined based on whether the robot 11 performs a danger avoidance response operation. Not used for decision. Instead, in the third embodiment, the detection result of the human reaction movement (human movement) is acquired as the reaction information, and the subsequent change in the situation such as the robot movement based on the change of the reaction information is always information. What is necessary is just to continue alerting | reporting (display) as alerting | reporting information via the alerting | reporting part 106. FIG.

これに対して、人間は、情報報知部106が出力する報知情報を見ることによって、ロボット11の状況の変化に気が付いて、人間がロボット11との接触を回避する行動を起こしてもよい。あるいは、作業に熟練している人間であれば、情報報知部106が出力する報知情報を見ることなく、将来のロボットの動作が複数パターンあり、それが切り替わることを十分に把握している場合もある。この場合は、ロボット11の動作などの状況変化が予測可能であるので、やはり人間がロボット11との接触を回避する行動をとることができる。
実施形態3において、情報報知部106は、いずれの場合であっても、人間がロボット11と接触しない状況になり人間の危険が回避された状態を判定した場合に、情報報知部106の表示色を桃色から水色に変更すればよい(図6のS204Y、S212)。
On the other hand, the human may notice the change in the situation of the robot 11 by looking at the notification information output by the information notification unit 106 and take action that the human avoids contact with the robot 11. Alternatively, if the person is skilled in the work, there is a case in which there are a plurality of patterns of future robot movements without switching to the notification information output by the information notification unit 106 and it is sufficiently understood that the switching is performed. is there. In this case, since a change in the situation such as the operation of the robot 11 can be predicted, it is possible for the human to take action to avoid contact with the robot 11.
In the third embodiment, in any case, the information notification unit 106 displays the display color of the information notification unit 106 when it is determined that the human is not in contact with the robot 11 and the human danger is avoided. May be changed from pink to light blue (S204Y and S212 in FIG. 6).

一方、ロボット11と人間とが接触する状況が回避されず、人間の危険が回避される状況にならない場合は、危険回避のため、ロボットの危険回避対応動作として減速または停止などすればよい(図6のS214)。危険予測部105が算出する危険度の値が所定の基準値より高い場合も同様である。
ここで、人間が作業の熟練者であれば、情報報知部106が出力する報知情報を、見たければ必要な場合にだけ見ればよいし、ロボット11の動きを熟知していれば見なくてもよい。万が一、見ないことにより、接触の危険度が高まれば、ロボット制御装置50側で危険回避を行うとの判断をして、ロボット11の動作を減速または停止させればよい。
On the other hand, if the situation in which the robot 11 and the human are in contact is not avoided and the situation in which the human danger is not avoided, the robot may be decelerated or stopped as a risk avoidance action to avoid the danger (see FIG. 6 S214). The same applies when the risk value calculated by the risk prediction unit 105 is higher than a predetermined reference value.
Here, if the person is a skilled worker, the notification information output by the information notification unit 106 may be viewed only when necessary to view the information, and if the user is familiar with the movement of the robot 11, the information is not necessary. Also good. In the unlikely event that the risk of contact increases due to a lack of viewing, it may be determined that danger avoidance will be performed on the robot controller 50 side, and the operation of the robot 11 may be decelerated or stopped.

以上説明したように、実施形態3においては、危険予測に加え、ロボット11の動作の状況を報知情報として人間に報知した後、人間が危険回避の動きをしたか否かを検出する。そして、人間が危険回避と推定できる動きをしたか否かによって、人間がロボット11の状況の変更を認識したか否かを推定し、その推定結果に基づき、危険回避対応動作の決定を行う。
これにより、人間がロボット11の状況の変化を認識していると推定できる場合は、ロボット11が危険回避対応動作を行う必要がなくなり、ロボットの作業効率の低下が抑制され、生産性が向上する。
As described above, in the third embodiment, in addition to danger prediction, after notifying a person of the operation status of the robot 11 as notification information, it is detected whether or not the person has made a movement to avoid danger. Then, it is estimated whether or not the human has recognized a change in the situation of the robot 11 depending on whether or not the human has made a motion that can be estimated as risk avoidance, and based on the estimation result, a risk avoidance response operation is determined.
Accordingly, when it can be estimated that a human is aware of a change in the situation of the robot 11, it is not necessary for the robot 11 to perform a danger avoidance response operation, a decrease in the work efficiency of the robot is suppressed, and productivity is improved. .

(他の構成例)
本発明は、上述の実施形態1ないし3で説明した構成中1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して所定のシステム又は装置に供給し、そのシステム又は装置がプログラムを実行することで実現することも可能である。このプログラムの実行は、システム又は装置のコンピュータにおける1つ以上のプロセッサーが、プログラムを読出し実行する処理を行えばよい。
また、1以上の機能を実現する回路(例えば、ASIC(Application Specific Integrated Circuit))によっても実現可能である。
図7は、上記各実施形態に係るロボット制御装置の各構成部の全部又は一部を構成することのできるコンピュータ710のハードウエア構成を示す。コンピュータ710は、CPU711と、ROM712と、RAM713と、外部メモリ714と、入力部716と、表示部717と、通信I/F718と、システムバス719とを備える。コンピュータ710は、さらに撮像部715を備えてもよい。
(Other configuration examples)
The present invention supplies a program that realizes one or more functions of the configurations described in the first to third embodiments to a predetermined system or apparatus via a network or a storage medium, and the system or apparatus executes the program. This can also be realized. The program may be executed by a process in which one or more processors in the computer of the system or apparatus read and execute the program.
Further, it can be realized by a circuit that realizes one or more functions (for example, ASIC (Application Specific Integrated Circuit)).
FIG. 7 shows a hardware configuration of a computer 710 that can constitute all or part of each component of the robot control apparatus according to each of the above embodiments. The computer 710 includes a CPU 711, a ROM 712, a RAM 713, an external memory 714, an input unit 716, a display unit 717, a communication I / F 718, and a system bus 719. The computer 710 may further include an imaging unit 715.

CPU711は、ロボット制御装置の各部の動作を統括的に制御するものであり、システムバス719を介して、各構成部を制御する。
ROM712は、CPU711が処理を実行するために必要な制御プログラム等を記憶する不揮発メモリである。なお、これらプログラムは、外部メモリ714や着脱可能な記憶媒体(不図示)に記憶されてもよい。
RAM713は、CPU711の主メモリ、ワークエリア等として機能する。すなわち、CPU711は、処理の実行に際してROM22から必要なプログラムやデータをRAM713にロードし、当該プログラムを実行することで各種の機能動作を実現する。
外部メモリ714は、例えば、CPU711がプログラムを実行する処理を行う再に必要な各種データや各種情報等を記憶している。また、外部メモリ714には、例えば、CPU711がプログラムを実行する処理を行うことにより得られた各種データや各種情報等も記憶される。
The CPU 711 comprehensively controls the operation of each unit of the robot control device, and controls each component unit via the system bus 719.
The ROM 712 is a non-volatile memory that stores a control program and the like necessary for the CPU 711 to execute processing. These programs may be stored in the external memory 714 or a removable storage medium (not shown).
The RAM 713 functions as a main memory, work area, and the like for the CPU 711. That is, the CPU 711 implements various functional operations by loading a program or data required from the ROM 22 into the RAM 713 when executing the processing and executing the program.
The external memory 714 stores, for example, various data and various information necessary for the CPU 711 to execute processing for executing a program. The external memory 714 also stores various data and various information obtained by the CPU 711 executing a program.

入力部716は、例えばキーボードやマウス等により構成され、ユーザが入力部716を介してロボット制御装置にティーチング等の指示を与えることができるよう構成される。
表示部717は、液晶ディスプレイ(LCD)等のモニタで構成されてよい。
通信I/F718は、外部装置と通信するためのインターフェースである。システムバス719は、CPU711、ROM712、RAM713、外部メモリ714、撮像部715、入力部716、表示部717及び通信I/F部718を通信可能に接相互続する。
The input unit 716 includes, for example, a keyboard and a mouse, and is configured so that the user can give instructions such as teaching to the robot control device via the input unit 716.
The display unit 717 may be configured with a monitor such as a liquid crystal display (LCD).
The communication I / F 718 is an interface for communicating with an external device. A system bus 719 connects the CPU 711, the ROM 712, the RAM 713, the external memory 714, the imaging unit 715, the input unit 716, the display unit 717, and the communication I / F unit 718 so that they can communicate with each other.

また、上記実施形態1〜3では、ロボット11が1台の場合を説明したが、複数台のロボット11を制御する場合に応用してもよい。また、ロボット制御装置10等とロボット11とは、近接して配置されている場合だけでなく、離隔して配置されていてもよい。また、ロボット制御装置10等とロボット11とが所定のネットワークで接続されているような構成をしていてもよい。
以上、本発明の実施形態について詳細に説明したが、これら実施形態は、本発明を実施するにあたっての具体例を示したに過ぎず、本発明の技術的範囲は、上記実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。
In the first to third embodiments, the case where the number of the robots 11 is one has been described. However, the present invention may be applied to the case where a plurality of robots 11 are controlled. Further, the robot control device 10 and the like and the robot 11 may be arranged apart from each other as well as being arranged close to each other. Further, the robot control device 10 or the like and the robot 11 may be configured to be connected via a predetermined network.
As mentioned above, although embodiment of this invention was described in detail, these embodiment only showed the specific example in implementing this invention, and the technical scope of this invention is limited to the said embodiment. It is not a thing. The present invention can be variously modified without departing from the gist thereof, and these are also included in the technical scope of the present invention.

8…ロボット制御システム、10…ロボット制御装置、11…ロボット、12…センサー、101…制御部、102…ロボット位置取得部、103…画像情報取得部、104…人間位置検出部、105…危険予測部、106…情報報知部、107…反応情報検出部、108…知覚(意識)状態推定部、109…危険回避対応動作決定部、308…認識状態推定部   DESCRIPTION OF SYMBOLS 8 ... Robot control system, 10 ... Robot control apparatus, 11 ... Robot, 12 ... Sensor, 101 ... Control part, 102 ... Robot position acquisition part, 103 ... Image information acquisition part, 104 ... Human position detection part, 105 ... Risk prediction , 106 ... Information notification unit, 107 ... Reaction information detection unit, 108 ... Perception (consciousness) state estimation unit, 109 ... Danger avoidance corresponding action determination unit, 308 ... Recognition state estimation unit

Claims (17)

ロボットの動作を制御するためのロボット制御装置であって、
前記ロボットの位置を取得する取得手段と、
人間の位置を検出する第1の検出手段と、
前記人間が知覚可能な報知情報を報知する報知手段と、
前記報知手段により出力された前記報知情報に応じた前記人間の反応を検出する第2の検出手段と、
前記第2の検出手段により検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定する動作決定手段と、
を具備することを特徴とするロボット制御装置。
A robot control device for controlling the operation of a robot,
Obtaining means for obtaining the position of the robot;
First detecting means for detecting a human position;
Informing means for informing the human perceptible notification information;
Second detection means for detecting the human reaction according to the notification information output by the notification means;
An action determining means for determining an action of the robot based on the reaction of the human detected by the second detecting means;
A robot control device comprising:
前記取得手段により取得された前記ロボットの位置と、前記第1の検出手段により検出された前記人間の位置とに基づいて、前記ロボットの前記人間への危険を予測する予測手段、
をさらに具備し、前記動作決定手段は、前記予測手段により予測された前記危険と、前記第2の検出手段により検出された前記人間の前記反応とに基づいて、前記ロボットの動作を決定する、
ことを特徴とする請求項1記載のロボット制御装置。
Predicting means for predicting the danger of the robot to the human based on the position of the robot acquired by the acquiring means and the position of the human detected by the first detecting means;
The movement determining means determines the movement of the robot based on the danger predicted by the prediction means and the human reaction detected by the second detection means.
The robot control apparatus according to claim 1.
前記予測手段は、前記ロボットと前記人間との接触を危険として予測する、
ことを特徴とする請求項2に記載のロボット制御装置。
The predicting means predicts contact between the robot and the human as dangerous;
The robot control apparatus according to claim 2.
前記動作決定手段は、前記予測手段が、前記ロボットの前記人間への危険を予測した場合であっても、前記予測した危険の発生までの時間が、所定の猶予時間に達していない場合は、前記ロボットの動作を変更しない、
ことを特徴とする請求項2または3に記載のロボット制御装置。
Even if the predicting means predicts the danger to the human being of the robot, the operation determining means, when the predicted time until the occurrence of the danger has not reached a predetermined grace time, Does not change the behavior of the robot,
The robot control apparatus according to claim 2 or 3, wherein
前記動作決定手段は、前記予測手段が、前記ロボットの前記人間への危険を予測した場合であっても、前記予測した危険の発生までの時間が、所定の猶予時間に達しておらず、且つ、前記ロボットと前記人間との間の距離が所定距離以上である場合は、前記ロボットの動作を変更しない、
ことを特徴とする請求項2または3に記載のロボット制御装置。
The operation determining means, even if the predicting means predicts the danger to the human being of the robot, the time to occurrence of the predicted danger has not reached a predetermined grace period, and When the distance between the robot and the human is a predetermined distance or more, do not change the operation of the robot.
The robot control apparatus according to claim 2 or 3, wherein
前記報知手段は、前記ロボットの状況または前記ロボットの周囲の状況を報知し、
前記第2の検出手段が検出する前記反応は、前記報知されたロボットの状況に対する前記人間の反応である、
ことを特徴とする請求項1から請求項5のいずれか1項に記載のロボット制御装置。
The informing means informs the situation of the robot or the situation around the robot,
The reaction detected by the second detection means is the human reaction to the informed robot status.
The robot control apparatus according to any one of claims 1 to 5, wherein
前記ロボットの状況は、前記ロボットの動作に関連する、温度、電流値、電圧値、圧力、把持力、動作速度、および外部へ加える力、並びに前記ロボットの軌道変更状況、の少なくとも1つを含む、
ことを特徴とする請求項6に記載のロボット制御装置。
The state of the robot includes at least one of a temperature, a current value, a voltage value, a pressure, a gripping force, an operation speed, and an external force related to the operation of the robot, and a trajectory change state of the robot. ,
The robot control apparatus according to claim 6.
前記ロボットの周囲の状況は、前記ロボットが把持する物体の温度、形状、大きさ、質量、化学物質の反応、および放射性物質の影響、の少なくとも1つを含む、
ことを特徴とする請求項6に記載のロボット制御装置。
The surrounding environment of the robot includes at least one of temperature, shape, size, mass, chemical reaction, and radioactive substance influence of an object held by the robot.
The robot control apparatus according to claim 6.
前記報知手段は、発光手段を具備し、発光する光の表示色又は発光する光の発光強度で情報報知を行う、
ことを特徴とする請求項1から8のいずれか1項に記載のロボット制御装置。
The notification means includes a light emission means, and performs information notification by a display color of emitted light or an emission intensity of emitted light.
The robot control apparatus according to any one of claims 1 to 8, wherein
前記第2の検出手段により検出された前記人間の前記反応に基づいて、前記人間が前記報知情報を意識したか否かを推定する推定手段、をさらに備え、
前記動作決定手段は、前記推定手段の推定結果に基づき、前記動作を決定する、
ことを特徴とする請求項1乃至9のいずれか1項に記載のロボット制御装置。
An estimation means for estimating whether or not the person is aware of the notification information based on the reaction of the person detected by the second detection means;
The motion determining means determines the motion based on an estimation result of the estimating means;
The robot control device according to claim 1, wherein the robot control device is a robot.
前記第2の検出手段が検出する前記反応は、前記人間の視線または顔の向きを含み、
前記推定手段は、前記人間の前記視線または前記顔の向きから前記人間の視野を得、前記報知手段が前記視野内に位置するか否かを判定することにより、前記報知情報を意識したか否かを推定する、
ことを特徴とする請求項10記載のロボット制御装置。
The reaction detected by the second detection means includes the human gaze or face orientation,
Whether the estimation means is aware of the notification information by obtaining the human visual field from the line of sight of the human or the face direction and determining whether the notification means is located in the visual field. To estimate,
The robot control apparatus according to claim 10.
前記第2の検出手段が検出する前記反応は、前記人間の前記視線の動きまたは前記顔の動きであり、
前記推定手段は、前記人間の前記視線の動きまたは前記顔の動きから、前記人間の中心視野を得、得られた前記人間の中心視野が移動したか否かを判定することにより、前記報知情報を意識したか否かを推定する、
ことを特徴とする請求項10記載のロボット制御装置。
The reaction detected by the second detection means is the movement of the human eye or the movement of the face,
The estimating means obtains the human central visual field from the movement of the line of sight of the human or the movement of the face, and determines whether the obtained central visual field of the human has moved, thereby determining the notification information. Estimating whether or not
The robot control apparatus according to claim 10.
前記推定手段は、前記検出した前記人間の前記動きに基づいて、前記予測手段により危険が予測される位置から前記人間が移動したか否かを判定することにより、前記報知情報を意識したか否かを推定する、
ことを特徴とする請求項10記載のロボット制御装置。
Whether the estimation means is aware of the notification information by determining whether the person has moved from a position where danger is predicted by the prediction means based on the detected movement of the person. To estimate,
The robot control apparatus according to claim 10.
前記動作決定手段は、前記動作として、少なくとも、動作の停止、動作の減速、動作の経路変更、のいずれかを決定する、
ことを特徴とする請求項1〜13のいずれか1項に記載のロボット制御装置。
The operation determining means determines at least one of operation stop, operation deceleration, and operation path change as the operation.
The robot control device according to claim 1, wherein the robot control device is a robot.
請求項1から14までのいずれか1項に記載のロボット制御装置に、センサーまたは前記ロボットのうち、少なくとも何れか1つ、を具備し、
前記第2の検出手段は、前記センサーからの情報に基づき前記人間の反応を検出し、
前記第1の検出手段は、前記センサーからの情報に基づき前記人間の位置を検出する、
ことを特徴とするロボットシステム。
The robot control device according to any one of claims 1 to 14, comprising at least one of a sensor and the robot,
The second detection means detects the human reaction based on information from the sensor,
The first detection means detects the position of the person based on information from the sensor.
A robot system characterized by this.
ロボットの動作を制御するためのロボット制御方法であって、
制御されるべき前記ロボットの位置を取得するステップと、
人間の位置を検出するステップと、
前記人間が知覚可能な報知情報を報知するステップと、
報知された前記報知情報に応じた前記人間の反応を検出するステップと、
検出された前記人間の前記反応に基づいて、前記ロボットの動作を決定するステップと、
を含むことを特徴とするロボット制御方法。
A robot control method for controlling the operation of a robot,
Obtaining the position of the robot to be controlled;
Detecting a human position;
Informing the human-perceivable notification information;
Detecting the human reaction according to the notified information,
Determining the movement of the robot based on the detected human response;
A robot control method comprising:
コンピュータが読み取り実行することで、前記コンピュータを、請求項1から14のいずれか1項に記載のロボット制御装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning the said computer as each means of the robot control apparatus of any one of Claim 1 to 14 by a computer reading and executing.
JP2015188932A 2015-09-25 2015-09-25 Robot control device, robot control method, robot system and computer program Pending JP2017061026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015188932A JP2017061026A (en) 2015-09-25 2015-09-25 Robot control device, robot control method, robot system and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015188932A JP2017061026A (en) 2015-09-25 2015-09-25 Robot control device, robot control method, robot system and computer program

Publications (1)

Publication Number Publication Date
JP2017061026A true JP2017061026A (en) 2017-03-30

Family

ID=58430382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015188932A Pending JP2017061026A (en) 2015-09-25 2015-09-25 Robot control device, robot control method, robot system and computer program

Country Status (1)

Country Link
JP (1) JP2017061026A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020001109A (en) * 2018-06-26 2020-01-09 セイコーエプソン株式会社 Robot control device and robot system
JP2020006494A (en) * 2018-07-12 2020-01-16 ファナック株式会社 robot
JP2020055066A (en) * 2018-10-02 2020-04-09 カシオ計算機株式会社 Robot control device, robot, robot control method and program
WO2021039897A1 (en) * 2019-08-30 2021-03-04 Johnan株式会社 Control device, control method, and program
WO2022196010A1 (en) * 2021-03-15 2022-09-22 オムロン株式会社 Control device, control system, control method, and program
US11565418B2 (en) * 2019-05-22 2023-01-31 Seiko Epson Corporation Robot system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020001109A (en) * 2018-06-26 2020-01-09 セイコーエプソン株式会社 Robot control device and robot system
US11235469B2 (en) 2018-06-26 2022-02-01 Seiko Epson Corporation Robot controller and robot system
JP7155660B2 (en) 2018-06-26 2022-10-19 セイコーエプソン株式会社 Robot controller and robot system
JP2020006494A (en) * 2018-07-12 2020-01-16 ファナック株式会社 robot
JP2020055066A (en) * 2018-10-02 2020-04-09 カシオ計算機株式会社 Robot control device, robot, robot control method and program
JP7275518B2 (en) 2018-10-02 2023-05-18 カシオ計算機株式会社 ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM
US11565418B2 (en) * 2019-05-22 2023-01-31 Seiko Epson Corporation Robot system
WO2021039897A1 (en) * 2019-08-30 2021-03-04 Johnan株式会社 Control device, control method, and program
WO2022196010A1 (en) * 2021-03-15 2022-09-22 オムロン株式会社 Control device, control system, control method, and program

Similar Documents

Publication Publication Date Title
JP2017061026A (en) Robot control device, robot control method, robot system and computer program
CN106808496B (en) Robot safety system
EP3715065B1 (en) Controlling a robot in the presence of a moving object
JP6824622B2 (en) Robot controls, control methods and systems
EP2772336B1 (en) Recognition-based industrial automation control with position and derivative decision reference
US20120182155A1 (en) Danger presentation device, danger presentation system, danger presentation method and program
JP2018202531A (en) Safety control device, method of controlling safety control device, information processing program, and recording medium
US20180120804A1 (en) Monitoring system, monitoring device, and monitoring method
JP2021500668A (en) Monitoring equipment, industrial equipment, monitoring methods and computer programs
JP7119442B2 (en) Monitoring system, monitoring method and monitoring program
JPWO2008047872A1 (en) manipulator
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP2017028364A (en) Monitoring system and monitoring device
US10750127B2 (en) Monitoring system, monitoring method, and monitoring program
US11192249B2 (en) Simulation device for robot
JP2019063947A (en) Robot system
JP6544044B2 (en) Image processing apparatus, image processing system and image processing method
EP2772812B1 (en) Recognition-based industrial automation control with redundant system input support
KR20130120119A (en) Integrated wireless ship management system based on local information of worker
US11815598B2 (en) Anti-collision and motion monitoring, control, and alerting systems and methods
CN111614919A (en) Image recording device and head-mounted display
KR20210086790A (en) Risk notification system and the method thereof using virtual proxy sensor and virtual space-based danger zone setting with rtls sensor
JP2013188815A (en) Control device, control method and computer program
JP2020002514A (en) Helmet
JP6690203B2 (en) Robot safety system