JP2016209991A - Robot control device, controlling method, and program - Google Patents

Robot control device, controlling method, and program Download PDF

Info

Publication number
JP2016209991A
JP2016209991A JP2016084451A JP2016084451A JP2016209991A JP 2016209991 A JP2016209991 A JP 2016209991A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016209991 A JP2016209991 A JP 2016209991A
Authority
JP
Japan
Prior art keywords
robot
human
person
contact
recognition state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016084451A
Other languages
Japanese (ja)
Other versions
JP6824622B2 (en
Inventor
政人 池田
Masato Ikeda
政人 池田
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
祐介 中里
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2016209991A publication Critical patent/JP2016209991A/en
Application granted granted Critical
Publication of JP6824622B2 publication Critical patent/JP6824622B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot control device which can enhance of work efficiency of a robot while avoiding contact between a person and a robot.SOLUTION: A robot control device comprises: acquisition means which acquires a position of a robot; detection means which detects a position of a person from an image including the person; prediction means which predicts contact between the person and the robot on the basis of a position of the robot and a position of the person; estimation means which estimates a recognition state of the person concerning the robot on the basis of specified information about the person extracted from the image; and control means which controls operation of the robot on the basis of a prediction result predicted by the prediction means and an estimation result estimated by the estimation means.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットの制御装置、制御方法およびシステムに関する。   The present invention relates to a robot control apparatus, control method, and system.

産業用ロボットを使用する際には、人間とロボットとの接触を回避するための安全制御装置(ロボット制御装置)が必要である。例えば、特許文献1には、作業者が進入禁止領域に侵入した場合、ロボットを停止するか動力電源を遮断するロボット制御装置が開示されている。特許文献2には、作業者とロボットの現在位置および移動速度から、作業者とロボットの将来位置を予測する安全制御装置が開示されている。特許文献2の安全制御装置は、作業者とロボットの将来位置に基づいて、作業者とロボットとが接触するかを予測し、接触すると予測した場合に安全制御を行う。   When using an industrial robot, a safety control device (robot control device) for avoiding contact between a human and the robot is necessary. For example, Patent Document 1 discloses a robot control device that stops a robot or shuts off a power supply when an operator enters an entry prohibited area. Patent Document 2 discloses a safety control device that predicts future positions of workers and robots from the current positions and movement speeds of the workers and robots. The safety control device disclosed in Patent Document 2 predicts whether the worker and the robot will come into contact based on the future positions of the worker and the robot, and performs safety control when the contact is predicted.

特開2009−50958号公報JP 2009-50958 A 特開2010−120139号公報JP 2010-120139 A

特許文献1のロボット制御装置では、作業者が進入禁止領域(ロボットの動作領域)に侵入する度にロボットが停止してしまう。ロボットが停止する度に、ロボットの作業効率が低下する。
特許文献2の安全制御装置は、ロボットと作業者が将来接触すると予測する場合には、ロボットを停止する。この予測は、作業者とロボットの現在位置および移動速度に基づいて行われる。したがって、特許文献2の安全制御装置では、作業者がロボットとの接触可能性を認識しているか否かに関わらずロボットを停止してしまうことがある。
本発明は、上記した従来技術の課題を解決すべく考案されたものであり、本発明の目的は、人間とロボットとの接触を回避すると共に、ロボットの作業効率をより向上することができるロボット制御装置を提供することである。
In the robot control apparatus of Patent Document 1, the robot stops every time an operator enters the entry prohibition area (robot operation area). Each time the robot stops, the work efficiency of the robot decreases.
The safety control device disclosed in Patent Literature 2 stops the robot when it is predicted that the robot and the worker will contact each other in the future. This prediction is performed based on the current positions and moving speeds of the worker and the robot. Therefore, in the safety control device of Patent Document 2, the robot may be stopped regardless of whether or not the operator recognizes the possibility of contact with the robot.
The present invention has been devised to solve the above-described problems of the prior art, and an object of the present invention is to avoid a contact between a human and the robot and improve the robot's work efficiency. It is to provide a control device.

本発明の1つの態様によるロボット制御装置は、ロボットの位置を取得する取得手段と、人間を含む画像から前記人間の位置を検出する検出手段と、前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段と、を備える。   A robot control apparatus according to one aspect of the present invention is based on acquisition means for acquiring a position of a robot, detection means for detecting the position of the human from an image including a person, the position of the robot, and the position of the human. Predicting means for predicting contact between the robot and the human, estimating means for estimating the human recognition state of the robot based on predetermined information about the human extracted from the image, Control means for controlling the operation of the robot based on the prediction result of the prediction means and the estimation result of the estimation means.

本発明によれば、人間とロボットとの接触を回避すると共に、ロボットの作業効率をより向上することができる。   According to the present invention, it is possible to avoid contact between a human and a robot and further improve the working efficiency of the robot.

実施形態1のロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system of Embodiment 1. FIG. 実施形態1のロボット制御装置の処理の流れを示すフローチャートである。4 is a flowchart illustrating a flow of processing of the robot control apparatus according to the first embodiment. 実施形態1の変形例のロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system of the modification of Embodiment 1. FIG. 実施形態2のロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system of Embodiment 2. FIG. 実施形態2のロボット制御装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the robot control apparatus of Embodiment 2.

以下、本発明の実施形態によるロボット制御装置を含むロボットシステムについて、図面を参照しながら詳細に説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の実施形態によって限定されない。例えば、実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。
(実施形態1)
実施形態1では、撮像画像から取得される、ロボットと人間の接触を予測するのに用いる人間の位置情報と人間の認識状態を推定するのに用いる人間の情報とに基づいて、ロボットの危険回避動作を制御する。
図1は、実施形態1のロボットシステム100の構成を示している。ロボットシステム100は、ロボット101と、視覚センサ102と、ロボット制御装置10と、を有する。
Hereinafter, a robot system including a robot control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. The technical scope of the present invention is determined by the scope of the claims, and is not limited by the following embodiments. For example, the configuration of the embodiment can be appropriately modified or changed according to the specifications of the apparatus to which the present invention is applied and various conditions (usage conditions, environment of use, etc.).
(Embodiment 1)
In the first embodiment, the risk avoidance of the robot is obtained based on the human position information used for predicting the contact between the robot and the human and the human information used for estimating the human recognition state, which are obtained from the captured image. Control the behavior.
FIG. 1 shows a configuration of a robot system 100 according to the first embodiment. The robot system 100 includes a robot 101, a visual sensor 102, and a robot control device 10.

ロボット101は、アーム(図示せず)とハンド(図示せず)とを有する。ロボット101が多関節型ロボットである場合、ロボット101は、複数のアームと関節を有する。ロボット101のハンドは、ロボット101の用途に応じたツールであり、本実施形態では、部品を把持して1つの位置(以下、「位置A」と称する。)から他の位置(以下、「位置B」と称する。)に移動するときに使用される。ロボット101は、後述するロボット制御装置10の制御部201に接続されている。ロボット101は、必要に応じて、アームの土台となるベース部、アームを駆動するサーボモータ、および当該サーボモータの角度位置を検出する手段(エンコーダ)等を備える。   The robot 101 has an arm (not shown) and a hand (not shown). When the robot 101 is an articulated robot, the robot 101 has a plurality of arms and joints. The hand of the robot 101 is a tool according to the application of the robot 101. In the present embodiment, a part is gripped and moved from one position (hereinafter referred to as “position A”) to another position (hereinafter referred to as “position”). Used when moving to “B”. The robot 101 is connected to a control unit 201 of the robot control apparatus 10 described later. The robot 101 includes a base portion serving as a base of the arm, a servo motor that drives the arm, and a means (encoder) that detects an angular position of the servo motor, as necessary.

視覚センサ102は、画像を撮像する手段である。本実施形態では、視覚センサ102は、視点の異なる複数の撮像カメラを含む。視覚センサ102は、複数の撮像カメラのうち任意の数のカメラを使用して撮像を行うことができる(例えば、全ての撮像カメラを使用することもできるし、1つの撮像カメラだけを使用することもできる)。視覚センサ102は、撮像カメラにより撮像される画像に、人間(作業者)が含まれるように撮像を行う。視覚センサ102は、後述するロボット制御装置10の画像情報取得部203に接続されている。   The visual sensor 102 is a means for capturing an image. In the present embodiment, the visual sensor 102 includes a plurality of imaging cameras having different viewpoints. The visual sensor 102 can perform imaging using an arbitrary number of cameras among a plurality of imaging cameras (for example, all imaging cameras can be used, or only one imaging camera is used). Can also). The visual sensor 102 performs imaging so that an image captured by the imaging camera includes a human (worker). The visual sensor 102 is connected to an image information acquisition unit 203 of the robot control apparatus 10 described later.

ロボット制御装置10は、制御部201、ロボット位置取得部202、画像情報取得部203、人間位置検出部204、接触予測部205、人間情報抽出部206、認識状態推定部207、および危険回避対応動作決定部208を備える。
ロボット制御装置10の制御部201は、ロボット101の動作を制御する。ロボット制御部201は、まず、作業者から指示(ティーチング)を受ける。具体的には、例えば、制御部201は、ロボット101により部品を位置Aから位置Bへ移動させる動作を指示(ティーチング)される。この指示は、例えば、作業者によって入力される。当該指示に基づき、制御部201は、障害物を回避して当該部品を位置Aから位置Bに移動するロボット101の軌道を生成(プランニング)する。ロボット101の軌道のデータは、ロボット101が位置Aから位置Bに部品を移動する際の、ロボット101を構成するアームとハンドの各部材の時系列の位置と関節角、および各部材の形状寸法を含む。
The robot control apparatus 10 includes a control unit 201, a robot position acquisition unit 202, an image information acquisition unit 203, a human position detection unit 204, a contact prediction unit 205, a human information extraction unit 206, a recognition state estimation unit 207, and a danger avoidance response operation. A determination unit 208 is provided.
The control unit 201 of the robot control apparatus 10 controls the operation of the robot 101. First, the robot control unit 201 receives an instruction (teaching) from an operator. Specifically, for example, the control unit 201 is instructed (teaching) by the robot 101 to move the component from position A to position B. This instruction is input by an operator, for example. Based on the instruction, the control unit 201 generates (plans) a trajectory of the robot 101 that moves the part from the position A to the position B while avoiding the obstacle. The trajectory data of the robot 101 includes the time-series positions and joint angles of the arm and hand members constituting the robot 101 and the shape dimensions of the members when the robot 101 moves a part from position A to position B. including.

位置Aは、ロボット101の動作開始点で、位置Bはロボット101の動作終了点となる。そして、制御部201は、ロボット101で位置Aから位置Bへ部品を移動させるためのロボット101の軌道のデータを保持する。
また、制御部201は、後述する危険回避対応動作決定部208で決定された危険回避対応動作に従って、ロボット101を制御する。
なお、部品の当初の位置が予め指定された位置でない場合は、視覚センサ102により部品の置いてある位置(当初の位置)Aを検出(取得)する。そして、取得した位置Aに基づき部品の移動先である位置Bへ部品を移動するロボット101の軌道をプランニングしてもよい。
Position A is the operation start point of the robot 101, and position B is the operation end point of the robot 101. The control unit 201 holds data on the trajectory of the robot 101 for moving the part from the position A to the position B by the robot 101.
In addition, the control unit 201 controls the robot 101 in accordance with a risk avoidance response operation determined by a risk avoidance response operation determination unit 208 described later.
If the initial position of the part is not a position designated in advance, the visual sensor 102 detects (acquires) the position (initial position) A where the part is placed. Based on the acquired position A, the trajectory of the robot 101 that moves the part to the position B that is the movement destination of the part may be planned.

ロボット位置取得部202は、ロボット101の位置を算出することによりロボット101の位置を取得する。本実施形態で、ロボット101の位置とは、ロボット101を構成するアームとハンドが位置Aから位置Bへ部品を移動する際に通過する空間的な領域を意味する。つまり、ロボット101の位置は、位置Aから位置Bまでのロボット101の動作範囲(移動経路)を意味する。ロボット101の位置を、ロボット101が位置Aから位置Bに移動する際に通過する空間的な領域(経路)としたのは、人間が位置Aから位置Bの間で移動するロボット101と接触する可能性があるかを推定するためである。
ロボット位置取得部202は、制御部201に接続されており、制御部201が保持しているロボット101の軌道のデータを、制御部201から受け取る(取得する)。ロボット位置取得部202は、ロボット101の軌道のデータから、ロボット101を構成するアームとハンドが位置Aから位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置として算出する。
The robot position acquisition unit 202 acquires the position of the robot 101 by calculating the position of the robot 101. In the present embodiment, the position of the robot 101 means a spatial region through which the arm and the hand constituting the robot 101 pass when moving a part from the position A to the position B. That is, the position of the robot 101 means the movement range (movement path) of the robot 101 from the position A to the position B. The reason why the position of the robot 101 is a spatial region (path) through which the robot 101 passes when moving from the position A to the position B is that the human contacts the robot 101 moving between the position A and the position B. This is to estimate whether there is a possibility.
The robot position acquisition unit 202 is connected to the control unit 201 and receives (acquires) the trajectory data of the robot 101 held by the control unit 201 from the control unit 201. The robot position acquisition unit 202 calculates, from the trajectory data of the robot 101, a spatial region through which the arm and hand constituting the robot 101 pass when moving parts from position A to position B as the position of the robot 101. To do.

なお、ロボット101が部品を位置Aから位置Bに移動するときの空間的な領域の全てをロボットの位置としなくてもよい。例えば、ロボット101が位置Aと位置Bの途中にあるとき、ロボット101の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置としてもよい。この際、ロボット位置取得部202は、ロボット101の現在の位置を、制御部201から受け取る。このようにすることで、ロボット101が位置Aからロボット101の現在の位置へ移動するまでに通過した空間的な領域を、上記した「ロボット101の位置」から除くことが出来る。   Note that not all of the spatial areas when the robot 101 moves a component from position A to position B need be the robot position. For example, when the robot 101 is in the middle of the position A and the position B, a spatial region that passes when moving a part from the current position of the robot 101 to the position B may be set as the position of the robot 101. At this time, the robot position acquisition unit 202 receives the current position of the robot 101 from the control unit 201. In this way, the spatial area that the robot 101 has passed from the position A to the current position of the robot 101 can be excluded from the “position of the robot 101”.

画像情報取得部203は、二次元画像と距離画像を取得する手段である。画像情報取得部203は、例えば、ビデオキャプチャボードやメモリなどで構成されている。画像情報取得部203は、視覚センサ102に接続されている。画像情報取得部203は、二次元画像と距離画像を算出するために、まず、視覚センサ102が撮像した画像を視覚センサ102から受け取る。そして、画像情報取得部203は、受け取った当該撮像画像から、二次元画像と距離画像を生成(算出)する。二次元画像と距離画像には、人間(作業者)の画像が含まれるようにする。距離画像を生成する場合、画像情報取得部203は、視覚センサ102の複数の撮像カメラによって撮像された複数の画像を基に、ステレオ法で撮影物体の距離画像を算出する。各距離画像は点群により形成されている。   The image information acquisition unit 203 is a means for acquiring a two-dimensional image and a distance image. The image information acquisition unit 203 includes, for example, a video capture board and a memory. The image information acquisition unit 203 is connected to the visual sensor 102. The image information acquisition unit 203 first receives an image captured by the visual sensor 102 from the visual sensor 102 in order to calculate a two-dimensional image and a distance image. Then, the image information acquisition unit 203 generates (calculates) a two-dimensional image and a distance image from the received captured image. The two-dimensional image and the distance image include a human (worker) image. When generating the distance image, the image information acquisition unit 203 calculates the distance image of the photographic object by the stereo method based on the plurality of images captured by the plurality of imaging cameras of the visual sensor 102. Each distance image is formed by a point group.

なお、距離画像の生成は、画像情報取得部203を使用せずに行ってもよい。例えば、視覚センサ102が、距離画像を生成してもよい。また、図示しない距離画像生成手段を設け、当該距離画像生成手段により距離画像を生成してもよい。さらに、撮像カメラと、当該撮像カメラとは異なる位置から撮影物体に光のパターンを投影する手段とを用いて、パターン投影法などのアクティブ方式の三次元計測手法により、撮影物体の距離画像を生成してもよい。   The generation of the distance image may be performed without using the image information acquisition unit 203. For example, the visual sensor 102 may generate a distance image. Further, a distance image generation unit (not shown) may be provided, and the distance image may be generated by the distance image generation unit. In addition, using an imaging camera and means for projecting a light pattern onto a photographic object from a position different from that of the imaging camera, a distance image of the photographic object is generated by an active three-dimensional measurement technique such as pattern projection May be.

人間位置検出部204は、人間(作業者)の位置を検出する手段である。人間の位置を検出するために、人間位置検出部204は、まず、画像情報取得部203で取得した距離画像を領域分割(セグメンテーション)する。また、人間位置検出部204は、画像情報取得部203で取得した二次元画像から人間の頭部を検出する。そして、人間位置検出部204は、領域分割して得られた距離画像の複数の領域のうち、二次元画像の人間の頭部に対応する部分を含む領域を人間の領域とし、その距離画像の点群を現在の人間の位置とする。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。   The human position detection unit 204 is a means for detecting the position of a human (worker). In order to detect the human position, the human position detection unit 204 first performs region segmentation on the distance image acquired by the image information acquisition unit 203. In addition, the human position detection unit 204 detects the human head from the two-dimensional image acquired by the image information acquisition unit 203. The human position detection unit 204 sets a region including a portion corresponding to the human head of the two-dimensional image among the plurality of regions of the distance image obtained by dividing the region as a human region. Let the point cloud be the current human position. The human head is detected, for example, by detecting the Ω shape that is the shape of the head from the human shoulder.

接触予測部205は、人間とロボット101が接触するかを推測する手段である。接触予測部205は、ロボット位置取得部202と人間位置検出部204とに接続されており、ロボット位置取得部202の算出結果(ロボットの位置)と人間位置検出部204の検出結果(人間の位置)とを受け取る。接触予測部205は、ロボット101の位置と人間の位置とが重なる位置を、人間とロボット101が接触する可能性がある位置(接触予測情報)と予測する。   The contact prediction unit 205 is a means for estimating whether or not a human and the robot 101 are in contact. The contact prediction unit 205 is connected to the robot position acquisition unit 202 and the human position detection unit 204, and the calculation result (robot position) of the robot position acquisition unit 202 and the detection result (human position of the human position detection unit 204). ) And receive. The contact predicting unit 205 predicts a position where the position of the robot 101 and the position of the human overlap with each other as a position (contact prediction information) where the human and the robot 101 may contact each other.

人間情報抽出部206は、画像から人間(作業者)の情報を抽出する手段である。本実施形態では、人間の情報は、作業者の顔の向きまたは視線の向きである。人間情報抽出部206は、画像情報取得部203に接続されており、画像情報取得部203で算出した二次元画像を画像情報取得部203から受け取る。そして、人間情報抽出部206は、当該二次元画像から人間の頭部を検出し、人間の情報として当該頭部から顔の向きまたは視線の向きを抽出(検出)する。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。頭部からの顔の向きの検出は、例えば、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴に基づいて顔の向きを検出することにより行う。頭部から視線の向きを検出する場合は、まず、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴に基づいて顔の向きを検出すると共に目の領域を抽出する。そして、抽出した目の領域の中の瞳の位置と顔の向きとから視線の向きを検出する。   The human information extraction unit 206 is a means for extracting human (worker) information from an image. In the present embodiment, the human information is the orientation of the operator's face or the direction of the line of sight. The human information extraction unit 206 is connected to the image information acquisition unit 203 and receives the two-dimensional image calculated by the image information acquisition unit 203 from the image information acquisition unit 203. Then, the human information extraction unit 206 detects a human head from the two-dimensional image, and extracts (detects) a face direction or a line-of-sight direction from the head as human information. The human head is detected, for example, by detecting the Ω shape that is the shape of the head from the human shoulder. The direction of the face from the head is detected, for example, by detecting the direction of the face based on the Haar-like feature using local contrast of eyes, nose, and mouth that are facial organs. When detecting the direction of the line of sight from the head, first the face direction is detected based on the Haar-like feature using the local contrast of the eyes, nose and mouth, which are the organs of the face, and the eye region To extract. Then, the direction of the line of sight is detected from the position of the pupil in the extracted eye region and the direction of the face.

認識状態推定部207は、人間(作業者)がロボット101を見ているか否かを推定する手段である。認識状態推定部207は、接触予測部205と人間情報抽出部206に接続されており、接触予測部205で予測した接触予測位置と人間情報抽出部206で抽出した顔または視線の向きの情報を、接触予測部205と人間情報抽出部206から受け取る。そして、認識状態推定部207は、当該予測した接触予測位置と抽出した顔または視線の向きから、人間と接触する可能性のあるロボット101の位置が人間の視野範囲内にあるか否かを判断し、当該判断に基づいて、人間がロボット101を見ているか否かを推定する。認識状態推定部207は、人間がロボット101を見ていると推定した場合、人間がロボット101を認識していると推定する。   The recognition state estimation unit 207 is a unit that estimates whether or not a human (worker) is looking at the robot 101. The recognition state estimation unit 207 is connected to the contact prediction unit 205 and the human information extraction unit 206. The recognition state estimation unit 207 receives information on the predicted contact position predicted by the contact prediction unit 205 and the orientation of the face or line of sight extracted by the human information extraction unit 206. , Received from the contact prediction unit 205 and the human information extraction unit 206. Then, the recognition state estimation unit 207 determines whether or not the position of the robot 101 that may come into contact with a human is within the human visual field range based on the predicted predicted contact position and the extracted face or line-of-sight direction. Based on this determination, it is estimated whether or not a human is looking at the robot 101. The recognition state estimation unit 207 estimates that the human is recognizing the robot 101 when it is estimated that the human is looking at the robot 101.

危険回避対応動作決定部208は、人間がロボット101を認識しているか否かによって、どのような危険回避対応動作を取るかを決定する手段である。危険回避対応動作決定部208は、認識状態推定部207に接続されており、認識状態推定部207の推定結果を認識状態推定部207から受け取る。接触予測部205で人間とロボット101が接触すると予測され、かつ、認識状態推定部207が人間はロボット101を認識していないと推定した場合、危険回避対応動作決定部208は、ロボット101の動作を変更して第一の危険回避対応動作を取るという決定をする。第一の危険回避対応動作とは、ロボットの動作速度を(接触予測前の速度より)減速し、その後、ロボットと人との間の距離が予め設定したマージン以下の距離になったらロボットを停止する動作である。接触予測部205で人間とロボット101が接触すると予測され、かつ、認識状態推定部207で人間がロボット101を認識していると推定された場合、第二の危険回避対応動作を取るという決定をする。第二の危険回避対応動作とは、接触予測部205でロボットと人間との接触予測に用いる、人間の位置とロボット101の位置との間の距離のマージンと、ロボットの動作速度とのうち少なくとも何れかひとつを変更する危険回避対応動作である。この場合もまた、ロボットと人との間の距離が予め設定したマージン以下の距離になったらロボットを停止する。   The danger avoidance corresponding action determining unit 208 is a means for determining what kind of danger avoidance corresponding action is taken depending on whether or not a human recognizes the robot 101. The danger avoidance handling operation determination unit 208 is connected to the recognition state estimation unit 207 and receives the estimation result of the recognition state estimation unit 207 from the recognition state estimation unit 207. When the contact prediction unit 205 predicts that the human and the robot 101 are in contact, and the recognition state estimation unit 207 estimates that the human is not recognizing the robot 101, the danger avoidance corresponding operation determination unit 208 performs the operation of the robot 101. And decide to take the first risk avoidance action. The first danger avoidance action is to decelerate the robot's movement speed (from the speed before contact prediction), and then stop the robot when the distance between the robot and the person falls below a preset margin. It is an operation to do. When the contact prediction unit 205 predicts that the human and the robot 101 are in contact with each other and the recognition state estimation unit 207 estimates that the human is recognizing the robot 101, the decision to take the second risk avoidance action is made. To do. The second danger avoidance response operation is at least one of a margin of a distance between the position of the human and the position of the robot 101 and an operation speed of the robot used in the contact prediction unit 205 for predicting the contact between the robot and the human. This is a risk avoidance action to change any one of them. In this case as well, the robot is stopped when the distance between the robot and the person falls below a preset margin.

危険回避対応動作決定部208が決定した内容は、制御部201に伝達される。制御装置201は、当該決定の内容に基づいて、ロボット101の動作を制御する。
図2は、実施形態1のロボット制御装置10の処理の流れを示すフローチャートである。図2では、人間情報抽出部206が、人間の情報として、作業者の視線の向きを抽出(検出)する場合を説明する。
S100では、ロボット位置取得部202が、制御部201から受け取ったロボット101の軌道のデータに基づいて、ロボット101の位置(動作範囲)を算出する。より詳しくは、ロボット位置取得部202は、ロボットの軌道データに基づいて、ロボット101が位置Aから位置Bに移動する際に通過する空間的な領域を算出し、これをロボット101の位置とする(ロボット位置の取得)。
The content determined by the danger avoidance handling operation determination unit 208 is transmitted to the control unit 201. The control device 201 controls the operation of the robot 101 based on the content of the determination.
FIG. 2 is a flowchart illustrating a processing flow of the robot control apparatus 10 according to the first embodiment. FIG. 2 illustrates a case where the human information extraction unit 206 extracts (detects) the direction of the operator's line of sight as human information.
In S100, the robot position acquisition unit 202 calculates the position (operation range) of the robot 101 based on the trajectory data of the robot 101 received from the control unit 201. More specifically, the robot position acquisition unit 202 calculates a spatial region through which the robot 101 passes when moving from the position A to the position B based on the trajectory data of the robot, and uses this as the position of the robot 101. (Acquisition of robot position).

なお、上記したように、ロボット101の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置としてもよい。この場合、ロボット101の軌道のデータと、制御部201が保持しているロボット101の現在の位置とから、ロボット101の位置を算出する。このようにすることで、ロボット101が位置Aからロボット101の現在の位置へ移動する際にすでに通過した空間的な領域を、ロボット101の位置から除くことが出来る。S100の後、S200に進む。   As described above, a spatial region that passes when moving a part from the current position of the robot 101 to the position B may be set as the position of the robot 101. In this case, the position of the robot 101 is calculated from the trajectory data of the robot 101 and the current position of the robot 101 held by the control unit 201. In this way, the spatial region that has already passed when the robot 101 moves from the position A to the current position of the robot 101 can be excluded from the position of the robot 101. After S100, the process proceeds to S200.

S200では、画像情報取得部203が、視覚センサ102から受け取った画像に基づいて、二次元画像と距離画像を算出(取得)する。S200の後、S300に進む。
S300では、人間位置検出部204が、現在の人間の位置を検出する。より詳しくは、人間位置検出部204は、S200で取得した距離画像の点群を領域分割すると共に、二次元画像から人間の頭部を検出する。領域分割した距離画像の複数領域のうち、二次元画像の頭部に対応する点群を含む分割領域を人間の領域とし、この領域の点群を現在の人間の位置とする。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。S300の後、S400に進む。
In S <b> 200, the image information acquisition unit 203 calculates (acquires) a two-dimensional image and a distance image based on the image received from the visual sensor 102. After S200, the process proceeds to S300.
In S300, the human position detector 204 detects the current human position. More specifically, the human position detection unit 204 divides the point group of the distance image acquired in S200 into regions and detects the human head from the two-dimensional image. Of the plurality of areas of the distance image obtained by the area division, a divided area including a point group corresponding to the head of the two-dimensional image is a human area, and a point group of this area is a current human position. The human head is detected, for example, by detecting the Ω shape that is the shape of the head from the human shoulder. After S300, the process proceeds to S400.

S400では、接触予測部205が、人間とロボット101との接触の可能性を予測する(接触予測)。より詳しくは、S300で検出した人間の位置である点群のうち、S100で取得したロボット101の位置である空間的な領域の中に存在する点群の位置を、人間とロボット101が接触する可能性がある位置(接触予測情報)とする。
S400で予測した位置は、人間とロボット101が接触する可能性があるロボットの接触予測部分の位置となる。
In S400, the contact prediction unit 205 predicts the possibility of contact between the human and the robot 101 (contact prediction). More specifically, among the point cloud that is the position of the human detected in S300, the human and the robot 101 contact the position of the point cloud that exists in the spatial area that is the position of the robot 101 acquired in S100. A possible position (contact prediction information).
The position predicted in S400 is the position of the predicted contact portion of the robot where the human and the robot 101 may contact each other.

なお、ロボット101の位置は、位置Aから位置Bにロボット101が移動する際にロボット101が通過する領域としなくてもよい。例えば、現在のロボット101の位置および移動速度、ならびに、現在の人間の位置および移動速度から、ロボット101と人間の将来位置を予測して、ロボット101と人間との接触予測位置を推定してもよい。S400の後、S500に進む。S500では、接触可能性の有無を判定する。S400で人間とロボット101が接触する可能性がある位置がない場合は、接触可能性が無いと判定され(S500:No)、S600に進む。S600では、危険回避対応動作決定部208が、ロボット101の動作を変更しないという決定をする。そして、制御部201は、この決定に基づいて、ロボット101の動作を変更しないという制御を行う。S600の後、S100に戻り、S100〜S500の処理を行う。   Note that the position of the robot 101 may not be an area through which the robot 101 passes when the robot 101 moves from position A to position B. For example, even if the future position of the robot 101 and the human is predicted from the current position and moving speed of the robot 101 and the current position and moving speed of the human, the predicted contact position between the robot 101 and the human is estimated. Good. After S400, the process proceeds to S500. In S500, the presence or absence of contact possibility is determined. If there is no position where there is a possibility of contact between the human and the robot 101 in S400, it is determined that there is no possibility of contact (S500: No), and the process proceeds to S600. In S600, the danger avoidance corresponding action determining unit 208 determines not to change the action of the robot 101. Then, the control unit 201 performs control not to change the operation of the robot 101 based on this determination. After S600, the process returns to S100 and the processes of S100 to S500 are performed.

S400で人間とロボット101が接触する可能性がある位置がある場合は、S500で接触可能性が有ると判定され(S500:Yes)、S700に進む。
S700では、人間情報抽出部206が、S200で取得した二次元画像から人間の頭部を検出し、人間の情報として、当該頭部から作業者の視線の向きを抽出(検出)する。作業者の視線の向きを検出するには、まず、顔の器官である目、鼻、口の局所的な明暗差を利用した、例えば、Haar-like特徴により顔の向きを検出して、その後、目の領域を抽出する。さらに、抽出した目の領域の中の瞳位置と顔の向きとから視線の向きを検出する。S700の後、S800に進む。S800では、認識状態推定部207が、人間の視野範囲を算出する。認識状態推定部207は、S700で検出した視線の向きを、人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、視野範囲を算出する。S800の後、S900に進む。
If there is a position where there is a possibility of contact between the human and the robot 101 in S400, it is determined that there is a possibility of contact in S500 (S500: Yes), and the process proceeds to S700.
In S700, the human information extraction unit 206 detects the human head from the two-dimensional image acquired in S200, and extracts (detects) the direction of the operator's line of sight from the head as human information. In order to detect the gaze direction of the worker, first, the face direction is detected by using, for example, the Haar-like feature using the local contrast of the eyes, nose and mouth, which are the organs of the face. Extract the eye area. Further, the direction of the line of sight is detected from the pupil position and the face direction in the extracted eye region. After S700, the process proceeds to S800. In S800, the recognition state estimation unit 207 calculates the human visual field range. The recognition state estimation unit 207 sets the direction of the line of sight detected in step S700 as the center of the human visual field, and sets the human visual angle to, for example, 90 degrees in the horizontal direction with respect to the center of the visual field. The visual field range is calculated on the assumption that 60 degrees is below and 70 degrees below. It progresses to S900 after S800.

S900では、認識状態推定部207が、S800で算出した視野範囲(視野角)内に、S400で予測した、人間とロボット101が接触する可能性がある位置(ロボット接触予測部分位置)が含まれているかを算出する。S900の後、S1000に進む。S1000では、認識状態推定部207が、S900の算出結果に基づいて、人間とロボット101が接触する可能性がある位置を、人間が見ているか否かを判定する。より詳しくは、S900でロボット101の接触する可能性がある位置が、人間の視野範囲内にあるという算出がなされていれば、S1000でロボット101の接触予測部分の位置が見えていると判定する(S1000:Yes)。一方、S900でロボット101の接触予測部分の位置が、人間の視野範囲内にないという算出がなされていれば、S1000でロボット101の接触する可能性がある位置が人間には見えていないと判定する(S1000:No)。   In S900, the position (the robot contact predicted partial position) predicted by S400 that the human being and the robot 101 may contact is included in the visual field range (viewing angle) calculated in S800 by the recognition state estimation unit 207. Is calculated. After S900, the process proceeds to S1000. In S1000, the recognition state estimation unit 207 determines whether or not the person is looking at a position where the person and the robot 101 may contact based on the calculation result of S900. More specifically, if it is calculated in S900 that the position where the robot 101 may come into contact is within the human visual field range, it is determined in S1000 that the position of the predicted contact portion of the robot 101 is visible. (S1000: Yes). On the other hand, if it is calculated in S900 that the position of the predicted contact portion of the robot 101 is not within the human visual field range, it is determined in S1000 that the position where the robot 101 may contact is not visible to the human. (S1000: No).

本実施形態では、S800からS1000で、ロボット101についての人間の認識状態の推定(判定)を行っている。人間が人間とロボット101が接触する可能性があるロボットの位置を見ている状態であれば、人間がロボット101を認識していると推定する(S1000:Yes)。つまり、人間の視野範囲(視野角)内にロボット101の接触予測部分の位置が入っている状態を、ロボット101について人間が認識している状態であると推定(判定)する。人間が人間とロボット101が接触する可能性があるロボットの位置を見ていない状態であれば、人間がロボット101を認識していない状態と推定する(S1000:No)。
S1000の判定がNoの場合、S1100に進む。S1100では、人間とロボット101との接触による危険を回避するため、ロボット101の動作を変更して第一の危険回避対応動作を実行する。第一の危険回避対応動作とは、ロボット101の動作を止めたり速度を遅くしたりといった変更を行う制御である。S1100の後、S1300に進む。
In the present embodiment, the human recognition state of the robot 101 is estimated (determined) from S800 to S1000. If the human is looking at the position of the robot where the human and the robot 101 may come into contact, it is estimated that the human is recognizing the robot 101 (S1000: Yes). That is, it is estimated (determined) that the state of the predicted contact portion of the robot 101 within the human visual field range (viewing angle) is a state in which the human is recognizing the robot 101. If the human is not in the position of the robot that is likely to come into contact with the robot 101, it is estimated that the human is not recognizing the robot 101 (S1000: No).
If the determination in S1000 is No, the process proceeds to S1100. In S1100, in order to avoid danger due to contact between the human and the robot 101, the operation of the robot 101 is changed and the first danger avoidance response operation is executed. The first danger avoidance response operation is control for making a change such as stopping the operation of the robot 101 or reducing the speed. After S1100, the process proceeds to S1300.

S1000の判定がYesの場合、S1200に進む。S1200では、人間がロボット101を認識していると推定されるので、第一の危険回避対応動作とは異なる、第二の危険回避対応動作を実行する。第二の危険回避対応動作とは、ロボット101の動作を変更する、または、S400で予測する人間とロボット101が接触する可能性がある位置を求める際に用いる、人間の位置とロボット101の位置の距離のマージンを変更する、のうち少なくともいずれか一つを変更する制御である。本来、人間の位置とロボット101の位置の距離がゼロで接触するが、より安全性を持たせるため、距離のマージンを設定している。距離のマージンとは、接触予測判定をする際の人間の位置とロボットの位置との間の距離の余裕である。例えばマージンを0mmと設定すると、人間の位置とロボットの位置との間の距離が0mmのときに接触すると予測判定する。それに対してマージンを100mmと設定することにより、人間の位置とロボットの位置との間の距離が100mm以下の場合に接触すると予測判定して、その距離以下になった場合にロボットの動きを止める。こうすることで実際にはロボットと人が衝突することなくロボットを事前に止めることが確実となり、より安全性を高めることが出来る。S1200の後、S1300に進む。S1300では、ロボット101の移動が完了しているかを判定する。つまり、S1300では、ロボット101が位置Bに到達したかを判定する。ロボット101の移動が完了していなければ(S1300:No)、S100に戻る。ロボット101の移動が完了していれば(S1300:Yes)、処理を終了する。   When determination of S1000 is Yes, it progresses to S1200. In S1200, since it is presumed that the human is recognizing the robot 101, a second danger avoidance response operation different from the first danger avoidance response operation is executed. The second danger avoidance response operation is a change in the operation of the robot 101 or the position of the human being and the position of the robot 101 used when determining the position where the human being and the robot 101 may be in contact predicted in S400. Is a control for changing at least one of the distance margins. Originally, the distance between the human position and the position of the robot 101 comes into contact with zero, but a distance margin is set in order to provide more safety. The distance margin is a margin of the distance between the human position and the robot position when performing the contact prediction determination. For example, when the margin is set to 0 mm, it is predicted to contact when the distance between the human position and the robot position is 0 mm. On the other hand, by setting the margin to 100 mm, it is predicted that the contact is made when the distance between the human position and the robot position is 100 mm or less, and the robot motion is stopped when the distance falls below that distance. . By doing so, it is ensured that the robot is stopped in advance without actually colliding with the robot, and safety can be further improved. After S1200, the process proceeds to S1300. In S1300, it is determined whether the movement of the robot 101 is completed. That is, in S1300, it is determined whether the robot 101 has reached the position B. If the movement of the robot 101 is not completed (S1300: No), the process returns to S100. If the movement of the robot 101 is completed (S1300: Yes), the process is terminated.

人間が認識していないと推定された場合の第一の危険回避対応動作と、認識していると推定された場合の第二の危険回避対応動作の、より詳しい内容について、数値例を挙げて説明する。本実施形態では、人間がロボット101を認識していないと推定された場合、第一の危険回避対応動作の一つとして、例えば、ロボット101の動作速度を接触予測前の速度200mm/secより減速した50mm/secとしたり止めてもよい。なお、人間の位置とロボット101の位置の現在の距離が、予め定められた距離のマージン100mm以下の場合は、ロボット101を停止する。また、第一の危険回避対応動作として、人間との接触を避けるため、S400で予測された人間とロボット101が接触する可能性がある位置をロボット101が通過しないように、制御部201で生成されたロボット101の軌道データを、変更してもよい。人間がロボット101を認識していると推定された場合、安全性を保持した上、ロボットが作業を継続するように、第一の危険回避対応動作とは異なる、第二の危険回避対応動作を実行する。第二の危険回避対応動作とは、ロボット101の動作を変更する、または、S400で予測する人間とロボット101が接触する可能性がある位置を求める際に用いる、人間の位置とロボット101の位置の距離のマージンを変更する、のうち少なくともいずれか一つ(どちらか一方、または、両方)を変更する制御を実行する。第二の危険回避対応動作の一つとして、例えば、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmを200mmに変更し、かつ、ロボットの動作速度は接触予測前の速度200mm/secと変えない、危険回避対応動作を実行する。別の第二の危険回避対応動作として、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmは変えず、かつ、ロボットの動作速度は接触予測前の速度200mm/secと第一の危険回避対応動作の減速速度50mm/secとの中間の100mm/secに変更してもよい。更に、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmを50mmに変更し、かつ、ロボットの動作速度は接触予測前の速度200mm/secから100mm/secに減速してもよい。この場合も、人間とロボットの距離が予め定められた距離のマージン以下の場合は、ロボット101を停止する。   Give numerical examples for more detailed contents of the first danger avoidance response action when it is estimated that humans do not recognize and the second danger avoidance action when it is estimated that humans recognize it. explain. In the present embodiment, when it is estimated that a human is not recognizing the robot 101, as one of the first danger avoidance handling operations, for example, the operation speed of the robot 101 is decelerated from the speed 200 mm / sec before the contact prediction. It may be set to 50 mm / sec or stopped. If the current distance between the human position and the position of the robot 101 is less than a predetermined distance margin of 100 mm, the robot 101 is stopped. Further, as the first risk avoidance action, the control unit 201 generates the robot 101 so that the robot 101 does not pass the position where the human being and the robot 101 predicted in S400 may come into contact in order to avoid contact with the human. The trajectory data of the robot 101 may be changed. When it is estimated that the human is recognizing the robot 101, a second risk avoidance response operation different from the first risk avoidance response operation is performed so that the robot continues the work while maintaining safety. Run. The second danger avoidance response operation is a change in the operation of the robot 101 or the position of the human being and the position of the robot 101 used when determining the position where the human being and the robot 101 may be in contact predicted in S400. The control is performed to change at least one (either one or both) of changing the distance margin. As one of the second danger avoidance handling operations, for example, the initial value 100 mm, which is the margin of the distance between the robot position used for contact prediction and the human position, is changed to 200 mm, and the robot operation speed is the same as before contact prediction. The risk avoidance response operation is executed without changing the speed of 200 mm / sec. As another second risk avoidance action, the initial value 100 mm, which is a margin of the distance between the robot position used for contact prediction and the human position, is not changed, and the robot operating speed is 200 mm / sec before the contact prediction. May be changed to 100 mm / sec, which is an intermediate between the deceleration speed of the first danger avoidance response operation and 50 mm / sec. Furthermore, the initial value 100 mm, which is the margin of the distance between the robot position used for contact prediction and the human position, is changed to 50 mm, and the robot operation speed is reduced from 200 mm / sec before contact prediction to 100 mm / sec. May be. Also in this case, the robot 101 is stopped when the distance between the human and the robot is equal to or less than a predetermined distance margin.

以上述べたように、本実施形態では、S100〜S500でロボット101との接触可能性を予測し、更に、S700〜S1000でロボット101についての人間の認識状態の推定を行っている。つまり、本実施形態では、ロボット101と接触する可能性がある場合(S500:Yes)に、ただちにロボット101に対して危険回避のための制御を行わない。ロボットと接触する可能性がある場合には、人間がロボット101を見ているかを推定し、危険回避のためどのような制御を行う(危険回避対応動作を取る)かの決定を行っている。このようにすることで、人間がロボット101を認識している場合は、認識していない場合の第一の危険回避対応動作とは異なる、第二の危険回避対応動作を行うという設定をすることができる。従って、ロボット101の停止や減速に起因するロボット101の作業停滞・遅延が減り、ロボット101の作業効率の低下が抑制される。その結果、ロボット101との接触を回避することができると共に、ロボット101の作業効率を向上することができる。   As described above, in this embodiment, the possibility of contact with the robot 101 is predicted in S100 to S500, and the human recognition state of the robot 101 is estimated in S700 to S1000. That is, in this embodiment, when there is a possibility of contact with the robot 101 (S500: Yes), the robot 101 is not immediately controlled for danger avoidance. If there is a possibility of contact with the robot, the human is by doing an estimate, (take risk aversion corresponding operation) what performs control for danger avoidance Kano determined looking at the robot 101. In this way, when the human recognizes the robot 101, a setting is made to perform the second risk avoidance response operation different from the first risk avoidance response operation when the robot 101 does not recognize the robot 101. Can do. Accordingly, the work stagnation / delay of the robot 101 due to the stop or deceleration of the robot 101 is reduced, and the reduction of the work efficiency of the robot 101 is suppressed. As a result, contact with the robot 101 can be avoided and work efficiency of the robot 101 can be improved.

実施形態1では、人間との共存環境下で運用できるロボットと、人間との接触を回避する制御をどのように行うかは、接触予測に加え、人間がロボットを見ている状態であるか否かに基づいて、判断(決定)される。換言すると、実施形態1では、ロボットと人間の接触を回避する制御をどのように行うかは、ロボットについての人間の認識状態に基づいて、判断される。
なお、図2の例では、S700において、人間情報抽出部206が、人間の情報として、人間の視線の向きを抽出(検出)するとしたが、人間の情報として、人間の顔の向きを抽出してもよい。つまり、人間の情報は、人間の視線の向きではなく、人間の顔の向きであってもよい。その場合、例えば、人間の顔がロボット101側にあるならば人間がロボット101を認識していると推定(判定)する。そして、人間の顔がロボット101を背にしているならば、人間がロボット101を認識していない(見ていない)と推定する。
In the first embodiment, how to perform control for avoiding contact between a robot that can be operated in a coexistence environment with a human and a human is based on whether the human is looking at the robot in addition to the contact prediction. It is judged (determined) based on In other words, in the first embodiment, how to perform control to avoid contact between the robot and the human is determined based on the human recognition state of the robot.
In the example of FIG. 2, in S700, the human information extraction unit 206 extracts (detects) the direction of the human eye as human information, but extracts the human face direction as human information. May be. That is, the human information may be the direction of the human face instead of the direction of the human line of sight. In this case, for example, if the human face is on the robot 101 side, it is estimated (determined) that the human is recognizing the robot 101. If the human face is behind the robot 101, it is estimated that the human is not recognizing (not looking at) the robot 101.

また、上記した「人間」はロボット101を使用して作業をする作業者に限定されない。本実施形態では、画像情報取得部203で取得した画像に含まれている任意の人間(視覚センサ102の撮像カメラで撮像した画像に映っている人間)に対して、当該人間のための危険回避対応動作を行うことができる。従って、危険回避の対象となる人間は、ロボットを使用して作業をする作業者以外の人間(例えば、侵入者や部品補充者やメンテナンス者など)であってもよい。換言すると、上記した「人間」は、視覚センサ102によって撮像された全ての人間(一人ひとり)を意味する場合もある。本明細書の以下の説明においても、「人間」という用語はこの意味で用いられる。
さらに、本実施形態では、ロボット101の動作を変更した後に(S1100)、人間が移動した場合、再度S500の判断またはS1000の判断を行う。そして、S500で、ロボット101との接触の可能性がないと判断されれば、ロボット101の作業を元の速度で行うようにする。
Further, the above-mentioned “human” is not limited to a worker who works using the robot 101. In this embodiment, for any human being included in the image acquired by the image information acquisition unit 203 (human being reflected in the image captured by the imaging camera of the visual sensor 102), risk avoidance for the human being is performed. A corresponding action can be performed. Therefore, the person who is the target of danger avoidance may be a person other than the worker who works using the robot (for example, an intruder, a component replenisher, a maintenance person, etc.). In other words, the above-mentioned “human” may mean all humans (each person) imaged by the visual sensor 102. In the following description of the present specification, the term “human” is used in this sense.
Further, in the present embodiment, after the operation of the robot 101 is changed (S1100), when a person moves, the determination in S500 or the determination in S1000 is performed again. If it is determined in S500 that there is no possibility of contact with the robot 101, the operation of the robot 101 is performed at the original speed.

(変形例)
図3は、実施形態1の変形例のロボットシステム110の構成を示す図である。この変形例の説明において、実施形態1と同様な構成要素には同じ参照符号を付け、当該構成要素の詳細な説明は省略する。
変形例のロボットシステム110は、ロボット101と、視覚センサ102と、ロボット制御装置14とを備えている。変形例のロボット101と視覚センサ102は、実施形態1と同じである。変形例のロボットシステム110のロボット制御装置14は、実施形態1のロボットシステム100のロボット制御装置10と異なっている。より詳しくは、実施形態1の危険回避対応動作決定部208が、変形例では危険回避対応動作決定部238になっている。また、実施形態1の認識状態推定部207が、変形例では認識状態推定部237になっている。
(Modification)
FIG. 3 is a diagram illustrating a configuration of a robot system 110 according to a modification of the first embodiment. In the description of this modification, the same reference numerals are assigned to the same components as those in the first embodiment, and the detailed description of the components is omitted.
The modified robot system 110 includes a robot 101, a visual sensor 102, and a robot control device 14. The robot 101 and the visual sensor 102 of the modification are the same as those in the first embodiment. The robot control device 14 of the robot system 110 according to the modification is different from the robot control device 10 of the robot system 100 according to the first embodiment. More specifically, the danger avoidance handling operation determination unit 208 of the first embodiment is a danger avoidance handling operation determination unit 238 in the modified example. In addition, the recognition state estimation unit 207 of the first embodiment is a recognition state estimation unit 237 in the modification.

さらに、実施形態1では、接触予測部205で予測された、人間とロボット101が接触する可能性がある位置(接触予測情報)が、認識状態推定部207に入力されているが、変形例では危険回避対応動作決定部238に入力されている。変形例の認識状態推定部237は、人間がロボット101を見ている状態なのかを推定(判定)する際、人間とロボット101が接触する可能性のある位置(接触予測情報)は用いない。
認識状態推定部237は、人間情報抽出部206で抽出した人間の顔の向きまたは視線の向きから、当該人間が予め設定した領域または方向を見ているかを判断する。そして、認識状態推定部237は、その判断結果に基づいて、人間がロボット101を見ている状態にあるのかを推定する。例えば、ロボット101が部品を位置Bに置いた後、人間が当該部品に他の部品を組み付ける場合、位置Bで人間とロボット101が接触する可能性がある。そこで、位置Bを含む位置Bの近傍の領域を予め設定しておき、当該領域が人間の視野範囲内にあるか否かで、人間がロボット101を見ているか否かを推定する。
Furthermore, in the first embodiment, the position (contact prediction information) predicted by the contact prediction unit 205 that may contact the human and the robot 101 is input to the recognition state estimation unit 207. The information is input to the danger avoidance handling operation determination unit 238. The recognition state estimation unit 237 according to the modification does not use a position (contact prediction information) where the human and the robot 101 may come into contact when estimating (determining) whether the human is looking at the robot 101.
The recognition state estimation unit 237 determines whether or not the person is looking at a preset region or direction from the human face orientation or line-of-sight orientation extracted by the human information extraction unit 206. Then, the recognition state estimation unit 237 estimates whether or not the human is in the state of watching the robot 101 based on the determination result. For example, after the robot 101 places a part at the position B, if a person assembles another part to the part, the person and the robot 101 may contact at the position B. Therefore, an area in the vicinity of the position B including the position B is set in advance, and it is estimated whether or not the human is looking at the robot 101 based on whether or not the area is within the human visual field range.

危険回避対応動作決定部238は、認識状態推定部237で推定した人間のロボット認識状態と、接触予測部205で予測した接触予測情報(人間とロボット101が接触する可能性がある位置)の有無とから、危険回避対応動作を決定する。人間がロボット101と接触する可能性のある位置を見ていなくて、かつ、接触予測情報がある場合、危険回避対応動作決定部238は、接触による危険を回避するため、例えば、ロボット101の動作を停止するという第一の危険回避動作を実行する決定を出す。人間がロボット101と接触する可能性のある位置を見ていて、かつ、接触予測情報がある場合は、この変形例では、ロボット101の動作は第二の危険回避動作を実行する。つまり、予め設定した領域であるロボット101と接触する可能性のある位置の方向を人間が見ているか否かと、人間とロボット101との接触の可能性の有無とから、どのような危険回避対応動作が必要であるかを判断する。
よって、この変形例においても、接触予測と作業者の認識状態とに基づいてどのような危険回避制御を行うかを決定している。このような危険回避対応動作の決定を行うことにより、ロボット101の停止や減速の回数が減少する。つまり、ロボット101の作業が滞る機会が減少する。したがって、ロボット101との接触を回避することができると共に、ロボット101の作業効率(生産性)を向上することができる。
The danger avoidance handling operation determination unit 238 includes the presence / absence of the human robot recognition state estimated by the recognition state estimation unit 237 and the contact prediction information predicted by the contact prediction unit 205 (position where the human and the robot 101 may contact). Based on the above, the risk avoidance action is determined. When the human is not looking at a position where there is a possibility of contact with the robot 101 and there is contact prediction information, the danger avoidance corresponding action determination unit 238 avoids the danger due to contact, for example, the action of the robot 101 A decision is made to execute the first danger avoidance action to stop. When a human is looking at a position where there is a possibility of contact with the robot 101 and there is contact prediction information, in this modified example, the operation of the robot 101 executes the second danger avoidance operation. In other words, what kind of risk avoidance measures can be taken based on whether or not a person is looking at the direction of a position that may contact the robot 101 that is a preset area and whether or not there is a possibility of contact between the human and the robot 101 Determine if action is required.
Therefore, also in this modification, what kind of danger avoidance control is performed is determined based on the contact prediction and the worker's recognition state. By determining such a danger avoidance response operation, the number of times the robot 101 is stopped or decelerated is reduced. That is, the chance that the work of the robot 101 is delayed decreases. Therefore, contact with the robot 101 can be avoided and work efficiency (productivity) of the robot 101 can be improved.

(実施形態2)
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ているか否かで判断した。本発明は、このような態様に限定されない。例えば、ロボット101についての人間の認識状態は、人間がロボット101を見ていること以外のことも考慮してよい。実施形態2では、ロボット101と人間との接触回避のためどのような危険回避対応動作を行うかを判断する際の、ロボット101についての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態にあるか否かで判断する。
(Embodiment 2)
In the first embodiment, the human recognition state of the robot 101 is determined based on whether or not the human is looking at the robot 101. The present invention is not limited to such an embodiment. For example, the human recognition state of the robot 101 may be considered other than that the human is watching the robot 101. In the second embodiment, in determining whether to perform what danger avoidance corresponding operation for avoidance of the contact between the robot 101 and a human, human perception states for the robot 101, humans have seen the robot 101, The determination is made based on whether or not the robot 101 is conscious.

図4は、実施形態2のロボットシステム120の構成を示している。実施形態2の説明において、実施形態1と同様な構成要素には同じ参照符号を付け、当該構成要素の詳細な説明は省略する。実施形態2のロボットシステム120は、ロボット101と、視覚センサ102と、ロボット制御装置11とを備えている。実施形態2のロボット101と視覚センサ102は、実施形態1と同じである。実施形態2のロボットシステム120のロボット制御装置11は、実施形態1のロボットシステム100のロボット制御装置10と異なっている。より詳しくは、実施形態1の認識状態推定部207が、実施形態2では認識状態推定部217になっている。また、実施形態2では、制御部201が、認識状態推定部217に、ロボット101の軌道に関する情報(データ)を入力する。   FIG. 4 shows a configuration of the robot system 120 according to the second embodiment. In the description of the second embodiment, the same components as those of the first embodiment are denoted by the same reference numerals, and detailed description of the components is omitted. The robot system 120 according to the second embodiment includes a robot 101, a visual sensor 102, and a robot control device 11. The robot 101 and the visual sensor 102 of the second embodiment are the same as those of the first embodiment. The robot control device 11 of the robot system 120 of the second embodiment is different from the robot control device 10 of the robot system 100 of the first embodiment. More specifically, the recognition state estimation unit 207 of the first embodiment is a recognition state estimation unit 217 in the second embodiment. In the second embodiment, the control unit 201 inputs information (data) related to the trajectory of the robot 101 to the recognition state estimation unit 217.

実施形態2のロボット制御装置11の認識状態推定部217は、人間がロボット101を見ている状態であって、かつ、ロボット101を意識している状態を、人間がロボット101を認識している状態と推定(判断)する。人間と接触する可能性があるロボット101の位置を人間が見ているか否かに加えて、人間がロボットを意識しているか否かを判定することで、さらに安全性を高めることが出来る。そこで、本実施形態では、人間がロボットを意識しているかについても推定を行う。本実施形態では、ロボット101と接触する可能性がある位置を、人間が目で追っているか否かで、ロボット101を意識しているか否かを推定する。   The recognition state estimation unit 217 of the robot control apparatus 11 according to the second embodiment recognizes the robot 101 when the human is looking at the robot 101 and is conscious of the robot 101. Estimate (determine) the state. In addition to whether or not the human is looking at the position of the robot 101 that may come into contact with the human, it is possible to further improve safety by determining whether or not the human is conscious of the robot. Therefore, in this embodiment, it is also estimated whether a human is conscious of the robot. In the present embodiment, it is estimated whether or not the robot 101 is conscious based on whether or not a human is following a position where the robot 101 may be touched.

図5は、実施形態2のロボット制御装置11の処理の流れを示すフローチャートである。図5のフローチャート(実施形態2)と図2のフローチャート(実施形態1)を比較すると、図2のS800、S900およびS1000が、図5ではS810、S910およびS1010になっている。それ以外のステップは、図2と図5において同じである。図5のS810、S910およびS1010は、ロボット101についての認識状態の推定にかかわるステップである。つまり、実施形態2は、ロボット101についての認識状態の推定に関する処理が実施形態1と異なる。   FIG. 5 is a flowchart illustrating a flow of processing of the robot control apparatus 11 according to the second embodiment. When comparing the flowchart of FIG. 5 (Embodiment 2) and the flowchart of Embodiment 2 (Embodiment 1), S800, S900 and S1000 in FIG. 2 are S810, S910 and S1010 in FIG. The other steps are the same in FIG. 2 and FIG. S810, S910, and S1010 in FIG. 5 are steps relating to estimation of the recognition state of the robot 101. That is, the second embodiment is different from the first embodiment in the processing related to estimation of the recognition state of the robot 101.

S100〜S700までは実施形態1と同じであるので説明を省略する。図5のフローチャートでは、S700の後、S810に進む。
S810では、S700で抽出した人間の視線の向きから、人間の視線の動きを算出する。実施形態1では、画像情報取得部203で取得した現在の画像から、現在の人間の情報(視線の向き)を抽出した。実施形態2では、現在の人間の情報だけでなく、過去に抽出した人間の情報(視線の向き)も利用することにより、視線の動きを算出する。例えば、視覚センサ102と画像情報取得部203により一定時間Δt毎に画像情報を取得していれば、時系列の視線の向きのデータが得られる。例えば、画像情報を取得した時刻をt、t+Δt、t+2・Δt、・・・とすると、時系列の視線の向きのデータは、時刻tにおけるデータ、時刻t+Δtにおけるデータ、時刻t+2・Δtにおけるデータ、・・・からなる。この時系列の視線の向きのデータから、人間の視線の動きを算出することができる。S810で視線の動きを算出したならば、S910に進む。
Since S100 to S700 are the same as those in the first embodiment, the description thereof is omitted. In the flowchart of FIG. 5, the process proceeds to S810 after S700.
In S810, the movement of the human line of sight is calculated from the direction of the human line of sight extracted in S700. In the first embodiment, the current human information (the direction of the line of sight) is extracted from the current image acquired by the image information acquisition unit 203. In the second embodiment, not only the current human information but also the human information (gaze direction) extracted in the past is used to calculate the gaze movement. For example, if image information is acquired by the visual sensor 102 and the image information acquisition unit 203 at regular time intervals Δt, time-series gaze direction data can be obtained. For example, if the time when the image information is acquired is t, t + Δt, t + 2 · Δt,..., The time-series gaze direction data is data at time t, data at time t + Δt, data at time t + 2 · Δt, It consists of ... The movement of the human gaze can be calculated from the time-series gaze direction data. If the movement of the line of sight is calculated in S810, the process proceeds to S910.

S910では、S400で予測した人間とロボット101が接触する可能性がある位置(ロボットの接触予測部分の位置)の動きを算出する。この動きはロボット101の動きと言えるので、図5のS910では「ロボットの動きを算出」すると記載してある。制御部201が保持しているロボット101の軌道のデータから、S400で予測した人間とロボット101が接触する可能性がある位置のうち、時刻t、t+Δt、t+2・Δt、・・・におけるロボット101の接触予測部分の位置を算出(抽出)する。   In S910, a motion of a position (position of the predicted contact portion of the robot) at which the human and the robot 101 predicted in S400 may come into contact is calculated. Since this movement can be said to be the movement of the robot 101, it is described as “calculate the movement of the robot” in S <b> 910 of FIG. 5. From the trajectory data of the robot 101 held by the control unit 201, the robot 101 at time t, t + Δt, t + 2 · Δt,... The position of the predicted contact portion is calculated (extracted).

S1010では、S810で取得した視線の動きが、S910で算出したロボット101の接触予測部分の位置の動き(ロボットの動き)に追従しているかを判定する。画像情報を取得した時刻t、t+Δt、t+2・Δt、・・・において、人間の視線の向きの延長線上もしくは延長線付近に、ロボット101の接触する可能性がある部分の位置があれば、視線の動きが、ロボット101の動きに追従していると判定する(S1010:Yes)。人間の視線の動きがロボット101の動きに追従している場合、人間がロボット101を意識していると推定する。本実施形態では、S1010の判定がYesの状態が、人間がロボット101を見ていて、かつ、ロボット101を意識している状態である。   In S1010, it is determined whether the movement of the line of sight acquired in S810 follows the movement of the position of the predicted contact portion of the robot 101 (movement of the robot) calculated in S910. When the image information is acquired at times t, t + Δt, t + 2 · Δt,..., If there is a position of a portion where the robot 101 may contact on or near the extension line of the direction of the human line of sight, Is determined to follow the movement of the robot 101 (S1010: Yes). When the movement of the human line of sight follows the movement of the robot 101, it is estimated that the human is conscious of the robot 101. In the present embodiment, the state in which the determination in S1010 is Yes is a state in which a human is watching the robot 101 and is conscious of the robot 101.

S1010の判定がYesの場合、S1200に進む。S1200の処理内容は実施形態1と同じである。人間の視線がロボット101の動きに追従しているので、実施形態1と同様に、第一の危険回避対応動作と異なる、ロボットの動作速度を変更する、または、人間の位置と、ロボット101の位置と、の距離のマージンの少なくともいずれか一つを変更する、第二の危険回避対応動作の制御を行う。S1200の後、S1300に進む。S1300の処理内容も実施形態1と同じである。
S1010の判定がNoの場合、S1100に進む。S1100の処理内容も実施形態1と同じである。人間の視線がロボット101の動きに追従していないので、危険回避対応動作を取る必要があると判断されて、ロボットを止めたり遅くしたりといった動作の変更を行う制御を実行する。
When determination of S1010 is Yes, it progresses to S1200. The processing content of S1200 is the same as that of the first embodiment. Since the human line of sight follows the movement of the robot 101, as in the first embodiment, the robot operation speed is changed, or the robot position is different from the first danger avoidance response operation. The second risk avoidance response operation is controlled by changing at least one of the position and the distance margin. After S1200, the process proceeds to S1300. The processing content of S1300 is the same as that of the first embodiment.
If the determination in S1010 is No, the process proceeds to S1100. The processing content of S1100 is the same as that of the first embodiment. Since the human line of sight does not follow the movement of the robot 101, it is determined that it is necessary to take a danger avoidance action, and control is performed to change the action such as stopping or slowing the robot.

以上述べたように、実施形態2では、S100〜S500でロボット101との接触可能性を予測し、更に、S700〜S1010でロボット101についての人間の認識状態の推定を行っている。本実施形態において、人間の認識状態の推定は、人間がロボット101を見ていて、かつ、ロボット101を意識しているかを推定することにより行う。本実施形態では、人間がロボット101を見ていても、ロボット101を意識していないと推定されれば、第一の危険回避対応動作を実行する。人間がロボット101を見ていて、かつ、ロボット101を意識していると推定されれば、第二の危険回避対応動作を実行する。   As described above, in the second embodiment, the possibility of contact with the robot 101 is predicted in S100 to S500, and the human recognition state of the robot 101 is estimated in S700 to S1010. In this embodiment, the human recognition state is estimated by estimating whether the human is watching the robot 101 and is conscious of the robot 101. In this embodiment, even if a human is watching the robot 101, if it is estimated that the robot 101 is not conscious, the first danger avoidance response operation is executed. If it is estimated that the human is watching the robot 101 and is conscious of the robot 101, the second danger avoidance response operation is executed.

実施形態2では、人間がロボット101を見ていて、かつ、ロボット101を意識している状態を、人間がロボットを認識している状態と推定する。そして、ロボット101を意識していないと推定できる場合には、人間がロボットに接触する可能性があると判断し、第一の危険回避対応動作を実行する。よって、ロボット101を意識していない人間が、ロボット101に接触することを防止することができる。   In the second embodiment, a state where a human is watching the robot 101 and is conscious of the robot 101 is estimated as a state where the human is recognizing the robot. Then, if it can be estimated that the robot 101 is not conscious, it is determined that there is a possibility that a human will contact the robot, and the first danger avoidance response operation is executed. Therefore, it is possible to prevent a person who is not conscious of the robot 101 from contacting the robot 101.

また、実施形態1と同じように、実施形態2では、ロボット101と接触する可能性がある場合(S500:Yes)であっても、ただちにロボット101に対して危険回避のための制御を行わない。ロボットと接触する可能性がある場合には、人間の視線がロボット101の動きに追従しているかを推定(判定)し、危険回避のためどのような制御を行うかの決定を行っている。このようにすることで、人間がロボット101を見ておりかつ意識している場合(人間がロボット101を認識している場合)は、意識していない場合の第一の危険回避対応動作とは異なる、第二の危険回避対応動作を行うという設定をすることができる。従って、ロボット101の停止や減速に起因するロボット101の作業停滞・遅延が減り、ロボット101の作業効率の低下が抑制される。よって、ロボット101との接触を回避することができると共に、ロボット101の作業効率(生産性)を向上することができる。
なお、図5の説明では、人間がロボット101を意識しているかどうかは、人間の視線の動きに基づいて判断したが、人間の顔の向きの動きに基づいて判断してもよい。
Further, as in the first embodiment, in the second embodiment, even when there is a possibility of contact with the robot 101 (S500: Yes), the robot 101 is not immediately controlled to avoid danger. . If there is a possibility of contact with the robot, the human gaze is performing the determination of whether the estimated whether to follow the movement of the robot 101 (decision), it performs any control for danger avoidance. By doing in this way, when the human is watching and conscious of the robot 101 (when the human recognizes the robot 101), what is the first danger avoidance action when not conscious? It is possible to make a different setting for performing a second risk avoidance action. Accordingly, the work stagnation / delay of the robot 101 due to the stop or deceleration of the robot 101 is reduced, and the reduction of the work efficiency of the robot 101 is suppressed. Therefore, contact with the robot 101 can be avoided and work efficiency (productivity) of the robot 101 can be improved.
In the description of FIG. 5, whether or not a human is conscious of the robot 101 is determined based on the movement of the human line of sight, but may be determined based on the movement of the human face.

さらに、人間がロボットを認識しているか否かを推定する際、ロボットから人間に対し、人間が知覚可能な報知情報を発信し、その報知情報に応じた人間の反応を検出することで、人間が認識しているか否かを判定してもよい。報知情報は、色や輝度を変化させる光学的に報知を行うことのできる液晶表示装置やLEDなどのデバイスで構成される。光学的な報知を行う以外に、音声的に報知を行うスピーカやブザーなどを利用してもよい。また、触覚など、人間の他の感覚器に刺激を与えることで報知を行ってもよい。   Furthermore, when estimating whether or not a human is recognizing the robot, the robot transmits human-perceivable notification information to the human and detects a human reaction according to the notification information. It may be determined whether or not is recognized. The notification information is configured by a device such as a liquid crystal display device or an LED that can optically change the color and brightness. In addition to optical notification, a speaker or buzzer that performs voice notification may be used. Moreover, you may alert | report by giving irritation | stimulation to other human sense organs, such as a tactile sense.

(その他の実施形態)
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ている状態であるとした。また、実施形態2では、ロボットについての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態であるとした。しかしながら、本発明における、ロボット101についての人間の認識状態は、上記した状態に限定されない。本発明における、ロボット101についての人間の認識状態は、人間がロボット101を認識しているか否かを推定(判断)できる状態であればどのようなものであってもよい。例えば、人間がロボット101を見ていなくても、人間に注意喚起がなされている状態(例えば、音、光、振動などにより人間にロボット101を意識させている状態)は、人間がロボット101について認識している状態であるとしてもよい。
(Other embodiments)
In the first embodiment, it is assumed that the human recognition state of the robot 101 is a state in which the human is looking at the robot 101. In the second embodiment, the human recognition state of the robot is a state where the human is watching the robot 101 and is conscious of the robot 101. However, the human recognition state of the robot 101 in the present invention is not limited to the above-described state. In the present invention, the human recognition state of the robot 101 may be any state as long as it can be estimated (determined) whether or not the human is recognizing the robot 101. For example, even if a human is not looking at the robot 101, a state in which attention is given to the human (for example, a state in which the human is conscious of the robot 101 by sound, light, vibration, etc.) It may be in a recognized state.

実施形態1および実施形態2では、人間の情報は、人間の視線の向き、または、顔の向きであるとした。しかしながら、本発明における人間の情報は、上記したものに限定されない。本発明における人間の情報は、人間がロボット101を認識しているか否かを推定できるものであればどのようなものであってもよい。例えば、人間の情報は、人間の体の向き(見ている向き、上半身の向き)でもよいし、人間の体が前を向いているか後ろを向いているかでもよい。例えば、人間の体の前面が視覚センサ102により検出(撮像)できるなら、人間の体が前を向いているとする。また、人間の情報は、人間の姿勢でもよいし(例えば、しゃがんでいるか否か)、人間の顔の表情でもよいし、顔の表情の変化であってもよい。   In the first embodiment and the second embodiment, it is assumed that the human information is the direction of the human line of sight or the direction of the face. However, the human information in the present invention is not limited to the above. The human information in the present invention may be any information as long as it can be estimated whether or not the human recognizes the robot 101. For example, the human information may be the direction of the human body (the direction of viewing or the direction of the upper body), or the human body may be facing forward or backward. For example, if the front surface of the human body can be detected (captured) by the visual sensor 102, it is assumed that the human body is facing forward. The human information may be a human posture (for example, whether or not squatting), a human facial expression, or a change in facial expression.

10…ロボット制御装置、101…ロボット、102…視覚センサ、201…制御部、202…ロボット位置取得部、203…画像情報取得部、204…人間位置検出部、205…接触予測部、206…人間情報抽出部、207…認識状態推定部、208…危険回避対応動作決定部   DESCRIPTION OF SYMBOLS 10 ... Robot control apparatus 101 ... Robot 102 ... Visual sensor 201 ... Control part 202 ... Robot position acquisition part 203 ... Image information acquisition part 204 ... Human position detection part 205 ... Contact prediction part 206 ... Human Information extracting unit, 207... Recognition state estimating unit, 208.

Claims (14)

ロボットの位置を取得する取得手段と、
人間を含む画像から前記人間の位置を検出する検出手段と、
前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、
前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、
前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段と、
を備えることを特徴とするロボット制御装置。
Obtaining means for obtaining the position of the robot;
Detecting means for detecting the position of the person from an image including the person;
Predicting means for predicting contact between the robot and the human based on the position of the robot and the position of the human;
Estimation means for estimating the human recognition state of the robot based on predetermined information about the human extracted from the image;
Control means for controlling the operation of the robot based on the prediction result of the prediction means and the estimation result of the estimation means;
A robot control device comprising:
前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ているかを推定することを特徴とする請求項1記載のロボット制御装置。   The robot control apparatus according to claim 1, wherein the estimation unit estimates whether the human is watching the robot as the human recognition state. 前記画像から抽出される前記人間に関する所定の情報は、前記人間の視線の向きまたは前記人間の顔の向きであることを特徴とする請求項1記載のロボット制御装置。   The robot control apparatus according to claim 1, wherein the predetermined information related to the person extracted from the image is a direction of the human line of sight or a direction of the human face. 前記推定手段は、前記人間の認識状態として、前記人間が所定の領域または方向を見ているかを推定することを特徴とする請求項1記載のロボット制御装置。   The robot control apparatus according to claim 1, wherein the estimation unit estimates whether the person is looking at a predetermined area or direction as the recognition state of the person. 前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ていて、かつ、前記ロボットを意識しているかを推定することを特徴とする請求項1記載のロボット制御装置。   The robot control apparatus according to claim 1, wherein the estimation unit estimates, as the human recognition state, whether the human is watching the robot and is conscious of the robot. 前記推定手段は、前記人間の視線の動きが前記ロボットの動きに追従している場合に、前記人間が前記ロボットを意識していると推定することを特徴とする請求項5記載のロボット制御装置。   The robot control apparatus according to claim 5, wherein the estimation unit estimates that the human is conscious of the robot when the movement of the line of sight of the human follows the movement of the robot. . 前記推定手段は、前記人間の視野範囲内に前記ロボットの位置が入っている場合に、前記人間が前記ロボットを見ていると推定することを特徴とする請求項2、5または6に記載のロボット制御装置。   The said estimation means presumes that the said person is looking at the said robot, when the position of the said robot is in the said person's visual field range, It is characterized by the above-mentioned. Robot control device. 前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にないと推定した場合、前記制御手段は、前記ロボットの第一の危険回避動作の制御を実行し、前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にあると推定した場合、前記ロボットの第一の危険回避動作の制御と異なる、前記ロボットの第二の危険回避動作の制御を実行することを特徴とする請求項1乃至7のいずれか1項に記載のロボット制御装置。   When the estimation means estimates that the human recognition state of the robot is not in a predetermined recognition state, the control means executes control of the first danger avoidance operation of the robot, and the estimation means When the human recognition state of the robot is estimated to be in a predetermined recognition state, control of the second danger avoidance operation of the robot is executed, which is different from the control of the first danger avoidance operation of the robot. The robot control device according to claim 1, wherein the robot control device is a robot. 前記第一の危険回避動作の制御とは、前記ロボットの動作を変更する制御であることを特徴とする請求項8記載のロボット制御装置。   The robot control apparatus according to claim 8, wherein the control of the first danger avoiding operation is control for changing the operation of the robot. 前記第二の危険回避動作の制御とは、前記ロボットの動作を変更する、または、前記予測手段で前記ロボットと前記人間との接触予測に用いる距離のマージンを設定変更する、のうち少なくともいずれか一つを変更する制御であることを特徴とする請求項8または9に記載のロボット制御装置。   The control of the second danger avoidance operation is at least one of changing the operation of the robot or setting and changing a margin of a distance used for predicting contact between the robot and the human by the prediction unit. The robot control apparatus according to claim 8 or 9, wherein the control is to change one. さらに、人間が知覚可能な報知情報を報知する報知手段と、を備えることを特徴とする請求項1乃至10のいずれか1項に記載のロボット制御装置   The robot control device according to claim 1, further comprising notification means for notifying notification information perceivable by a human. ロボットの位置を取得するステップと、
人間を含む画像から前記人間の位置を検出するステップと、
前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測ステップと、
前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定ステップと、
前記予測ステップの予測結果と前記推定ステップの推定結果とに基づいて、前記ロボットの動作を制御するステップと、
を有することを特徴とするロボット制御方法。
Obtaining the position of the robot;
Detecting the position of the person from an image including the person;
A predicting step for predicting contact between the robot and the human based on the position of the robot and the position of the human;
An estimation step for estimating the human recognition state of the robot based on predetermined information about the human extracted from the image;
Controlling the operation of the robot based on the prediction result of the prediction step and the estimation result of the estimation step;
A robot control method comprising:
請求項1乃至11のいずれか1項に記載のロボット制御装置に、センサまたは前記ロボットのうち、少なくとも何れか1つ、を備えるロボットシステム。   The robot system provided with at least any one among a sensor or the said robot in the robot control apparatus of any one of Claims 1 thru | or 11. コンピュータが読み取り実行することで、前記コンピュータを、請求項1乃至11のいずれか1項に記載のロボット制御装置の各部として機能させるためのコンピュータプログラム。   The computer program for functioning the said computer as each part of the robot control apparatus of any one of Claims 1 thru | or 11, when a computer reads and executes.
JP2016084451A 2015-05-01 2016-04-20 Robot controls, control methods and systems Active JP6824622B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015093839 2015-05-01
JP2015093839 2015-05-01

Publications (2)

Publication Number Publication Date
JP2016209991A true JP2016209991A (en) 2016-12-15
JP6824622B2 JP6824622B2 (en) 2021-02-03

Family

ID=57549226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016084451A Active JP6824622B2 (en) 2015-05-01 2016-04-20 Robot controls, control methods and systems

Country Status (1)

Country Link
JP (1) JP6824622B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018158393A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Safety control device, safety control method and program
WO2019035362A1 (en) * 2017-08-18 2019-02-21 三菱電機株式会社 Robot control device and robot system using same
JP2019141496A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program and robot
US10421187B2 (en) 2017-01-26 2019-09-24 Fanuc Corporation Robot program modification device, robot control device, robot simulation device, and robot program modification method
JP2020006494A (en) * 2018-07-12 2020-01-16 ファナック株式会社 robot
WO2020075526A1 (en) 2018-10-12 2020-04-16 ソニー株式会社 Food preparation system, method for controlling food preparation system, and program
JP2020189367A (en) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 Robot system
US11254005B2 (en) 2018-10-12 2022-02-22 Fanuc Corporation Robot control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (en) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International Communication robot system
JP2008137127A (en) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd Robot control method
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
WO2012039280A1 (en) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 Mobile body
WO2014008929A1 (en) * 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (en) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International Communication robot system
JP2008137127A (en) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd Robot control method
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
JPWO2011089885A1 (en) * 2010-01-25 2013-05-23 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method and program
WO2012039280A1 (en) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 Mobile body
WO2014008929A1 (en) * 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10421187B2 (en) 2017-01-26 2019-09-24 Fanuc Corporation Robot program modification device, robot control device, robot simulation device, and robot program modification method
JP7052203B2 (en) 2017-03-22 2022-04-12 日本電気株式会社 Safety control devices, safety control methods and programs
JP2018158393A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Safety control device, safety control method and program
WO2019035362A1 (en) * 2017-08-18 2019-02-21 三菱電機株式会社 Robot control device and robot system using same
JPWO2019035362A1 (en) * 2017-08-18 2019-11-07 三菱電機株式会社 Robot control device and robot system using the same
JP2019206080A (en) * 2017-08-18 2019-12-05 三菱電機株式会社 Robot control device, and robot system using the same
JP2019141496A (en) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Interaction device, interaction method, interaction program and robot
JP7109207B2 (en) 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 Interaction device, interaction method, interaction program and robot
JP2020006494A (en) * 2018-07-12 2020-01-16 ファナック株式会社 robot
US11130241B2 (en) 2018-07-12 2021-09-28 Fanuc Corporation Robot
DE102019210012B4 (en) 2018-07-12 2022-06-09 Fanuc Corporation robot
DE102019210012A1 (en) 2018-07-12 2020-01-16 Fanuc Corporation robot
US11254005B2 (en) 2018-10-12 2022-02-22 Fanuc Corporation Robot control device
WO2020075526A1 (en) 2018-10-12 2020-04-16 ソニー株式会社 Food preparation system, method for controlling food preparation system, and program
JP2020189367A (en) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 Robot system

Also Published As

Publication number Publication date
JP6824622B2 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP6824622B2 (en) Robot controls, control methods and systems
US10379513B2 (en) Monitoring system, monitoring device, and monitoring method
EP3715065B1 (en) Controlling a robot in the presence of a moving object
US8816874B2 (en) Danger presentation device, danger presentation system, danger presentation method and program
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
US10732643B2 (en) Control system, moving object, and control apparatus
US11148299B2 (en) Teaching apparatus and teaching method for robots
US10712566B2 (en) Information displaying system provided with head-mounted type display
US9905016B2 (en) Robot identification system
Chance et al. An assistive robot to support dressing-strategies for planning and error handling
JP2005250990A (en) Operation support apparatus
KR101615687B1 (en) Collision detection robot remote control system and method thereof
JP2017061026A (en) Robot control device, robot control method, robot system and computer program
JP7036399B2 (en) Autonomous mobile robots, their control devices and motion control programs
US20220176560A1 (en) Control system, control method, and control unit
JP2021065971A (en) Robot teaching system, image forming method and program
JP2018158393A (en) Safety control device, safety control method and program
CN111565898B (en) Operation guidance system
JP6885909B2 (en) Robot control device
US11691237B2 (en) Machine control device
RU2685996C1 (en) Method and system for predictive avoidance of manipulator collision with human being
Vogel et al. A projection-based sensor system for ensuring safety while grasping and transporting objects by an industrial robot
Budiharto Multiple moving obstacles avoidance for humanoid service robot using stereo vision and Bayesian approach
US11698434B2 (en) Machine control device
KR20150050224A (en) Apparatus and methdo for abnormal wandering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210113

R151 Written notification of patent or utility model registration

Ref document number: 6824622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151