JP7224843B2 - Robot, transport vehicle equipped with this robot, control method and control program for this robot - Google Patents

Robot, transport vehicle equipped with this robot, control method and control program for this robot Download PDF

Info

Publication number
JP7224843B2
JP7224843B2 JP2018194679A JP2018194679A JP7224843B2 JP 7224843 B2 JP7224843 B2 JP 7224843B2 JP 2018194679 A JP2018194679 A JP 2018194679A JP 2018194679 A JP2018194679 A JP 2018194679A JP 7224843 B2 JP7224843 B2 JP 7224843B2
Authority
JP
Japan
Prior art keywords
arm
photographing
obstacle
robot
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018194679A
Other languages
Japanese (ja)
Other versions
JP2020062701A (en
Inventor
勇司 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imasen Electric Industrial Co Ltd
Original Assignee
Imasen Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imasen Electric Industrial Co Ltd filed Critical Imasen Electric Industrial Co Ltd
Priority to JP2018194679A priority Critical patent/JP7224843B2/en
Publication of JP2020062701A publication Critical patent/JP2020062701A/en
Application granted granted Critical
Publication of JP7224843B2 publication Critical patent/JP7224843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット、このロボットを備えた搬送車、このロボットの制御方法及び制御プログラムに関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot, a transport vehicle equipped with this robot, and a control method and control program for this robot.

従来、対象物に関する情報に基づく作業を精度よく行うことができるロボットが知られている。例えば、特許文献1では、アームを備え、前記アームに設けられた撮像部が撮像可能な撮像領域内における所定領域は、複数の対象物のそれぞれを撮像する位置に前記アームを移動した場合において前記撮像部により撮像された撮像画像の画像領域のうち前記対象物を含む前記画像領域または当該画像領域よりも小さい領域と一致し、前記位置において前記撮像部により前記対象物が撮像された前記撮像画像に基づいて前記対象物に関する情報を検出し、検出した当該情報に基づいて前記対象物を把持するロボットが記載されている。このロボットでは、アームに設けられた撮像部が撮像可能な撮像領域内における所定領域が、複数の対象物のそれぞれを撮像する位置にアームを移動した場合において撮像部により撮像された撮像画像の画像領域のうち対象物を含む画像領域又は当該画像領域よりも小さい領域と一致し、複数の対象物のそれぞれを撮像する位置において撮像部により対象物が撮像された撮像画像に基づいて対象物に関する情報を検出し、検出した当該情報に基づいて対象物を把持することにより、対象物に関する情報に基づく作業を精度よく行うことができる。 2. Description of the Related Art Conventionally, robots are known that can accurately perform work based on information about an object. For example, in Patent Document 1, an arm is provided, and a predetermined area within an imaging area that can be imaged by an imaging unit provided on the arm is the above-mentioned The imaged image in which the object is imaged by the imaging unit at the position that matches the image area including the object or an area smaller than the image area in the image area of the imaged image imaged by the imaging unit. is described as a robot that detects information about the object based on and grips the object based on the detected information. In this robot, an image of a captured image captured by the imaging unit when the arm is moved to a position where each of a plurality of objects is captured in a predetermined area within an imaging area that can be captured by the imaging unit provided on the arm. Information about an object based on a captured image in which the object is captured by an imaging unit at a position where each of a plurality of objects is captured, the image area including the object or an area smaller than the image area of the area. is detected and the object is gripped based on the detected information, it is possible to accurately perform the work based on the information about the object.

特開2018-34243号公報JP 2018-34243 A

しかしながら、特許文献1に記載のロボットでは、撮像手段を用いて対象物に関する情報のみを得ているため、アームの移動経路に障害物等が存在することによりアームが予め定められた動きを行えない場合には、アームの移動が妨げられ、アームが破損したり、対象物の位置まで移動することができなかったりする可能性があるという課題があった。また、対象物の位置の変化に対応するためにシフト動作を行う場合には、アームの移動経路が予め定められた経路と異なる経路となるため、アームの移動が妨げられ、アームが破損したり、対象物の位置まで移動することができなかったりする可能性がより高まるという課題があった。 However, in the robot described in Patent Document 1, since only the information about the object is obtained using the imaging means, the arm cannot move in a predetermined manner due to the presence of obstacles or the like in the movement path of the arm. In some cases, there is a problem that the movement of the arm may be hindered, the arm may be damaged, or the arm may not be able to move to the position of the object. In addition, when performing a shift operation to cope with a change in the position of an object, the movement path of the arm differs from the predetermined path, so the movement of the arm is hindered and the arm may be damaged. , there is a problem that the possibility of being unable to move to the position of the object increases.

本発明は、このような課題に鑑みなされたものであり、アームの移動を妨げる障害物を検知することにより、アームの衝突や破損を未然に防止し、対象物をより確実に移動することができるロボットを提供することを主目的とする。また、このロボットを備えた搬送車を提供することで、対象物を確実に運搬可能な搬送車を提供することを目的の一つとする。 The present invention has been made in view of such problems, and by detecting an obstacle that hinders the movement of the arm, it is possible to prevent the arm from colliding or breaking, and move the object more reliably. The main purpose is to provide a robot that can Another object of the present invention is to provide a transport vehicle equipped with this robot that can reliably transport an object.

本発明は、上述の目的の少なくとも一つを達成するために以下の手段を採った。 The present invention employs the following means to achieve at least one of the above objects.

本発明のロボットは、
対象物を移動する移動部を有するアームを備えたロボットであって、
前記アームを含む領域を撮影し、前記アームに相当するアーム領域を含む撮影情報を取得する撮影手段と、
前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が予め定められた接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する制御手段と、
を備えたことを特徴とする、
ものである。
The robot of the present invention is
A robot equipped with an arm having a moving part for moving an object,
an imaging means for imaging an area including the arm and acquiring imaging information including an arm area corresponding to the arm;
In the photographing information, it is determined whether or not the distance between the obstacle area corresponding to the obstacle and the arm area is within a predetermined approach range. control means for regulating movement of the arm;
characterized by comprising
It is.

このロボットは、アームを含む領域を撮影する撮影手段と、アームの移動を制御する制御手段と、を備え、制御手段によってアームの移動が制御され、移動部が対象物を移動させる。この際、撮影手段がアームを含む領域を撮影して撮影情報を取得し、この撮影情報に含まれるアームに相当するアーム領域と障害物に相当する障害物領域とが予め定められた近接範囲内にあるか否かを制御部が判定し、近接範囲内にあると判定した場合には、アームの移動を規制する。こうすることにより、アームと障害物との距離が予め定められた近接範囲よりも大きく保つことができるため、アームと障害物とが衝突する可能性を未然に低減することができる。 This robot includes an imaging means for imaging an area including an arm, and a control means for controlling movement of the arm. Movement of the arm is controlled by the control means, and a moving section moves an object. At this time, the photographing means obtains photographing information by photographing an area including the arm, and the arm area corresponding to the arm and the obstacle area corresponding to the obstacle included in the photographing information are within a predetermined proximity range. The control unit determines whether or not the arm is within the proximity range, and restricts the movement of the arm when it is determined that the arm is within the proximity range. By doing so, the distance between the arm and the obstacle can be kept larger than the predetermined proximity range, so the possibility of collision between the arm and the obstacle can be reduced.

本発明のロボットは、前記アーム領域を含む領域を予め撮影した基準情報と、を備え、前記制御手段は、前記基準情報と前記撮影情報とを比較することで前記撮影情報に前記障害物領域が含まれるか否かを判定し、前記撮影情報に前記障害物領域が含まれると判定した場合に、前記障害物領域と前記アーム領域との距離が前記接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制することを特徴としてもよい。このように撮影情報と基準情報とを比較することにより、撮影情報に障害物に相当する障害物領域が存在するか否かを容易に判定することができる。付言すると、障害物の有無をより確実に判定することで、障害物とアームとが接触する可能性をより低減することができる。 The robot of the present invention includes reference information obtained by photographing an area including the arm area in advance, and the control means compares the reference information and the photographing information to determine whether the obstacle area is included in the photographing information. If it is determined that the obstacle area is included in the photographing information, it is determined whether or not the distance between the obstacle area and the arm area is within the approach range. , the movement of the arm may be restricted when it is determined that the arm is within the approach range. By comparing the photographing information and the reference information in this manner, it is possible to easily determine whether or not an obstacle area corresponding to an obstacle exists in the photographing information. In addition, by more reliably determining the presence or absence of an obstacle, it is possible to further reduce the possibility of contact between the obstacle and the arm.

本発明のロボットにおいて、前記制御手段は、前記撮影情報において、前記移動部に相当する移動領域が前記障害物領域と前記アームの最下部との間に位置すると判定した場合には、前記アームの移動を規制することを特徴としてもよい。こうすることにより、移動部が障害物とアームの最下部との間に位置する可能性を未然に低減することができる。付言すると、移動部はアームの先端に設けられているため、移動部が障害物とアームの最下部との間に位置すると、アームと障害物とが接触する可能性が高い。このため、移動部が障害物とアームの最下部との間に位置する可能性を低減することで、アームと障害物とが接触する可能性を未然に低減することができる。 In the robot of the present invention, when the control means determines that the moving area corresponding to the moving part is positioned between the obstacle area and the lowest part of the arm in the photographing information, It may be characterized by regulating movement. By doing so, it is possible to reduce the possibility that the moving part will be positioned between the obstacle and the lowest part of the arm. In addition, since the moving part is provided at the tip of the arm, if the moving part is positioned between the obstacle and the lowest part of the arm, there is a high possibility that the arm will come into contact with the obstacle. Therefore, by reducing the possibility that the moving part will be positioned between the obstacle and the lowermost part of the arm, the possibility of contact between the arm and the obstacle can be reduced.

本発明のロボットにおいて、前記移動部は、前記撮影手段で撮影される際に特徴となる特徴点を有していることを特徴としてもよい。このように、撮影情報を解析する際、容易に抽出できる特徴点を移動部に備えることにより、特徴点を有しない場合と比較して、容易に移動部を抽出することができる。 In the robot of the present invention, the moving part may have a feature point that becomes a feature when being photographed by the photographing means. In this way, when the photographing information is analyzed, by providing the moving part with a feature point that can be easily extracted, the moving part can be easily extracted as compared with the case where the feature point is not provided.

本発明のロボットにおいて、前記撮影手段は、前記アームの移動速度に基づいて定められた撮影間隔で、前記撮影情報を複数回取得することを特徴としてもよい。具体的には、例えば、アームの移動速度が速い場合には単位時間あたりの撮影回数を増大することで撮影情報の取得回数を増大し、アームの移動速度が遅い場合には、単位時間あたりの撮影回数を低減することで撮影情報の取得回数を低減してもよい。こうすることにより、アームと障害物との距離が接近範囲よりも大きく近づく可能性を未然に低減し、アームと障害物とが接触する可能性を未然に低減するとともに、撮影回数を低減することで処理量を低減することができる。 In the robot of the present invention, the photographing means may acquire the photographing information multiple times at photographing intervals determined based on the movement speed of the arm. Specifically, for example, when the movement speed of the arm is fast, the number of times of photographing information is acquired by increasing the number of times of photographing per unit time. The number of acquisitions of imaging information may be reduced by reducing the number of imagings. By doing so, it is possible to reduce the possibility that the distance between the arm and the obstacle will come closer than the approach range, reduce the possibility that the arm and the obstacle will come into contact with each other, and reduce the number of times of photographing. can reduce the amount of processing.

本発明の搬送車は、
上述したいずれかに記載のロボットを備えた搬送車であって、
前記撮影手段は、前記ロボットを含む領域を上方側から撮影する位置に複数設けられていることを特徴とする、
ものである。
The transport vehicle of the present invention is
A carrier equipped with the robot according to any one of the above,
A plurality of the photographing means are provided at a position for photographing the area including the robot from above,
It is.

この搬送車は、上述したロボットを構成の一部に含むため、上述したロボットと同様の効果、例えば、アームと障害物との距離が予め定められた近接範囲よりも広く保つことができるため、アームと障害物とが接触する可能性を未然に低減することができるという効果が得られる。 Since this transport vehicle includes the above-described robot as part of its configuration, it has the same effects as the above-described robot, for example, the distance between the arm and the obstacle can be kept wider than the predetermined proximity range. An effect is obtained in that the possibility of contact between the arm and the obstacle can be reduced in advance.

本発明のロボットの制御方法は、
アームを含む領域を撮影し、前記アームに相当するアーム領域を含む撮影情報を取得する撮影手段と、前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が予め定められた接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する制御手段と、を備え、対象物を移動する移動部を有するアームを備えたロボットを制御する制御方法であって、
前記撮影情報を取得する撮影ステップと、
前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が予め定められた接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する規制ステップと、
を含むことを特徴とする、
ものである。
The robot control method of the present invention includes:
an imaging means for imaging an area including an arm and acquiring imaging information including an arm area corresponding to the arm; and a distance between an obstacle area corresponding to an obstacle and the arm area is predetermined in the imaging information. determining whether or not the object is within the approach range, and if it is determined that the object is within the approach range, an arm having a moving part for moving the object; A control method for controlling a robot comprising
a photographing step of acquiring the photographing information;
In the photographing information, it is determined whether or not the distance between the obstacle area corresponding to the obstacle and the arm area is within a predetermined approach range. a regulating step of regulating movement of the arm;
characterized by comprising
It is.

本発明のロボットの制御方法は、アームを含む領域を撮影する撮影手段と、アームの移動を制御する制御手段と、を備え、制御手段によってアームの移動が制御され、移動部が対象物を移動する。この際、撮影手段がアームを含む領域を撮影して撮影情報を取得し、この撮影情報に含まれるアームに相当するアーム領域と障害物に相当する障害物領域とが予め近接範囲内にあるか否かを判定し、近接範囲内にあると判定した場合には、アームの移動を規制する。こうすることにより、アームと障害物との距離が予め定められた近接範囲よりも大きく保つことができるため、アームと障害物とが接触する可能性を未然に低減することができる。 A robot control method of the present invention includes imaging means for imaging an area including an arm, and control means for controlling movement of the arm. do. At this time, the photographing means obtains photographing information by photographing an area including the arm, and whether the arm area corresponding to the arm and the obstacle area corresponding to the obstacle included in the photographing information are within a proximity range in advance. If it is determined that it is within the proximity range, the movement of the arm is restricted. By doing so, the distance between the arm and the obstacle can be kept longer than the predetermined proximity range, so the possibility of contact between the arm and the obstacle can be reduced.

本発明のプログラムは、ロボットの制御方法の各ステップを1又は2以上のコンピュータに実行させるためのプログラムである。このプログラムは、コンピュータが読み取り可能な記憶媒体(例えば、ハードディスク、ROM、CD、DVD、フラッシュメモリなど)に記録されていても良いし、伝送媒体(インターネットや有線/無線LANなどの通信網)を介してあるコンピュータから別のコンピュータへ送信されても良いし、その他どのような形で授受されても良い。また、制御方法の各ステップを実行する装置で実行されるものであっても、プログラムが実行される装置と処理が行われる装置とが異なっていてもよい。いずれの場合であっても、このプログラムを1つのコンピュータに実行させるか又は複数のコンピュータに各ステップを分担して実行させれば、上述した制御方法と同様の効果を得ることができる。 A program of the present invention is a program for causing one or more computers to execute each step of a robot control method. This program may be recorded on a computer-readable storage medium (for example, hard disk, ROM, CD, DVD, flash memory, etc.), or may be recorded on a transmission medium (communication network such as the Internet or wired/wireless LAN). It may be sent from one computer to another via a computer, or sent or received in any other manner. Moreover, even if each step of the control method is executed by a device, the device that executes the program and the device that executes the process may be different. In either case, the same effect as the control method described above can be obtained by causing one computer to execute this program or by causing a plurality of computers to share and execute each step.

図1は、搬送車20の構成の概略を示す側面図である。FIG. 1 is a side view showing an outline of the configuration of the transport vehicle 20. FIG. 図2は、搬送車20の構成の概略を示す背面図である。FIG. 2 is a rear view showing the outline of the configuration of the carrier 20. As shown in FIG. 図3は、搬送車20の電気的接続を説明するためのブロック図である。FIG. 3 is a block diagram for explaining the electrical connection of the carrier 20. As shown in FIG. 図4は、移動制御処理ルーチンの一例を示すフローチャートである。FIG. 4 is a flow chart showing an example of a movement control processing routine.

次に、本発明の実施の形態の一例として、ロボット30を含む搬送車20について詳しく説明する。以下に説明する実施の形態及び図面は、本発明の実施形態の一部を例示するものであり、これらの構成に限定する目的に使用されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更することができる。なお、各図において対応する構成要素には同一又は類似の符号を付す。また、ロボット30を含む搬送車20の制御方法の一例を示すことで、本発明のロボットの制御方法及び制御プログラムの一例も明らかにする。 Next, the carrier 20 including the robot 30 will be described in detail as an example of an embodiment of the present invention. The embodiments and drawings described below illustrate a part of the embodiments of the present invention, and are not used for the purpose of limiting to these configurations, and within the scope of the gist of the present invention It can be changed as appropriate. The same or similar reference numerals are given to corresponding components in each figure. In addition, by showing an example of the control method of the carrier 20 including the robot 30, an example of the robot control method and the control program of the present invention will also be clarified.

本発明の実施の形態の一例である搬送車20は、図1及び図2に示すように、ロボット30を有し、無人で予め定められた経路を自走可能な無人搬送車であり、無線通信又は予め定められた搬送ルートに従って所定の経路を自走し、ロボット30で対象物を積載したり、降ろしたりする。この搬送車20は、本体部22の上面にアーム32の先端に移動部34を有するロボット30が、ロボット30よりも上方に撮影手段40a及び撮影手段40b(以下、「撮影手段40」ともいう。)が、それぞれ設けられており、ロボット30の動作や撮影手段40の撮影、搬送車20の自走を制御する制御手段50(図3参照)と、ロボット30及び撮影手段40は、図3に示すように、それぞれ電気的に接続されている。この搬送車20は、アーム32で対象物を移動させる際、撮影手段40がアーム32を含む領域を所定の間隔で撮影し、撮影情報を取得する。この撮影情報に障害物が含まれる場合には、アーム32と障害物が予め定められた接近範囲内であるか否かを判定し、接近範囲内であると判定した場合には、アーム32の移動を規制する。こうすることにより、障害物とアーム32との距離が接近範囲内に含まれることを未然に防止し、障害物とアーム32とが接触する可能性を未然に低減することができる。 As shown in FIGS. 1 and 2, a guided vehicle 20, which is an example of an embodiment of the present invention, has a robot 30 and is an unmanned automated guided vehicle capable of self-propelled along a predetermined route. The robot 30 automatically travels along a predetermined route according to communication or a predetermined transport route, and loads and unloads objects with the robot 30 . In this transport vehicle 20, a robot 30 having a moving part 34 at the tip of an arm 32 on the upper surface of a body part 22 is arranged above the robot 30 with photographing means 40a and photographing means 40b (hereinafter also referred to as "photographing means 40"). ) are respectively provided. Each is electrically connected as shown. When the transport vehicle 20 moves an object with the arm 32, the photographing means 40 photographs an area including the arm 32 at predetermined intervals to acquire photographing information. When an obstacle is included in this photographing information, it is determined whether or not the arm 32 and the obstacle are within a predetermined approach range. Regulate movement. By doing so, it is possible to prevent the distance between the obstacle and the arm 32 from being included in the approach range, and reduce the possibility of contact between the obstacle and the arm 32 .

ロボット30は、図1に示すように、搬送車20の本体部22に設けられたアーム32を有する六軸アームロボットであり、アーム32の先端には移動部34が設けられている。このアーム32の六軸のそれぞれ及び移動部34には、特徴点として、赤色円形の特徴点がそれぞれ設けられている。このように、各軸及び移動部34に特徴点を備えることにより、アーム32を含む領域を撮影した撮影情報から、各軸及び移動部34を抽出する際、特徴点を有しない場合と比較して、容易に抽出することができる。また、このロボット30は、図3に示すように、制御手段50と電気的に接続され、移動部34が対象物を移動させる際には、制御手段50によってアーム32の移動が制御され、移動部34によって対象物を移動させる。こうすることによって、ロボット30は対象物を押圧したり牽引したりすることで、搬送車20に積載したり、降ろしたりすることができる。また、移動部34には赤色円形の特徴点が設けられているため、撮影手段40で撮影した際、撮影情報から移動部34を容易に抽出することができる。なお、対象物を移動させる方法としては、対象物の一部を把持又は保持することで移動させてもよいし、一面を押圧又は牽引することにより移動させてもよい。 As shown in FIG. 1, the robot 30 is a six-axis arm robot having an arm 32 provided on the main body 22 of the carrier 20, and a moving section 34 is provided at the tip of the arm 32. As shown in FIG. Each of the six axes of the arm 32 and the moving portion 34 is provided with a red circular feature point as a feature point. In this way, by providing feature points on each axis and moving part 34, when extracting each axis and moving part 34 from imaging information obtained by imaging an area including the arm 32, compared to the case where no feature point is provided. can be easily extracted. Further, as shown in FIG. 3, the robot 30 is electrically connected to the control means 50, and when the moving part 34 moves the object, the movement of the arm 32 is controlled by the control means 50. The object is moved by the part 34 . By doing so, the robot 30 can load or unload the object on the transport vehicle 20 by pushing or pulling the object. Further, since the moving portion 34 is provided with a red circular characteristic point, when the image is captured by the image capturing means 40, the moving portion 34 can be easily extracted from the image capturing information. As a method for moving the object, the object may be moved by gripping or holding a part of the object, or by pressing or pulling one side of the object.

撮影手段40は、図1及び図2に示すように、搬送車20の上方であって、ロボット30を挟んで互いに対向する位置に設けられた公知の撮影装置であり、ロボット30の可動範囲を含む領域を撮影し、撮影情報として後述するRAM53に送信する。このとき、撮影手段40はロボット30を挟んで互いに対向する位置に設けられているため、アーム32の状態にかかわらず、移動部34を含む領域をいずれかの撮影手段40が撮影することができる。なお、図1及び図2では、撮影手段40aが搬送車20の右上部前方側、撮影手段40bが搬送車20の左上部後方側に設けられるものとしたが、互いに対向する位置であればこの位置に限定されるものではなく、例えば、撮影手段40aが左上部前方側、撮影手段40bが右上部後方側に設けられていてもよい。 As shown in FIGS. 1 and 2, the photographing means 40 is a known photographing device provided above the carrier 20 and facing each other with the robot 30 interposed therebetween. The area containing the image is photographed and transmitted to the RAM 53, which will be described later, as photographing information. At this time, since the photographing means 40 are provided at positions facing each other with the robot 30 interposed therebetween, any of the photographing means 40 can photograph the area including the moving part 34 regardless of the state of the arm 32 . . In FIGS. 1 and 2, the photographing means 40a is provided on the upper right front side of the carrier 20, and the photographing means 40b is provided on the upper left rear side of the carrier 20. The positions are not limited, and for example, the photographing means 40a may be provided on the upper left front side and the photographing means 40b may be provided on the upper right rear side.

制御手段50は、図3に示すように、CPU51を中心とするマイクロプロセッサとして構成されており、ロボット30や撮影手段40を制御する各種制御プログラム等が記憶されたROM52と、撮影手段40によって撮影された基準情報及び撮影情報等を一時的に記憶するRAM53と、ロボット30及び撮影手段40等との間の各種信号の送受信を行うインタフェース54(以下、「I/F54」と言う。)がそれぞれバス55を介して電気的に接続されている。この制御手段50は、ロボット30及び撮影手段40の動作を制御することに加え、撮影手段40が撮影した撮影情報を受信し、障害物に相当する障害物領域が含まれるか否かを判定する。この判定結果に基づいてアーム32の動作を制御することで、アーム32と障害物とが接触する可能性を未然に低減する。 As shown in FIG. 3, the control means 50 is configured as a microprocessor with a CPU 51 at its center. A RAM 53 for temporarily storing reference information, photographing information, and the like, and an interface 54 (hereinafter referred to as "I/F 54") for transmitting and receiving various signals between the robot 30 and the photographing means 40, etc. They are electrically connected via a bus 55 . In addition to controlling the operations of the robot 30 and the photographing means 40, the control means 50 receives photographing information photographed by the photographing means 40 and determines whether or not an obstacle area corresponding to an obstacle is included. . By controlling the motion of the arm 32 based on this determination result, the possibility of contact between the arm 32 and an obstacle is reduced.

続いて、アーム32と障害物との接触を未然に防止する移動制御処理方法について、制御手段50によって実行される移動制御処理ルーチンを一例に説明する。この移動制御処理ルーチンは、アーム32を移動する際に実行され、アーム32の移動中は繰り返し実行される。なお、ここで、図4は、移動制御処理ルーチンの一例を示すフローチャートである。 Next, a movement control processing routine executed by the control means 50 will be described as an example of a movement control processing method for preventing contact between the arm 32 and an obstacle. This movement control processing routine is executed when the arm 32 is moved, and is repeatedly executed while the arm 32 is moving. Here, FIG. 4 is a flowchart showing an example of the movement control processing routine.

移動制御処理ルーチンは、ROM52に予め記憶されており、CPU51によって実行される。この移動制御処理ルーチンがCPU51によって実行されると、CPU51は、RAM53に基準情報があるか否かを判定し(ステップS110)、基準情報がないと判定した場合には、撮影手段40に撮影信号を発信し、撮影手段40で撮影した撮影情報を基準情報としてRAM53に一時的に保存する(ステップS120)。なお、この基準情報は、ロボット30を起動中はRAM53に保存されるため、ステップS120は、校正(キャリブレーション)動作として、ロボット30を起動し、一回目に移動制御処理ルーチンが実行された際にのみ実行されることになる。 A movement control processing routine is pre-stored in the ROM 52 and executed by the CPU 51 . When the movement control processing routine is executed by the CPU 51, the CPU 51 determines whether or not there is reference information in the RAM 53 (step S110). is transmitted, and the photographing information photographed by the photographing means 40 is temporarily stored in the RAM 53 as reference information (step S120). Since this reference information is stored in the RAM 53 while the robot 30 is running, step S120 is performed as a calibration operation when the robot 30 is started and the movement control processing routine is executed for the first time. will be executed only

続いて、CPU51がステップS120を実行した後、又は、ステップS110で基準情報があると判定した場合には、CPU51は、撮影手段40に撮影信号を発信し、撮影手段40で撮影した撮影情報をRAM53に一時的に記憶し(ステップS130)、撮影情報に障害物に相当する障害物情報が含まれているか否かを判定することで、障害物の有無を判定する(ステップS140)。具体的には、RAM53に記憶された基準情報と撮影情報とを比較し、撮影情報中に基準情報に含まれない領域情報が含まれているか否かを判定し、基準情報に含まれない領域情報が撮影情報に含まれる場合には、その領域が障害物に相当すると判定し、障害物が含まれると判定する。 Subsequently, after the CPU 51 executes step S120, or when it is determined that there is reference information in step S110, the CPU 51 transmits a photographing signal to the photographing means 40, and the photographing information photographed by the photographing means 40 is transmitted. It is temporarily stored in the RAM 53 (step S130), and the presence or absence of an obstacle is determined by determining whether or not obstacle information corresponding to an obstacle is included in the photographing information (step S140). Specifically, the reference information stored in the RAM 53 is compared with the photographing information, and it is determined whether or not the photographing information includes area information not included in the reference information. If the information is included in the shooting information, it is determined that the area corresponds to an obstacle, and that the obstacle is included.

ステップS140において、CPU51が障害物がないと判定した場合には、本ルーチンを終了する。このような場合には、アーム32の移動が妨げる障害物が存在しないため、対象物を移動する移動位置にアーム32を障害なく移動させることができる。 If the CPU 51 determines in step S140 that there is no obstacle, this routine ends. In such a case, since there is no obstacle that hinders the movement of the arm 32, the arm 32 can be moved to the movement position for moving the object without obstruction.

一方、ステップS140において、CPU51が障害物があると判定した場合には、撮影情報中の障害物に相当する領域を障害物領域として、撮影情報中のアーム32に相当する領域をアーム領域として、撮影情報中の移動部34に相当する領域を移動部領域として、それぞれ抽出する(ステップS150)。具体的には、撮影情報の画像解析処理を行い、撮影情報に含まれるアーム32に相当する領域、移動部34に相当する領域、障害物に相当する領域を、それぞれアーム領域、移動部領域及び障害物領域として、それぞれ抽出する。 On the other hand, when the CPU 51 determines in step S140 that there is an obstacle, the area corresponding to the obstacle in the imaging information is set as the obstacle area, and the area corresponding to the arm 32 in the imaging information is set as the arm area. A region corresponding to the moving portion 34 in the photographing information is extracted as a moving portion region (step S150). Specifically, image analysis processing of the imaging information is performed, and the area corresponding to the arm 32, the area corresponding to the moving part 34, and the area corresponding to the obstacle included in the imaging information are divided into the arm area, the moving part area, and the obstacle area, respectively. Each is extracted as an obstacle area.

次に、移動部領域と障害物領域との位置を比較し、移動部34が障害物よりも上に位置するか否かを判定し(ステップS160)、移動部34が障害物よりも上に位置しないと判定した場合には、アーム32の動きを規制して(ステップS190)、本ルーチンを終了する。このような場合には、障害物よりも移動部34が下方に位置することになり、アーム32を移動させた際、アーム32のいずれかの場所と障害物とが接触する可能性が高い。このため、予めアーム32の動きを規制することにより、アーム32と障害物とが接触する可能性を未然に低減することができる。 Next, the positions of the moving part area and the obstacle area are compared to determine whether or not the moving part 34 is positioned above the obstacle (step S160). If it is determined that the arm 32 is not positioned, the movement of the arm 32 is restricted (step S190), and the routine ends. In such a case, the moving part 34 is positioned below the obstacle, and when the arm 32 is moved, there is a high possibility that the arm 32 will come into contact with the obstacle at some point. Therefore, by restricting the movement of the arm 32 in advance, the possibility of contact between the arm 32 and an obstacle can be reduced.

一方、ステップS160において、CPU51が移動部34が障害物よりも上に位置すると判定した場合には、アーム領域と障害物領域との距離を算出することで、アーム32と障害物との距離を算出する(ステップS170)。具体的には、障害物領域からアーム領域の最も近い位置までの距離を算出し、この距離をアーム32と障害物との距離とする。なお、アーム32と障害物との距離を算出する方法としては、静止画像から空間情報を抽出し、空間情報を算出する各種の方法を利用することができるが、例えば、Bayesian NetworkやMarkov Random Fieldといった確率モデルを利用して算出してもよい。 On the other hand, when the CPU 51 determines in step S160 that the moving part 34 is positioned above the obstacle, the distance between the arm 32 and the obstacle is calculated by calculating the distance between the arm area and the obstacle area. Calculate (step S170). Specifically, the distance from the obstacle area to the closest position of the arm area is calculated, and this distance is taken as the distance between the arm 32 and the obstacle. As a method of calculating the distance between the arm 32 and the obstacle, various methods of extracting spatial information from a still image and calculating the spatial information can be used. It may be calculated using a probability model such as

続いて、CPU51は、ステップS160で算出したアーム32と障害物との距離が近接範囲以内であるか否かを判定し(ステップS180)、近接範囲以内でないと判定した場合には、本ルーチンを終了する。このような場合には、アーム32と障害物とが直ちに接触することがないため、現時点では何らかの制御を行う必要がない。なお、ここで「近接範囲」とは、予め定められた所定の値であり、アームと障害物との距離が近接範囲以内である場合には、アームと障害物とが互いに接近しており、アームの移動に伴い、アームと障害物とが接触する可能性が高いことを示す範囲である。この範囲は、例えば、0ミリメートル以上100ミリメートル以下であってもよいし、0ミリメートル以上50ミリメートル以下であってもよい。 Subsequently, the CPU 51 determines whether or not the distance between the arm 32 and the obstacle calculated in step S160 is within the proximity range (step S180). finish. In such a case, there is no immediate contact between the arm 32 and the obstacle, so no control is required at this time. Here, the "proximity range" is a predetermined value, and when the distance between the arm and the obstacle is within the proximity range, the arm and the obstacle are approaching each other, This is a range indicating that there is a high possibility that the arm will come into contact with an obstacle as the arm moves. This range may be, for example, 0 mm or more and 100 mm or less, or 0 mm or more and 50 mm or less.

一方、ステップS180において、CPU51がアーム32と障害物との距離が近接範囲以内であると判定した場合には、アーム32の動きを規制して(ステップS190)、本ルーチンを終了する。このような場合には、アーム32を動かすことで障害物と接触する可能性が高いため、アーム32の動きを規制することで、アーム32と障害物とが接触する可能性を未然に低減することができる。 On the other hand, when the CPU 51 determines in step S180 that the distance between the arm 32 and the obstacle is within the proximity range, the movement of the arm 32 is restricted (step S190), and this routine ends. In such a case, since there is a high possibility that the arm 32 will come into contact with the obstacle by moving it, the possibility of contact between the arm 32 and the obstacle is reduced by restricting the movement of the arm 32. be able to.

以上詳述した実施の形態によれば、撮影手段40がアーム32を含む領域を撮影して撮影情報を取得し、ステップS180で、アーム32に相当するアーム領域と障害物に相当する障害物領域との距離が予め定められた近接範囲内にあるか否かを判定し、近接範囲内にある場合には、アーム32の移動を停止する。こうすることにより、アーム32と障害物との接近を規制し、アーム32と障害物とが衝突する可能性を低減することができる。 According to the embodiment detailed above, the photographing means 40 photographs the area including the arm 32 to obtain photographing information, and in step S180, the arm area corresponding to the arm 32 and the obstacle area corresponding to the obstacle are captured. is within a predetermined proximity range, and if it is within the proximity range, the movement of the arm 32 is stopped. By doing so, it is possible to restrict the approach between the arm 32 and the obstacle, and reduce the possibility of the arm 32 colliding with the obstacle.

また、ステップS170の前に、ステップS120で取得した基準情報とステップS130で取得した撮影情報とを比較することで、障害物の有無をステップS140で判定することにより、障害物が存在しない場合には、ステップS150以下の処理を実行する必要が無い。こうすることにより、障害物の有無を予め判定することにより、処理を簡略化し、処理速度を向上させることができる。 Further, before step S170, by comparing the reference information acquired in step S120 with the photographing information acquired in step S130, the presence or absence of an obstacle is determined in step S140. , there is no need to execute the processing after step S150. By doing so, it is possible to simplify the processing and improve the processing speed by determining in advance whether or not there is an obstacle.

更に、ステップS160で移動部34と障害物との位置関係を判定し、移動部34が障害物よりも下、つまり、移動部34が障害物と本体部22との間に位置する場合には、ステップS190でアーム32の移動を停止する。このような場合にアーム32を移動すると、アーム32と障害物とが衝突する可能性が高いため、アーム32の移動を停止することで、アーム32と障害物とが衝突する可能性を未然に低減することができる。 Further, in step S160, the positional relationship between the moving part 34 and the obstacle is determined. , the movement of the arm 32 is stopped in step S190. If the arm 32 is moved in such a case, there is a high possibility that the arm 32 will collide with the obstacle. can be reduced.

また、移動部34には、特徴点が設けられているため、基準情報及び撮影情報に含まれる特徴点を抽出しやすい。言い換えると、特徴点を有していない場合と比較して、基準情報及び撮影情報に含まれる把持部領域やアーム領域を容易に抽出することができる。 Further, since the moving part 34 is provided with the feature points, it is easy to extract the feature points included in the reference information and the photographing information. In other words, it is possible to easily extract the grip portion region and the arm region included in the reference information and the imaging information, compared to the case where no feature point is provided.

なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and can be implemented in various forms as long as they fall within the technical scope of the present invention.

例えば、上述した実施の形態では、ステップS190においてアーム32の動きを規制するものとしたが、アーム32を進行方向以外の方向に移動してもよいし、アーム32の移動を停止してもよいし、障害物と衝突しないように移動を制御してもよい。いずれの場合であっても、アーム32の動きを変化させることにより、上述した実施の形態と同様の効果が得られる。 For example, in the embodiment described above, the movement of the arm 32 is restricted in step S190, but the arm 32 may be moved in a direction other than the advancing direction, or the movement of the arm 32 may be stopped. and may control movement to avoid colliding with obstacles. In any case, by changing the movement of the arm 32, the same effect as the above-described embodiment can be obtained.

上述した実施の形態では、ステップS110で基準情報があるか否かを判定するものとしたが、予め基準情報をROM52等に記憶しておいてもよい。こうすれば、ステップS110及びステップS120を実行する必要が無い。 In the embodiment described above, it is determined whether or not there is reference information in step S110, but the reference information may be stored in the ROM 52 or the like in advance. This eliminates the need to execute steps S110 and S120.

上述した実施の形態では、ステップS140において、撮影情報に障害物に相当する障害物領域が含まれている場合には、障害物を有すると判定するものとしたが、障害物領域が所定の大きさ以上の場合に、障害物を有すると判定してもよい。こうすれば、アーム32の移動に影響しない小さな障害物が撮影情報に含まれる場合であっても、アーム32の移動を継続することができる。 In the above-described embodiment, in step S140, if an obstacle area corresponding to an obstacle is included in the photographing information, it is determined that there is an obstacle. It may be determined that there is an obstacle if the This allows the arm 32 to continue moving even if the imaging information includes a small obstacle that does not affect the movement of the arm 32 .

上述した実施の形態では、特徴点は赤色円形であるものとしたが、予め定められた特徴を有するものであればこれに限定されるものではなく、青色や緑色等種々の色であってもよいし、三角形や四角形、十字形状等種々の形状であってもよい。また、凹部や凸部等の特定の形状であってもよい。予め、画像処理の際に抽出しやすい符号を備えることにより、いずれの場合であっても、上述した実施の形態と同様の効果が得られる。 In the above-described embodiment, the feature point is assumed to be a red circle, but the feature point is not limited to this as long as it has a predetermined feature. Alternatively, various shapes such as a triangle, a square, and a cross may be used. Moreover, it may have a specific shape such as a concave portion or a convex portion. By providing a code that can be easily extracted during image processing in advance, the same effects as in the above-described embodiment can be obtained in either case.

上述した実施の形態では、近接範囲の値は予め定めるものとしたが、撮影手段40の撮影間隔とアーム32の移動速度に基づいて定めるものとしてもよい。具体的には、アーム32の移動速度に撮影手段40の撮影間隔を乗じた値を近接範囲の値としてもよい。こうすれば、撮影手段40が次に撮影情報を撮影し、本ルーチンで判定するまでの間にアーム32が近接範囲分より大きく移動することがないため、アームと障害物との距離が近接範囲より大きければ、アーム32と障害物とが衝突する可能性がない。 In the embodiment described above, the value of the proximity range is determined in advance, but it may be determined based on the photographing interval of the photographing means 40 and the moving speed of the arm 32 . Specifically, a value obtained by multiplying the moving speed of the arm 32 by the photographing interval of the photographing means 40 may be used as the value of the proximity range. In this way, the arm 32 does not move more than the proximity range between the photographing means 40 next photographing the photographing information and the determination in this routine. If it is larger, there is no chance of arm 32 colliding with an obstacle.

上述した実施の形態では、移動制御処理ルーチンは繰り返し実行されるものとしたが、繰り返し実行される際、例えば、10ミリ秒や1秒等、所定の時間待機した後に実行されるものとしてもよい。こうすることにより、連続的に実行する場合と比較して、処理回数を低減し、制御手段50への負荷を低減することができる。また、この待機時間は、アーム32の移動速度に応じて定めるものとしてもよいし、アーム32の移動速度と近接範囲の値に基づいて定めるものとしてもよい。例えば、待機時間とアーム32の移動速度の積が近接範囲の値より短くなるように待機時間を定めることで、アーム32が近接範囲の距離を進む間に必ず移動制御処理ルーチンが実行されることになるため、アーム32と障害物とが接触する可能性を低減することができる。 In the above-described embodiment, the movement control processing routine is repeatedly executed, but when repeatedly executed, it may be executed after waiting for a predetermined period of time, such as 10 milliseconds or 1 second. . By doing so, the number of times of processing can be reduced and the load on the control means 50 can be reduced as compared with the case of continuous execution. Also, this standby time may be determined according to the moving speed of the arm 32, or may be determined based on the moving speed of the arm 32 and the value of the proximity range. For example, by setting the waiting time so that the product of the waiting time and the moving speed of the arm 32 is shorter than the value of the proximity range, the movement control processing routine is always executed while the arm 32 moves the distance of the proximity range. , the possibility of contact between the arm 32 and an obstacle can be reduced.

上述した実施の形態では、撮影手段40は2つ設けるものとしたが、アーム32を中心に4つ設けるものとしてもよいし、1つであってもよい。いずれの場合であっても、上述した実施の形態と同様に、アーム32と障害物とが衝突する可能性を未然に低減することができる。 In the above-described embodiment, two photographing means 40 are provided, but four may be provided around the arm 32, or one may be provided. In either case, the possibility of collision between the arm 32 and the obstacle can be reduced in the same manner as in the above-described embodiments.

上述した実施の形態で示すように、ロボット制御分野、特に移動するアームの接触防止制御手段として利用することができる。 As shown in the above embodiments, it can be used in the field of robot control, particularly as contact prevention control means for a moving arm.

20…搬送車、22…本体部、30…ロボット、32…アーム、34…移動部、40…撮影手段、40a…撮影手段、40b…撮影手段、50…制御手段、51…CPU、52…ROM、53…RAM、54…インタフェース、55…バス。
DESCRIPTION OF SYMBOLS 20... Carrier, 22... Main body part, 30... Robot, 32... Arm, 34... Moving part, 40... Photographing means, 40a... Photographing means, 40b... Photographing means, 50... Control means, 51... CPU, 52... ROM , 53...RAM, 54...interface, 55...bus.

Claims (8)

対象物を移動させる移動部を有するアームを備えたロボットであって、
前記アームを含む領域を撮影し、前記アームに相当するアーム領域を含む撮影情報を取得する撮影手段と、
前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が、前記アームの移動速度に前記撮影手段の撮影間隔を乗じた値を近接範囲の値とした接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する制御手段と、
を備えたことを特徴とする、
ロボット。
A robot equipped with an arm having a moving part for moving an object,
an imaging means for imaging an area including the arm and acquiring imaging information including an arm area corresponding to the arm;
In the photographing information, the distance between the obstacle area corresponding to the obstacle and the arm area is within a close proximity range obtained by multiplying the moving speed of the arm by the photographing interval of the photographing means. a control means for determining whether or not the arm is within the approach range, and regulating the movement of the arm when it is determined that the arm is within the approach range;
characterized by comprising
robot.
請求項1に記載のロボットにおいて、
前記アーム領域を含む領域を予め撮影した基準情報と、
を備え、
前記制御手段は、前記基準情報と前記撮影情報とを比較することで前記撮影情報に前記障害物領域が含まれるか否かを判定し、前記撮影情報に前記障害物領域が含まれると判定した場合に、前記障害物領域と前記アーム領域との距離が前記接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制することを特徴とする、
ロボット。
The robot according to claim 1, wherein
Reference information obtained by photographing an area including the arm area in advance;
with
The control means determines whether or not the obstacle area is included in the imaging information by comparing the reference information and the imaging information, and determines that the obstacle area is included in the imaging information. In this case, it is determined whether or not the distance between the obstacle area and the arm area is within the approach range, and if it is determined that the distance is within the approach range, the movement of the arm is restricted. characterized by
robot.
前記制御手段は、前記撮影情報において、前記移動部が障害物とアームを上面に有する本体部との間に位置する場合には、前記アームの移動を規制することを特徴とする、
請求項1又は2に記載のロボット。
The control means regulates the movement of the arm when the moving part is positioned between an obstacle and a main body having an arm on the upper surface in the imaging information,
The robot according to claim 1 or 2.
前記移動部は、前記撮影手段で撮影される際に特徴となる特徴点を有していることを特徴とする、
請求項1から3のいずれか1項に記載のロボット。
The moving unit is characterized by having a feature point that becomes a feature when photographed by the photographing means,
A robot according to any one of claims 1 to 3.
前記撮影手段は、前記アームの移動速度に基づいて定められた撮影間隔で、前記撮影情報を複数回取得することを特徴とする、
請求項1から4のいずれか1項に記載のロボット。
The imaging means acquires the imaging information multiple times at imaging intervals determined based on the moving speed of the arm,
A robot according to any one of claims 1 to 4.
請求項1から5のいずれか1項に記載のロボットを備えた搬送車であって、
前記撮影手段は、前記ロボットを含む領域を上方側から撮影する位置に複数設けられていることを特徴とする、
搬送車。
A carrier equipped with the robot according to any one of claims 1 to 5,
A plurality of the photographing means are provided at a position for photographing the area including the robot from above,
transport vehicle.
アームを含む領域を撮影し、前記アームに相当するアーム領域を含む撮影情報を取得する撮影手段と、前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が予め定められた接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する制御手段と、を備え、対象物を移動させる移動部を有するアームを備えたロボットを制御する制御方法であって、
前記撮影情報を取得する撮影ステップと、
前記撮影情報において、障害物に相当する障害物領域と前記アーム領域との距離が前記アームの移動速度に前記撮影手段の撮影間隔を乗じた値を近接範囲の値とした接近範囲内にあるか否かを判定し、前記接近範囲内にあると判定した場合には、前記アームの移動を規制する規制ステップと、
を含むことを特徴とする、
ロボットの制御方法。
a photographing means for photographing an area including an arm and obtaining photographing information including the arm area corresponding to the arm; and in the photographing information, a distance between an obstacle area corresponding to an obstacle and the arm area is predetermined and control means for determining whether the object is within the approach range, and if it is determined that the object is within the approach range, the arm having a moving part for moving the object. A control method for controlling a robot comprising
a photographing step of acquiring the photographing information;
In the photographing information, whether or not the distance between the obstacle area corresponding to the obstacle and the arm area is within the proximity range obtained by multiplying the moving speed of the arm by the photographing interval of the photographing means. determining whether or not, and if it is determined that the arm is within the approach range, a restricting step of restricting the movement of the arm;
characterized by comprising
How to control the robot.
請求項7に記載のロボットの制御方法の各ステップを1又は2以上のコンピュータに実行させるためのプログラム。 A program for causing one or more computers to execute each step of the robot control method according to claim 7.
JP2018194679A 2018-10-15 2018-10-15 Robot, transport vehicle equipped with this robot, control method and control program for this robot Active JP7224843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018194679A JP7224843B2 (en) 2018-10-15 2018-10-15 Robot, transport vehicle equipped with this robot, control method and control program for this robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018194679A JP7224843B2 (en) 2018-10-15 2018-10-15 Robot, transport vehicle equipped with this robot, control method and control program for this robot

Publications (2)

Publication Number Publication Date
JP2020062701A JP2020062701A (en) 2020-04-23
JP7224843B2 true JP7224843B2 (en) 2023-02-20

Family

ID=70386523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018194679A Active JP7224843B2 (en) 2018-10-15 2018-10-15 Robot, transport vehicle equipped with this robot, control method and control program for this robot

Country Status (1)

Country Link
JP (1) JP7224843B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060049939A1 (en) 2004-09-08 2006-03-09 Sick Ag Method and apparatus for the control of a safety-relevant function of a machine
JP2010208003A (en) 2009-03-12 2010-09-24 Ihi Corp Device and method for controlling robot device
JP2012223831A (en) 2011-04-15 2012-11-15 Mitsubishi Electric Corp Collision avoidance device
JP2013001548A (en) 2011-06-20 2013-01-07 Yaskawa Electric Corp Picking system
WO2013135608A1 (en) 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Method and device for securing a hazardous working area of an automated machine
WO2015074841A1 (en) 2013-10-30 2015-05-28 Kuka Systems Gmbh Working device and operating method
US20160059416A1 (en) 2014-08-29 2016-03-03 General Electric Company Systems and methods for railyard robotics
JP2017221985A (en) 2016-06-13 2017-12-21 ファナック株式会社 Robot system
WO2018190189A1 (en) 2017-04-13 2018-10-18 パナソニック株式会社 Method for controlling electrically driven vehicle, and electrically driven vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63109996A (en) * 1986-05-15 1988-05-14 三菱電機株式会社 Monitor device for working region of robot
JPH05261692A (en) * 1992-03-17 1993-10-12 Fujitsu Ltd Working environment monitoring device for robot

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060049939A1 (en) 2004-09-08 2006-03-09 Sick Ag Method and apparatus for the control of a safety-relevant function of a machine
JP2010208003A (en) 2009-03-12 2010-09-24 Ihi Corp Device and method for controlling robot device
JP2012223831A (en) 2011-04-15 2012-11-15 Mitsubishi Electric Corp Collision avoidance device
JP2013001548A (en) 2011-06-20 2013-01-07 Yaskawa Electric Corp Picking system
WO2013135608A1 (en) 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Method and device for securing a hazardous working area of an automated machine
WO2015074841A1 (en) 2013-10-30 2015-05-28 Kuka Systems Gmbh Working device and operating method
US20160059416A1 (en) 2014-08-29 2016-03-03 General Electric Company Systems and methods for railyard robotics
JP2017221985A (en) 2016-06-13 2017-12-21 ファナック株式会社 Robot system
WO2018190189A1 (en) 2017-04-13 2018-10-18 パナソニック株式会社 Method for controlling electrically driven vehicle, and electrically driven vehicle

Also Published As

Publication number Publication date
JP2020062701A (en) 2020-04-23

Similar Documents

Publication Publication Date Title
US10486307B2 (en) Robot control device and computer readable medium
KR102286007B1 (en) following cruise control method and following cruise control device
US9089966B2 (en) Workpiece pick-up apparatus
US9701014B2 (en) Robot control device for preventing misjudgment by collision judging part
CN109773776B (en) Gripping method, gripping system, and storage medium
US10695912B2 (en) Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
KR102304851B1 (en) Ecu, autonomous vehicle including the ecu, and method of recognizing near vehicle for the same
WO2020022302A1 (en) Grasping device
JP7377627B2 (en) Object detection device, object grasping system, object detection method, and object detection program
JP6414524B2 (en) Vehicle control apparatus and runway reliability determination method
JP2020160914A (en) Object detection device
JP7224843B2 (en) Robot, transport vehicle equipped with this robot, control method and control program for this robot
JP5609760B2 (en) Robot, robot operation method, and program
JP2008269007A (en) Course estimation device and collision relaxing device
US11713044B2 (en) Vehicle for estimation a state of the other vehicle using reference point of the other vehicle, and method of controlling the vehicle
US11577386B2 (en) Gripping method, gripping system, and program
JP7118778B2 (en) Transport vehicle, control method and control program for controlling this transport vehicle
US11586215B2 (en) Control device
JP2006021300A (en) Predicting device and holding device
JP6672750B2 (en) Object detection device
JP6243319B2 (en) Deviation judgment device
JP5218209B2 (en) Method for detecting relative movement between multiple objects
WO2019167533A1 (en) Sensor system and inclination detection method
JP7317481B2 (en) Robot, transport vehicle equipped with this robot, control method and control program for this robot
JP2021117893A (en) Self position estimation device and self position estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7224843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150