JP2013111728A - Gripping operation setting method, device and program - Google Patents

Gripping operation setting method, device and program Download PDF

Info

Publication number
JP2013111728A
JP2013111728A JP2011262248A JP2011262248A JP2013111728A JP 2013111728 A JP2013111728 A JP 2013111728A JP 2011262248 A JP2011262248 A JP 2011262248A JP 2011262248 A JP2011262248 A JP 2011262248A JP 2013111728 A JP2013111728 A JP 2013111728A
Authority
JP
Japan
Prior art keywords
gripping
display unit
screen
shape
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011262248A
Other languages
Japanese (ja)
Other versions
JP5888591B2 (en
Inventor
Nobuya Kowashi
宜也 小鷲
Toshihiro Hayashi
俊寛 林
Tomohiro Inoue
智洋 井之上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011262248A priority Critical patent/JP5888591B2/en
Publication of JP2013111728A publication Critical patent/JP2013111728A/en
Application granted granted Critical
Publication of JP5888591B2 publication Critical patent/JP5888591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide means of recognizing and setting, three dimensionally, a gripping position and a gripping direction of an object to be gripped by a grip part of a robot hand.SOLUTION: On a screen 15a of a display device, a shape 21 of the object and a movement display portion 23 indicating a gripping position and a gripping direction are displayed three dimensionally. According to position changing operation and direction changing operation on an operation device, the position and direction of the movement display portion 23 are changed. Once setting operation is done on the operation device, the current position that the movement display portion 23 indicates in the shape 21 of the object and the current direction to which the movement display part 23 faces three dimensionally are set as a gripping position and a gripping direction, respectively.

Description

本発明は、ロボットハンドにより対象物を把持する把持位置と把持方向を設定する把持動作設定方法、装置、およびプログラムに関する。   The present invention relates to a gripping operation setting method, apparatus, and program for setting a gripping position and a gripping direction for gripping an object by a robot hand.

従来において、ロボットハンドに対象物を把持させるために、対象物における把持位置を予め設定することが行われている。この場合、設定した把持位置に基づいて、ロボットハンドがこの把持位置で対象物を把持するように、ロボットハンドの動作が制御される。   2. Description of the Related Art Conventionally, in order to cause a robot hand to grip an object, a gripping position on the object is set in advance. In this case, based on the set gripping position, the operation of the robot hand is controlled so that the robot hand grips the object at this gripping position.

把持位置や把持方向の設定方法は、例えば、下記の特許文献1〜3に記載されている。   The method for setting the gripping position and the gripping direction is described, for example, in Patent Documents 1 to 3 below.

特許文献1では、次のように、ティーチングにより把持位置を含む動作データを設定している。人が、ロボットハンドに対して動作指令を入力する入力装置(ティーチングペンダント)を用いて、ロボットハンドを動作させる。これにより、ロボットハンドにより対象物を把持させることができる。このようなロボットハンドの動作中におけるロボットハンドの各位置と各姿勢を計測し、計測した各位置と各姿勢に基づいて、ロボットハンドの移動経路や、ロボットハンドによる把持位置や把持方向などを動作データとして設定する。   In Patent Document 1, operation data including a gripping position is set by teaching as follows. A person operates the robot hand using an input device (teaching pendant) that inputs an operation command to the robot hand. Thereby, the object can be gripped by the robot hand. Each position and posture of the robot hand is measured during the operation of the robot hand, and the movement path of the robot hand, the grip position and the grip direction by the robot hand, etc. are operated based on the measured position and posture. Set as data.

特許文献2では、対象物の形状データに基づいて、対象物の各表面部分について、法線ベクトルを求める。これらの法線ベクトルのうち、内積がしきい値(例えば−0.9)以下となる2つの法線ベクトルを特定する。特定した2つの法線ベクトルをそれぞれ有する表面部分は、互いに反対側を向いているため、これらの表面部分を把持位置として設定する。従って、例えば、ロボットハンドの1対の爪が、特定した表面部分に接して対象物を挟持ことができる。   In patent document 2, a normal vector is calculated | required about each surface part of a target object based on the shape data of a target object. Among these normal vectors, two normal vectors whose inner product is equal to or less than a threshold value (for example, −0.9) are specified. Since the surface portions each having the two specified normal vectors are directed to opposite sides, these surface portions are set as the gripping positions. Therefore, for example, a pair of claws of the robot hand can hold the object in contact with the specified surface portion.

特許文献3では、対象物の画像を表示装置に表示し、この画像において把持位置を指定し、指定した把持位置を計測し、この計測値を把持位置として設定する。   In Patent Document 3, an image of an object is displayed on a display device, a gripping position is designated in the image, the designated gripping position is measured, and the measured value is set as the gripping position.

特開2006−346792号公報JP 2006-346792 A 特開2008−272886号公報JP 2008-272886 A 特開平11−58279号公報Japanese Patent Laid-Open No. 11-58279

しかし、特許文献1の場合には、ティーチングを行うのに手間がかかる。
特許文献2の場合には、各法線ベクトルを求める演算と、法線ベクトル同士の内積の演算と、互いに反対側を向いている法線ベクトルを特定する演算とを行う。従って、演算負荷が大きくなる。
特許文献3の場合には、人が、画面に表示された対象物を画像を見ながら、把持位置を指定すると、把持位置に基づいて、把持方向がコンピュータにより自動的に演算される。しかし、人は、把持方向を視覚的に認識しにくい。
However, in the case of Patent Document 1, it takes time to perform teaching.
In the case of Patent Document 2, an operation for obtaining each normal vector, an inner product operation between the normal vectors, and an operation for specifying normal vectors facing opposite sides are performed. Therefore, the calculation load increases.
In the case of Patent Document 3, when a person designates a gripping position while viewing an image of an object displayed on a screen, the gripping direction is automatically calculated by a computer based on the gripping position. However, it is difficult for a person to visually recognize the gripping direction.

そこで、本発明の目的は、ティーチングを行わなくても、把持位置と把持方向を3次元的に認識して設定できる把持動作設定方法、装置、およびプログラムを提供することにある。   Therefore, an object of the present invention is to provide a gripping operation setting method, apparatus, and program that can recognize and set a gripping position and a gripping direction three-dimensionally without performing teaching.

上述した目的を達成するため、本発明によると、ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部が把持する位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定方法であって、
対象物の形状を3次元的に表示するための2次元の画面を有する表示装置と、
前記画面において、対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させるコンピュータと、
前記画面において移動表示部の位置および向きを変更する位置変更操作および向き変更操作と、把持位置および把持方向を決定する設定操作とが可能な操作装置と、を用意し、
前記画面において、
(A)コンピュータにより、対象物の形状と移動表示部とを3次元的に表示させ、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、コンピュータにより、移動表示部の位置と向きを変更し、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、コンピュータにより把持位置と把持方向に設定する、ことを特徴とする把持動作設定方法が提供される。
In order to achieve the above-described object, according to the present invention, when the object is grasped by the grasping part of the robot hand, the grasping position and the grasping direction are set as the grasping position and the grasping direction, respectively. A gripping operation setting method for setting a gripping direction,
A display device having a two-dimensional screen for three-dimensionally displaying the shape of the object;
On the screen, a computer that three-dimensionally displays a shape of an object and a movement display unit for indicating a gripping position and a gripping direction;
An operation device capable of performing a position change operation and a direction change operation for changing the position and orientation of the movement display unit on the screen and a setting operation for determining a grip position and a grip direction, and
In the screen,
(A) The computer displays the shape of the object and the moving display unit three-dimensionally,
(B) In response to the position change operation and the direction change operation performed on the operation device, the position and orientation of the moving display unit are changed by the computer,
(C) When a setting operation is performed on the operation device, at this time, the position indicated by the movement display unit in the shape of the object and the direction in which the movement display unit is three-dimensionally directed are respectively displayed on the computer. A gripping operation setting method characterized by setting the gripping position and the gripping direction is provided.

本発明の好ましい実施形態によると、ロボットハンドは、互いに対して回転可能に連結された複数のリンクにより構成されており、
複数のリンクのうち最先端のリンクに前記把持部が取り付けられており、
前記(A)において、コンピュータにより、移動表示部の向きに対して一定の方向を向く最先端リンク方向表示部を3次元的に表示させ、
前記(B)において、移動表示部の3次元的な向きの変更に伴って、移動表示部の向きに対して3次元的に前記一定の方向を向くように、最先端リンク方向表示部の3次元的な向きも変更され、
移動表示部の向きに対する3次元的な前記一定の方向は、把持部が対象物を把持する時に、把持部が対象物を把持する把持方向に対して最先端のリンクが実際に向いている一定方向と同じである。
According to a preferred embodiment of the present invention, the robot hand is composed of a plurality of links rotatably connected to each other,
The gripping part is attached to the most advanced link among a plurality of links,
In (A) above, the computer displays the state-of-the-art link direction display unit that is oriented in a certain direction with respect to the direction of the moving display unit in a three-dimensional manner
In (B), as the three-dimensional orientation of the moving display unit is changed, the leading edge link direction display unit 3 is directed so as to be directed in the three-dimensional direction with respect to the direction of the moving display unit. The dimensional orientation has also changed,
The three-dimensional fixed direction with respect to the direction of the moving display unit is a fixed direction in which the most advanced link is actually directed to the gripping direction in which the gripping unit grips the target object when the gripping unit grips the target object. Same as direction.

本発明の実施形態によると、位置変更操作は、画面に表示された対象物の形状における外面、エッジまたは穴を選択する操作であり、この選択により、選択した外面、エッジまたは穴の中心を移動表示部が示すように、移動表示部の位置が変更される。   According to the embodiment of the present invention, the position changing operation is an operation of selecting an outer surface, an edge or a hole in the shape of the target object displayed on the screen, and the selection moves the center of the selected outer surface, edge or hole. As the display unit shows, the position of the moving display unit is changed.

本発明の好ましい実施形態によると、移動表示部は、前記画面において、3次元的に表示される矢印である。   According to a preferred embodiment of the present invention, the movement display unit is an arrow displayed three-dimensionally on the screen.

本発明の別の実施形態によると、移動表示部は、前記ロボットハンドと前記把持部の3次元的な形状である。   According to another embodiment of the present invention, the movement display unit is a three-dimensional shape of the robot hand and the grip unit.

上述した目的を達成するため、本発明によると、ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部が把持する位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定装置であって、
対象物の形状を3次元的に表示するための2次元の画面を有する表示装置と、
前記画面において、対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させるコンピュータと、
前記画面において移動表示部の位置および向きを変更する位置変更操作および向き変更操作と、把持位置および把持方向を決定する設定操作とが可能な操作装置と、を備え、
コンピュータは、前記画面において、
(A)対象物の形状と移動表示部とを3次元的に表示させ、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、移動表示部の位置と向きを変更し、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、把持位置と把持方向に設定する、ことを特徴とする把持動作設定装置が提供される。
In order to achieve the above-described object, according to the present invention, when the object is grasped by the grasping part of the robot hand, the grasping position and the grasping direction are set as the grasping position and the grasping direction, respectively. A gripping operation setting device for setting a gripping direction,
A display device having a two-dimensional screen for three-dimensionally displaying the shape of the object;
On the screen, a computer that three-dimensionally displays a shape of an object and a movement display unit for indicating a gripping position and a gripping direction;
An operation device capable of performing a position change operation and a direction change operation for changing the position and orientation of the movement display unit on the screen, and a setting operation for determining a grip position and a grip direction,
On the screen, the computer
(A) Three-dimensionally display the shape of the object and the movement display unit,
(B) The position and orientation of the moving display unit are changed according to the position changing operation and the direction changing operation performed on the operating device,
(C) When a setting operation is performed on the operating device, at this time, the position indicated by the movement display unit in the shape of the target object and the direction in which the movement display unit faces three-dimensionally are respectively grasped. A gripping operation setting device is provided that sets the position and the gripping direction.

また、上述した目的を達成するため、本発明によると、ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部に把持される位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定プログラムであって、
表示装置の画面において、
(A)対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させる処理と、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、移動表示部の3次元的な位置と向きを変更する処理と、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、把持位置と把持方向に設定する処理と、をコンピュータに実行させる、ことを特徴とする把持動作設定プログラムが提供される。
Further, in order to achieve the above-described object, according to the present invention, when the object is gripped by the grip portion of the robot hand, the position and direction of the target gripped by the grip portion are defined as the grip position and the grip direction, respectively. A gripping operation setting program for setting a gripping position and a gripping direction,
On the screen of the display device,
(A) a process of three-dimensionally displaying the shape of the object and a movement display unit for indicating the gripping position and the gripping direction;
(B) a process of changing the three-dimensional position and orientation of the moving display unit in accordance with the position changing operation and the direction changing operation performed on the operating device;
(C) When a setting operation is performed on the operating device, at this time, the position indicated by the movement display unit in the shape of the target object and the direction in which the movement display unit faces three-dimensionally are respectively grasped. A gripping operation setting program characterized by causing a computer to execute processing for setting a position and a gripping direction is provided.

上述した本発明によると、コンピュータにより、画面において、対象物の3次元的な形状と移動表示部とを表示させ、この移動表示部の位置と向きを変更させる位置変更操作と向き変更操作が操作装置にされると、この操作に応じて、前記画面において移動表示部の位置と向きが変更され、操作装置に設定操作がされると、この時に、前記画面上の対象物の3次元的な形状において移動表示部が示している位置と、移動表示部が向いている方向とを、それぞれ、把持位置と把持方向に設定する。
すなわち、人は、画面を見ながら、位置変更操作および向き変更操作を操作装置にすることにより、移動表示部の位置と向きを、対象物の3次元的な形状に対して定めることができる。次いで、人は、設定操作を操作装置にすることにより、定めた移動表示部の位置と向きを、把持位置と把持方向に設定できる。
従って、人は、3次元的に表示される移動表示部が示す位置により、把持位置を認識でき、3次元的に表示される移動表示部の向きにより、把持方向を認識できる。このように、人が、把持位置と把持方向を3次元的に認識して設定することができる。
よって、人は、ティーチングを行わなくても、把持位置と把持方向を3次元的に認識して設定できる。
According to the above-described present invention, the position change operation and the direction change operation for causing the computer to display the three-dimensional shape of the object and the movement display unit on the screen and to change the position and orientation of the movement display unit are operated. When the device is used, the position and orientation of the moving display unit are changed on the screen in accordance with this operation, and when the setting operation is performed on the operation device, at this time, the three-dimensional object of the object on the screen is displayed. The position indicated by the movement display unit in the shape and the direction in which the movement display unit faces are set as the holding position and the holding direction, respectively.
That is, the person can determine the position and orientation of the moving display unit with respect to the three-dimensional shape of the target object by performing the position change operation and the direction change operation while viewing the screen. Subsequently, the person can set the position and orientation of the determined movement display unit to the gripping position and the gripping direction by using the setting device as an operating device.
Accordingly, the person can recognize the gripping position from the position indicated by the moving display unit displayed three-dimensionally, and can recognize the gripping direction from the direction of the moving display unit displayed three-dimensionally. In this way, a person can recognize and set the gripping position and the gripping direction three-dimensionally.
Therefore, a person can recognize and set the gripping position and the gripping direction three-dimensionally without performing teaching.

ロボットハンドとその制御装置を示す。A robot hand and its control device are shown. ロボットハンドの把持部による把持位置と把持方向を示す。The grip position and grip direction by the grip part of the robot hand are shown. 本発明の実施形態による把持動作設定装置の構成図である。It is a block diagram of the holding | grip movement setting apparatus by embodiment of this invention. 表示装置の画面を示す。The screen of a display apparatus is shown. 本発明の実施形態による把持動作設定方法を示すフローチャートである。It is a flowchart which shows the holding | grip movement setting method by embodiment of this invention. 図2の場合と異なる構成を有する把持部による把持位置と把持方向を示す。FIG. 3 shows a gripping position and a gripping direction by a gripping unit having a configuration different from that in FIG. 表示装置における画面の別の例を示す。The other example of the screen in a display apparatus is shown.

本発明の好ましい実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   A preferred embodiment of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

本発明の実施形態による把持動作設定方法では、ロボットハンド3の把持部5により対象物1を把持する場合に、対象物1において把持部5に把持される位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する。なお、把持方向は、対象物1に固定された仮想の3次元座標系において3次元的に定められる。   In the gripping operation setting method according to the embodiment of the present invention, when the object 1 is gripped by the grip part 5 of the robot hand 3, the position and direction of the object 1 gripped by the grip part 5 are respectively determined as the grip position and the grip direction. As described above, a gripping position and a gripping direction are set. Note that the gripping direction is determined three-dimensionally in a virtual three-dimensional coordinate system fixed to the object 1.

図1は、ロボットハンド3の構成例を示す。図1において、ロボットハンド3は、互いに対して回転可能に連結された複数のリンク7a〜7dにより構成されている。複数の7a〜7dのうち最先端にある第1のリンク7aの先端部に把持部5が固定されている。第1のリンク7aは、第1の関節9aを介して第2のリンク7bに連結されているとともに、第1の関節9aの回転軸C1回りに第2のリンク7bに対して回転可能である。第2のリンク7bは、第2の関節9bを介して第3のリンク7cに連結されているとともに、第2の関節9bの回転軸C2回りに第3のリンク7cに対して回転可能である。第3のリンク7cは、第3の関節9cを介して第4のリンク7dに連結されているとともに、第3の関節9cの回転軸C3回りに第4のリンク7dに対して回転可能である。第4のリンク7dは、自身の中心軸である回転軸C4の回りに回転可能に設置台11に支持されている。   FIG. 1 shows a configuration example of the robot hand 3. In FIG. 1, the robot hand 3 includes a plurality of links 7a to 7d that are rotatably connected to each other. The grip part 5 is fixed to the tip of the first link 7a at the forefront among the plurality of 7a to 7d. The first link 7a is connected to the second link 7b via the first joint 9a, and is rotatable with respect to the second link 7b around the rotation axis C1 of the first joint 9a. . The second link 7b is connected to the third link 7c via the second joint 9b and is rotatable with respect to the third link 7c around the rotation axis C2 of the second joint 9b. . The third link 7c is connected to the fourth link 7d via the third joint 9c, and is rotatable with respect to the fourth link 7d around the rotation axis C3 of the third joint 9c. . The fourth link 7d is supported by the installation base 11 so as to be rotatable around a rotation axis C4 that is a central axis of the fourth link 7d.

この構成で、第1〜第4のリンク7a〜7dが、それぞれ、図示しない複数の駆動装置(例えば、サーボモータ)により対応する回転軸C1〜C4回りに回転駆動される。これらの回転駆動が制御装置13によって制御されることにより、ロボットハンド3は動作する。   With this configuration, the first to fourth links 7a to 7d are rotationally driven around the corresponding rotation axes C1 to C4 by a plurality of drive devices (for example, servo motors) (not shown). The robot hand 3 operates by controlling the rotation drive by the control device 13.

図2に基づいて、把持位置と把持方向を説明する。図2は、図1の部分拡大図である。把持位置と把持方向は、対象物1に対して固定された3次元座標系における位置と方向として表される。この3次元座標系は、図2に示す例では、互いに直交するx軸とy軸とz軸を有する。図2の例では、把持部5は、対象物1を吸引することにより対象物1を吸着して把持する吸引装置である。図2の例では、把持位置は、吸引装置5が対象物1を吸着する位置であり、把持方向は、吸引装置5が対象物1を吸引(吸着)する方向である。このような把持位置と把持方向は、本発明の実施形態による方法で設定され、制御装置13の記憶部13aに記憶されている。   A gripping position and a gripping direction will be described based on FIG. FIG. 2 is a partially enlarged view of FIG. The gripping position and the gripping direction are expressed as a position and direction in a three-dimensional coordinate system fixed with respect to the object 1. In the example shown in FIG. 2, this three-dimensional coordinate system has an x axis, a y axis, and a z axis that are orthogonal to each other. In the example of FIG. 2, the grip portion 5 is a suction device that sucks and grips the object 1 by sucking the object 1. In the example of FIG. 2, the gripping position is a position where the suction device 5 sucks the object 1, and the gripping direction is a direction where the suction device 5 sucks (sucks) the object 1. Such gripping position and gripping direction are set by the method according to the embodiment of the present invention and stored in the storage unit 13a of the control device 13.

制御装置13は、把持位置および把持方向に基づいて、ロボットハンド3を制御する。これにより、ロボットハンド3は、対象物1における把持位置にて把持方向に対象物1を把持する。図2の例では、制御装置13は、吸引装置5が把持方向を向くように、吸引装置5を把持位置に位置決めし、この状態で、吸引装置5を作動させることにより、吸引装置5により対象物1を吸引して把持する。このような制御は、記憶部13aに記憶されている把持位置および把持方向と、記憶部13aに記憶されている対象物1の3次元形状と、把持する対象物1の位置および向きとに基づいて行われる。把持する対象物1の位置および向きは、例えば、レーザ距離計を用いて認識される。この場合には、レーザ距離計は、レーザ射出点から、各計測方向にレーザ光を発することにより、各計測方向において、レーザ射出点から、計測範囲内に存在する物体上の各被計測点までの距離を計測する。制御装置13は、各計測方向について計測した距離に基づいて、レーザ距離計による計測範囲に存在する物体の形状を認識する。制御装置13は、このように認識した形状と、記憶部13aに記憶されている対象物1の3次元形状とを比べることにより、対象物1の位置と対象物1の向きを認識する。   The control device 13 controls the robot hand 3 based on the grip position and the grip direction. As a result, the robot hand 3 grips the target object 1 in the gripping direction at the gripping position of the target object 1. In the example of FIG. 2, the control device 13 positions the suction device 5 at the gripping position so that the suction device 5 faces the gripping direction, and operates the suction device 5 in this state so that the suction device 5 operates the target. The object 1 is sucked and held. Such control is based on the gripping position and gripping direction stored in the storage unit 13a, the three-dimensional shape of the target object 1 stored in the storage unit 13a, and the position and orientation of the target object 1 to be gripped. Done. The position and orientation of the object 1 to be grasped are recognized using, for example, a laser distance meter. In this case, the laser range finder emits laser light in each measurement direction from the laser emission point to each measured point on the object existing in the measurement range in each measurement direction. Measure the distance. The control device 13 recognizes the shape of the object existing in the measurement range by the laser rangefinder based on the distance measured in each measurement direction. The control device 13 recognizes the position of the target object 1 and the direction of the target object 1 by comparing the shape recognized in this way with the three-dimensional shape of the target object 1 stored in the storage unit 13a.

図3は、本発明の実施形態による把持動作設定方法に用いられる把持動作設定装置10を示す。把持動作設定装置10は、表示装置15と、コンピュータ17と、操作装置19とを備える。   FIG. 3 shows a gripping motion setting device 10 used in the gripping motion setting method according to the embodiment of the present invention. The gripping operation setting device 10 includes a display device 15, a computer 17, and an operation device 19.

表示装置15は、対象物1の形状21を3次元的に表示するための2次元の画面15aを有する。   The display device 15 has a two-dimensional screen 15a for displaying the shape 21 of the object 1 three-dimensionally.

コンピュータ17は、図4に示すように、表示装置15の画面15a上に、対象物1の形状21と、当該形状21において把持位置と把持方向を指定するための移動表示部23とを3次元的に表示させる。本実施形態では、移動表示部23は、画面15aにおいて、3次元的に表示される矢印である。なお、移動表示部23は、対象物1の3次元的な形状21よりも手前に表示される。   As shown in FIG. 4, the computer 17 three-dimensionally displays a shape 21 of the object 1 and a movement display unit 23 for designating a gripping position and a gripping direction in the shape 21 on the screen 15 a of the display device 15. To display automatically. In the present embodiment, the movement display unit 23 is an arrow displayed three-dimensionally on the screen 15a. Note that the movement display unit 23 is displayed in front of the three-dimensional shape 21 of the object 1.

本実施形態によると、表示装置15の画面15aにおいて、コンピュータ17により、移動表示部23の向きに対して3次元的に一定の方向を向く指標である最先端リンク方向表示部25を3次元的に表示させる。表示装置15の画面15aにおいて、移動表示部23の向きに対する3次元的な前記一定の方向は、把持部5が対象物1を把持する時に把持部5が対象物1を把持する把持方向に対して最先端のリンク7a(リンク7aの軸)が実際に向く一定の方向と同じである。なお、ロボットハンド3において、把持部5による把持方向に対する最先端のリンク7aの向きは、ロボットハンド3の動作にかかわらず一定である。   According to the present embodiment, on the screen 15 a of the display device 15, the computer 17 displays the state-of-the-art link direction display unit 25, which is an index pointing in a fixed direction in three dimensions with respect to the direction of the moving display unit 23, in a three-dimensional manner. To display. In the screen 15 a of the display device 15, the three-dimensional fixed direction with respect to the direction of the moving display unit 23 is relative to the gripping direction in which the gripping unit 5 grips the target object 1 when the gripping unit 5 grips the target object 1. The most advanced link 7a (the axis of the link 7a) is in the same direction as the actual direction. In the robot hand 3, the direction of the most advanced link 7 a with respect to the gripping direction by the gripping unit 5 is constant regardless of the operation of the robot hand 3.

最先端リンク方向表示部25は、図4の例では、移動表示部23の向きに対して3次元的に前記一定の方向を向く中心軸を有する棒状部である。ただし、最先端リンク方向表示部25は、図4の例では、その向きを人が認識できるものであれば棒状部でなくてもよい。例えば、最先端リンク方向表示部25は、矢印であってもよい。   In the example of FIG. 4, the state-of-the-art link direction display unit 25 is a rod-shaped unit having a central axis that is three-dimensionally oriented in the predetermined direction with respect to the direction of the moving display unit 23. However, in the example of FIG. 4, the state-of-the-art link direction display unit 25 may not be a rod-shaped unit as long as the direction can be recognized by a person. For example, the most advanced link direction display unit 25 may be an arrow.

操作装置19は、人に操作される。操作装置19は、例えば、キーボード19aとマウス19bとを有していてよい。   The operating device 19 is operated by a person. The operating device 19 may have, for example, a keyboard 19a and a mouse 19b.

把持位置と把持方向を設定するために、操作装置19にされる操作には、位置変更操作と向き変更操作と設定操作とがある。   In order to set the gripping position and the gripping direction, the operations performed by the operation device 19 include a position changing operation, a direction changing operation, and a setting operation.

位置変更操作が操作装置19にされると、コンピュータ17により、表示装置15の画面15aにおいて移動表示部23の位置が変更される。   When the position change operation is performed on the operation device 19, the computer 17 changes the position of the moving display unit 23 on the screen 15 a of the display device 15.

向き変更操作が操作装置19にされると、コンピュータ17により、表示装置15の画面15aにおいて移動表示部23の向きが変更される。   When the direction change operation is performed on the operation device 19, the computer 17 changes the direction of the moving display unit 23 on the screen 15 a of the display device 15.

設定操作が操作装置19にされると、コンピュータ17により、この時に、対象物1の形状21において移動表示部23が示している位置と、移動表示部23が3次元的に向いている方向とが、それぞれ、把持位置と把持方向に設定される。   When the setting operation is performed on the operation device 19, the computer 17 at this time indicates the position indicated by the movement display unit 23 in the shape 21 of the object 1 and the direction in which the movement display unit 23 faces three-dimensionally. Are set to the gripping position and the gripping direction, respectively.

詳しくは次の通りである。   Details are as follows.

位置変更操作と向き変更操作は、画面15aにおいて、移動表示部23が示している位置と、移動表示部23が向いている方向を調節するために行われる。操作装置19に位置変更操作と向き変更操作がされることにより、移動表示部23の位置と向きが、画面15a内の3次元座標系において変更される。この3次元座標系は、画面15aに表示される3次元空間において対象物1の形状21に固定されている。この3次元座標系は、図4に示すように、互いに直交するx軸とy軸とz軸を有する。以下において、x軸、y軸、z軸は、それぞれ、画面15aにおいて対象物1の形状21に対して固定されている当該3次元座標系のx軸とy軸とz軸を意味する。   The position change operation and the direction change operation are performed to adjust the position indicated by the movement display unit 23 and the direction in which the movement display unit 23 faces on the screen 15a. When the position change operation and the direction change operation are performed on the operation device 19, the position and the direction of the moving display unit 23 are changed in the three-dimensional coordinate system in the screen 15a. This three-dimensional coordinate system is fixed to the shape 21 of the object 1 in the three-dimensional space displayed on the screen 15a. As shown in FIG. 4, the three-dimensional coordinate system has an x axis, a y axis, and a z axis that are orthogonal to each other. Hereinafter, the x-axis, y-axis, and z-axis mean the x-axis, y-axis, and z-axis of the three-dimensional coordinate system fixed to the shape 21 of the object 1 on the screen 15a, respectively.

このように移動表示部23の位置と向きを調節した後に、設定操作により、画面15aにおいて、移動表示部23が示している位置を把持位置として設定でき、移動表示部23が向いている方向を把持方向として設定できる。把持部5が、上述のように吸引装置である場合には、図4において、このように設定された把持位置は、吸引装置が対象物1を吸着する位置であり、このように設定された把持方向は、吸引装置が対象物1を吸引(吸着)する方向である。   After adjusting the position and orientation of the movement display unit 23 as described above, the position indicated by the movement display unit 23 on the screen 15a can be set as the gripping position by the setting operation, and the direction in which the movement display unit 23 is facing is set. It can be set as the gripping direction. When the gripper 5 is a suction device as described above, the gripping position set in this way in FIG. 4 is a position where the suction device sucks the object 1 and is set in this way. The gripping direction is a direction in which the suction device sucks (sucks) the object 1.

なお、位置変更操作と向き変更操作が操作装置19にされても、対象物1の形状21の向きと位置は変わらない。   Even if the position changing operation and the direction changing operation are performed on the operation device 19, the direction and the position of the shape 21 of the object 1 are not changed.

本実施形態では、位置変更操作と向き変更操作には、後述するステップS2における位置変更操作と向き変更操作と、後述するステップS5における微調整用の位置変更操作と向き変更操作とがある。   In the present embodiment, the position change operation and the direction change operation include a position change operation and a direction change operation in step S2 described later, and a position change operation and a direction change operation for fine adjustment in step S5 described later.

本実施形態によると、操作装置19にされる操作には、さらに、回転操作、拡大操作、および縮小操作がある。   According to the present embodiment, the operations performed by the operation device 19 further include a rotation operation, an enlargement operation, and a reduction operation.

回転操作は、画面15aに表示される対象物1の形状21を回転させる回転操作である。この時の回転軸は、対象物1の形状21を貫通する軸であり、その向きは、操作装置19により任意に定めることができる。また、回転操作において、対象物1の形状21を回転させる量も、操作装置19により任意に定めることができる。
拡大操作は、画面15aに表示される対象物1の形状21を拡大する操作である。その拡大率は、操作装置19により任意に定めることができる。
縮小操作は、画面15aに表示される対象物1の形状21を縮小する操作である。その縮小率は、操作装置19により任意に定めることができる。
The rotation operation is a rotation operation for rotating the shape 21 of the object 1 displayed on the screen 15a. The rotation axis at this time is an axis that penetrates the shape 21 of the object 1, and its direction can be arbitrarily determined by the operation device 19. Further, the amount by which the shape 21 of the object 1 is rotated in the rotation operation can be arbitrarily determined by the operation device 19.
The enlargement operation is an operation for enlarging the shape 21 of the object 1 displayed on the screen 15a. The enlargement ratio can be arbitrarily determined by the operation device 19.
The reduction operation is an operation for reducing the shape 21 of the object 1 displayed on the screen 15a. The reduction ratio can be arbitrarily determined by the operation device 19.

図5は、本発明の実施形態による把持動作設定方法を示すフローチャートである。この方法は、ステップS1〜S6を有する。   FIG. 5 is a flowchart illustrating a gripping motion setting method according to an embodiment of the present invention. This method has steps S1 to S6.

ステップS1において、コンピュータ17の中央演算装置(CPU)17aにより、対象物1の形状21と移動表示部23とを、表示装置15の画面15aに3次元的に表示させる。なお、CPU17aは、コンピュータ17の記憶部17bに記憶されている対象物1の3次元形状のデータに基づいて、画面15aにおいて対象物1の形状21を3次元的に表示させる。
また、ステップS1では、コンピュータ17のCPU17aにより、画面15aにおいて、移動表示部23の向きに対して一定の方向を向く最先端リンク方向表示部25を3次元的に表示させる。なお、好ましくは、最先端リンク方向表示部25は、図4のように、移動表示部23に接続されている。
In step S <b> 1, the central processing unit (CPU) 17 a of the computer 17 displays the shape 21 of the object 1 and the moving display unit 23 on the screen 15 a of the display device 15 in a three-dimensional manner. The CPU 17a displays the shape 21 of the object 1 three-dimensionally on the screen 15a based on the three-dimensional shape data of the object 1 stored in the storage unit 17b of the computer 17.
Further, in step S1, the CPU 17a of the computer 17 displays the state-of-the-art link direction display unit 25 that faces a fixed direction with respect to the direction of the moving display unit 23 on the screen 15a in a three-dimensional manner. Preferably, the most advanced link direction display unit 25 is connected to the movement display unit 23 as shown in FIG.

ステップS2において、人が、表示装置15の画面15aを見ながら、位置変更操作および向き変更操作を操作装置19にする。このように操作装置19にされた位置変更操作および向き変更操作に応じて、コンピュータ17のCPU17aにより、表示装置15の画面15aにおいて移動表示部23の位置と3次元的な向きを変更する。
また、ステップS2では、このような移動表示部23の向きの変更に伴って、移動表示部23の向きに対して3次元的に一定の方向を向くように、最先端リンク方向表示部25の3次元的な向きも、コンピュータ17のCPU17aにより変更される。
なお、本実施形態では、ステップS2において、画面15aにおいて、位置変更操により移動表示部23が移動すると、最先端リンク方向表示部25は移動表示部23と一体的に移動する。
In step S <b> 2, a person changes the position change operation and the direction change operation to the operation device 19 while viewing the screen 15 a of the display device 15. In accordance with the position change operation and the direction change operation performed on the operation device 19 in this way, the CPU 17a of the computer 17 changes the position and three-dimensional orientation of the moving display unit 23 on the screen 15a of the display device 15.
Further, in step S2, with the change of the direction of the movement display unit 23, the state of the state-of-the-art link direction display unit 25 is set so as to face a fixed direction three-dimensionally with respect to the direction of the movement display unit 23. The three-dimensional orientation is also changed by the CPU 17a of the computer 17.
In the present embodiment, when the movement display unit 23 is moved by the position change operation on the screen 15a in step S2, the forefront link direction display unit 25 moves integrally with the movement display unit 23.

なお、ステップS2は、次のように行われてよい。
ステップS2の位置変更操作は、人が、台や机の面におかれたマウス19bを前後左右に動かす操作であってよい。例えば、マウス19bを前後に動かすことにより、マウス19bの移動量と移動方向に応じて、移動表示部23が、図4の紙面に沿って画面15aの上下方向に移動する。マウス19bを左右に動かすことにより、マウス19bの移動量と移動方向に応じて、移動表示部23が、図4の紙面に沿って画面15aの左右方向に移動する。これにより、移動表示部23が、画面15aにおける対象物1の形状21において示している(指している)位置を変更する。なお、移動表示部23が、画面15aにおける対象物1の形状21において示している位置とは、2次元の画面15a(図4の紙面)と垂直な方向において、移動表示部23の指示位置(図4では、先端)Peを、3次元的に表示されている対象物1の形状(表面)21に投影した位置である。
ステップS2の向き変更操作は、例えば、キーボード19aの1つまたは複数のボタンを押す操作であってよい。このように押されたボタンの種類や回数に応じて、移動表示部23の向きが、画面15a内の前記3次元座標系において変更される。
Step S2 may be performed as follows.
The position changing operation in step S2 may be an operation in which a person moves the mouse 19b placed on a table or desk surface back and forth and left and right. For example, by moving the mouse 19b back and forth, the movement display unit 23 moves up and down on the screen 15a along the paper surface of FIG. 4 according to the amount and direction of movement of the mouse 19b. By moving the mouse 19b to the left and right, the movement display unit 23 moves to the left and right of the screen 15a along the paper surface of FIG. 4 according to the amount and direction of movement of the mouse 19b. Thereby, the movement display part 23 changes the position shown (pointed) in the shape 21 of the target object 1 on the screen 15a. Note that the position indicated by the movement display unit 23 in the shape 21 of the object 1 on the screen 15a is the position indicated by the movement display unit 23 in the direction perpendicular to the two-dimensional screen 15a (the paper surface of FIG. 4). In FIG. 4, it is a position where the tip Pe is projected onto the shape (surface) 21 of the object 1 displayed three-dimensionally.
The direction changing operation in step S2 may be, for example, an operation of pressing one or more buttons on the keyboard 19a. The direction of the movement display unit 23 is changed in the three-dimensional coordinate system in the screen 15a according to the type and the number of times of the button pressed in this way.

例えば、ステップS2の位置変更操作と向き変更操作により、図4において、実線で描かれている移動表示部23の位置と向きが、図4において破線で描かれているいずれかの移動表示部23の位置と向きに変更される。   For example, by the position change operation and the direction change operation in step S2, the position and orientation of the movement display unit 23 drawn with a solid line in FIG. 4 is changed to one of the movement display units 23 drawn with a broken line in FIG. Is changed to the position and orientation.

ステップS3において、移動表示部23の位置と向きが、現在の位置と向きでよいかどうかを判断する。ステップS3の判断は人が行う。この判断が「いいえ」の場合には、ステップS4へ進み、この判断が「はい」の場合には、ステップS5へ進む。   In step S3, it is determined whether or not the position and orientation of the movement display unit 23 may be the current position and orientation. A person makes the determination in step S3. If this determination is “No”, the process proceeds to Step S4, and if this determination is “Yes”, the process proceeds to Step S5.

ステップS4において、人が、表示装置15の画面15aを見ながら、回転操作、拡大操作、および縮小操作のいずれかまたは複数を行う。
回転操作がされた場合には、次の処理が行われる。すなわち、操作装置19により、回転軸の向きと回転量が定められ、回転操作が操作装置19にされた場合には、定められた回転軸の向きと回転量に従って、コンピュータ17のCPU17aにより、画面15aに表示される対象物1の形状21を回転させる。
拡大操作または縮小操作がされた場合には、次の処理が行われる。すなわち、操作装置19により、拡大率または縮小率が定められ、拡大操作または縮小操作が操作装置19にされた場合には、定められた拡大率または縮小率に従って、コンピュータ17のCPU17aにより、画面15aに表示される対象物1の形状21を拡大または縮小する。
In step S <b> 4, a person performs one or more of a rotation operation, an enlargement operation, and a reduction operation while viewing the screen 15 a of the display device 15.
When the rotation operation is performed, the following processing is performed. In other words, the direction and amount of rotation of the rotating shaft are determined by the operating device 19, and when the rotating operation is performed on the operating device 19, the CPU 17a of the computer 17 displays the screen according to the determined direction and rotating amount of the rotating shaft. The shape 21 of the object 1 displayed on 15a is rotated.
When an enlargement operation or a reduction operation is performed, the following processing is performed. That is, when the enlargement rate or reduction rate is determined by the operation device 19 and the enlargement operation or reduction operation is performed on the operation device 19, the CPU 17a of the computer 17 performs the screen 15a according to the determined enlargement rate or reduction rate. The shape 21 of the object 1 displayed on the screen is enlarged or reduced.

ステップS5において、人が、表示装置15の画面15aを見ながら、微調整用の位置変更操作および向き変更操作の一方または両方を操作装置19にする。操作装置19にされた微調整用の位置変更操作に応じて、コンピュータ17のCPU17aにより、画面15aにおいて移動表示部23の位置が微調整され、操作装置19にされた微調整用の向き変更操作に応じて、コンピュータ17のCPU17aにより、画面15aにおいて移動表示部23の向きが微調整される。なお、ステップS5は省略されてもよい。この場合には、ステップS3の判断が「はい」となった場合には、ステップS5を省略してステップS6へ進む。   In step S <b> 5, a person turns one or both of a position change operation and a direction change operation for fine adjustment to the operation device 19 while viewing the screen 15 a of the display device 15. In response to the fine adjustment position change operation performed on the operation device 19, the CPU 17a of the computer 17 finely adjusts the position of the movement display unit 23 on the screen 15a, and the fine adjustment direction change operation performed on the operation device 19 is performed. Accordingly, the CPU 17a of the computer 17 finely adjusts the direction of the moving display unit 23 on the screen 15a. Note that step S5 may be omitted. In this case, if the determination in step S3 is “yes”, step S5 is omitted and the process proceeds to step S6.

ステップS5は、次のように行われてよい。   Step S5 may be performed as follows.

微調整用の位置変更操作は、図4に示すように画面15aに表示された位置微調整パネル27上の表示部「x+」「y+」「z+」「x−」「y−」「z−」を用いて行われる。キーボード19aにおける特定のボタンを押すことにより、マウス19bを動かすと、移動表示部23ではなく、別のカーソルが画面15a上を移動するようになる(ただし、移動表示部23は画面15aに表示されたままである)。このカーソルを、画面15aに表示された位置微調整パネル27における表示部「x+」に合わせて、マウス19bを1回クリックすると、移動表示部23がx軸の正方向に微小量だけ移動する。同様に、カーソルを、表示部「x−」に合わせて、マウス19bを1回クリックすると、移動表示部23がx軸の負方向に微小量だけ移動し、カーソルを、表示部「y+」に合わせて、マウス19bを1回クリックすると、移動表示部23がy軸の正方向に微小量だけ移動し、カーソルを、表示部「y−」に合わせて、マウス19bを1回クリックすると、移動表示部23がy軸の負方向に微小量だけ移動し、カーソルを、表示部「z+」に合わせて、マウス19bを1回クリックすると、移動表示部23がz軸の正方向に微小量だけ移動し、カーソルを、表示部「z−」に合わせて、マウス19bを1回クリックすると、移動表示部23がz軸の負方向に微小量だけ移動する。このように、微調整したい表示部にカーソルを合わせて、1回または複数回クリックして、移動表示部23の位置を微調整する。   As shown in FIG. 4, the position change operation for fine adjustment is performed by the display units “x +”, “y +”, “z +”, “x−”, “y−”, “z−” on the position fine adjustment panel 27 displayed on the screen 15a. Is used. When the mouse 19b is moved by pressing a specific button on the keyboard 19a, not the movement display unit 23 but another cursor moves on the screen 15a (however, the movement display unit 23 is displayed on the screen 15a). Remain). When this cursor is moved to the display part “x +” on the position fine adjustment panel 27 displayed on the screen 15a and the mouse 19b is clicked once, the movement display part 23 moves by a minute amount in the positive direction of the x-axis. Similarly, when the cursor is moved to the display unit “x−” and the mouse 19b is clicked once, the movement display unit 23 moves by a minute amount in the negative direction of the x axis, and the cursor is moved to the display unit “y +”. In addition, when the mouse 19b is clicked once, the movement display unit 23 is moved by a minute amount in the positive direction of the y-axis, and the cursor is moved to the display unit “y−” and the mouse 19b is clicked once to move. When the display unit 23 moves by a minute amount in the negative direction of the y-axis, the cursor moves to the display unit “z +” and the mouse 19b is clicked once, the movement display unit 23 moves by a minute amount in the positive direction of the z-axis. When the cursor is moved to the display part “z−” and the mouse 19b is clicked once, the movement display part 23 moves by a minute amount in the negative direction of the z axis. In this way, the cursor is placed on the display section to be finely adjusted and clicked once or a plurality of times to finely adjust the position of the movement display section 23.

微調整用の向き変更操作は、図4に示すように画面15aに表示された向き微調整パネル29上の表示部「x+」「y+」「z+」「x−」「y−」「z−」を用いて行われる。上述のカーソルを、画面15aに表示された向き微調整パネル29における表示部「x+」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りx軸と平行な回転軸回りに、移動表示部23が、正の回転方向に微小量だけ回転する。なお、回転方向の正と負は、それぞれ、その回転軸と平行なx軸、y軸またはz軸の正方向の側から見て時計回りと反時計まわりの方向を意味する。同様に、カーソルを、表示部「x−」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りx軸と平行な回転軸回りに、移動表示部23が、負の回転方向に微小量だけ回転し、カーソルを、表示部「y+」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りy軸と平行な回転軸回りに、移動表示部23が、正の回転方向に微小量だけ回転し、カーソルを、表示部「y−」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りy軸と平行な回転軸回りに、移動表示部23が、負の回転方向に微小量だけ回転し、カーソルを、表示部「z+」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りz軸と平行な回転軸回りに、移動表示部23が、正の回転方向に微小量だけ回転し、カーソルを、表示部「z−」に合わせて、マウス19bを1回クリックすると、移動表示部23を通りz軸と平行な回転軸回りに、移動表示部23が、負の回転方向に微小量だけ回転する。このように、微調整したい表示部にカーソルを合わせて、1回または複数回クリックして、移動表示部23の向きを微調整する。   As shown in FIG. 4, the direction change operation for fine adjustment is performed on display units “x +”, “y +”, “z +”, “x−”, “y−”, “z−” on the direction fine adjustment panel 29 displayed on the screen 15a. Is used. When the mouse 19b is clicked once with the cursor placed on the display section “x +” on the orientation fine adjustment panel 29 displayed on the screen 15a, the movement cursor 23 passes through the movement display section 23 and rotates around the rotation axis parallel to the x axis. The movement display unit 23 rotates by a minute amount in the positive rotation direction. Here, positive and negative in the rotation direction mean clockwise and counterclockwise directions when viewed from the positive direction side of the x-axis, y-axis, or z-axis parallel to the rotation axis, respectively. Similarly, when the cursor is moved to the display section “x−” and the mouse 19b is clicked once, the movement display section 23 moves in the negative rotation direction around the rotation axis passing through the movement display section 23 and parallel to the x axis. When the mouse 19b is clicked once by setting the cursor to the display unit “y +” and the mouse 19b is clicked once, the movement display unit 23 passes through the movement display unit 23 and rotates around the rotation axis parallel to the y axis. When the mouse 19b is clicked once by moving the cursor to the display unit “y−” and clicking the mouse 19b once around the rotation axis parallel to the y axis, 23 is rotated by a minute amount in the negative rotation direction, the cursor is set to the display unit “z +”, and when the mouse 19b is clicked once, the moving display unit 23 passes through the rotation axis parallel to the z axis, The movement display unit 23 is minute in the positive rotation direction. When the mouse 19b is clicked once with the cursor positioned on the display section “z−”, the movement display section 23 rotates negatively around the rotation axis that passes through the movement display section 23 and is parallel to the z axis. Rotate a small amount in the direction. As described above, the cursor is placed on the display unit to be finely adjusted and clicked once or a plurality of times to finely adjust the direction of the moving display unit 23.

ステップS5では、移動表示部23の向きの微調整に伴って、移動表示部23の向きに対して3次元的に前記一定の方向を向くように、最先端リンク方向表示部25の3次元的な向きも微調整される。なお、本実施形態では、ステップS5において、位置変更操作により移動表示部23が微小量だけ移動すると、最先端リンク方向表示部25は移動表示部23と一体的に微小量だけ移動する。   In step S5, with the fine adjustment of the direction of the movement display unit 23, the three-dimensional direction of the state-of-the-art link direction display unit 25 is set so as to face the fixed direction three-dimensionally with respect to the direction of the movement display unit 23. The direction is finely adjusted. In this embodiment, when the movement display unit 23 is moved by a minute amount by the position change operation in step S5, the forefront link direction display unit 25 is moved by a minute amount integrally with the movement display unit 23.

ステップS6において、人が、表示装置15の画面15aを見て、設定操作を操作装置19にする。このように操作装置19に設定操作がされると、コンピュータ17のCPU17aにより、この時に、対象物1の形状21において移動表示部23が示している位置と、移動表示部23が3次元的に向いている方向とを、それぞれ、把持位置と把持方向に設定する。
この時、コンピュータ17のCPU17aは、2次元の画面15aと垂直な方向において、移動表示部23の指示位置Peを、画面15aに3次元的に表示されている対象物1の表面に投影し、投影した指示位置Peを、画面15a内の前記3次元座標系で表わす。このように表わされた指示位置Peが、把持位置として設定される。画面15a内の3次元座標系が、上述のように、x軸とy軸とz軸を有する場合には、コンピュータ17のCPU17aは、上述のように投影した指示位置Peを、x軸座標値、y軸座標値、およびz軸座標値により、把持位置として表わす。
In step S <b> 6, a person views the screen 15 a of the display device 15 and sets the setting operation to the operation device 19. When the setting operation is performed on the operation device 19 in this way, the CPU 17a of the computer 17 at this time displays the position indicated by the movement display unit 23 in the shape 21 of the object 1 and the movement display unit 23 in a three-dimensional manner. The facing direction is set to the gripping position and the gripping direction, respectively.
At this time, the CPU 17a of the computer 17 projects the indicated position Pe of the moving display unit 23 on the surface of the object 1 displayed three-dimensionally on the screen 15a in a direction perpendicular to the two-dimensional screen 15a. The projected instruction position Pe is represented by the three-dimensional coordinate system in the screen 15a. The designated position Pe represented in this way is set as the gripping position. When the three-dimensional coordinate system in the screen 15a has the x axis, the y axis, and the z axis as described above, the CPU 17a of the computer 17 converts the indicated position Pe projected as described above into the x axis coordinate value. , The y-axis coordinate value, and the z-axis coordinate value are represented as gripping positions.

本発明の実施形態による把持動作設定プログラムは、上述したステップS1、S2、S4、S5、S6の各処理をコンピュータ17のCPU17aに実行させる。この把持動作設定プログラムは、コンピュータ17の記憶部17bに記憶されている。   The gripping operation setting program according to the embodiment of the present invention causes the CPU 17a of the computer 17 to execute the above-described processes of steps S1, S2, S4, S5, and S6. The gripping operation setting program is stored in the storage unit 17b of the computer 17.

上述した本発明の実施形態によると、以下の効果が得られる。   According to the embodiment of the present invention described above, the following effects can be obtained.

コンピュータ17のCPU17aにより、画面15aにおいて、対象物1の形状21と移動表示部23とを3次元的に表示させ、操作装置19の位置変更操作および向き変更操作に応じて、画面15aにおいて移動表示部23の位置と向きが変更され、操作装置19に設定操作がされると、この時に、画面15a上の形状21において移動表示部23が示している位置と、移動表示部23が向いている方向とを、それぞれ、把持位置と把持方向に設定する。
すなわち、人は、画面15aを見ながら、位置変更操作および向き変更操作を操作装置19にすることにより、移動表示部23の位置と向きを、対象物1の形状21に対して調節することができる。次いで、人は、設定操作を操作装置19にすることにより、調節した移動表示部23の位置と向きを、把持位置と把持方向に設定できる。
従って、人は、3次元的に表示される移動表示部23が示す位置により、把持位置を認識でき、3次元的に表示される移動表示部23の向きにより、把持方向を認識できる。このように、人は、把持位置と把持方向を3次元的に認識して設定することができる。
The CPU 17a of the computer 17 displays the shape 21 of the object 1 and the movement display unit 23 three-dimensionally on the screen 15a, and displays the movement on the screen 15a according to the position change operation and the direction change operation of the operation device 19. When the position and orientation of the unit 23 are changed and a setting operation is performed on the operation device 19, at this time, the position indicated by the movement display unit 23 in the shape 21 on the screen 15a and the movement display unit 23 face. The direction is set to the gripping position and the gripping direction, respectively.
That is, a person can adjust the position and orientation of the movement display unit 23 with respect to the shape 21 of the object 1 by performing the position change operation and the direction change operation on the operation device 19 while viewing the screen 15a. it can. Next, the person can set the adjusted position and orientation of the movement display unit 23 to the gripping position and the gripping direction by using the operation device 19 as a setting operation.
Therefore, the person can recognize the gripping position from the position indicated by the movement display unit 23 displayed three-dimensionally, and can recognize the gripping direction from the direction of the movement display unit 23 displayed three-dimensionally. Thus, the person can recognize and set the gripping position and the gripping direction three-dimensionally.

また、移動表示部23の向きの変更に伴って、移動表示部23の向きに対して3次元的に前記一定の方向を向くように、最先端リンク方向表示部25の3次元的な向きも変更される。従って、人は、画面15a内の最先端リンク方向表示部25により、最先端のリンク7aの向きを視覚的に確認できる。よって、最先端のリンク7aが対象物1に近づく動作も視覚的に把握できる。   Further, as the direction of the movement display unit 23 is changed, the three-dimensional direction of the state-of-the-art link direction display unit 25 is also set so as to face the fixed direction three-dimensionally with respect to the direction of the movement display unit 23. Be changed. Therefore, the person can visually confirm the direction of the most advanced link 7a by the most advanced link direction display unit 25 in the screen 15a. Therefore, it is possible to visually grasp the movement of the state-of-the-art link 7a approaching the object 1.

本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。例えば、以下の変更例1〜3のいずれかを採用してもよいし、変更例1〜3のうちの2つまたは3つを組み合わせて採用してもよい。この場合、以下で説明しない点は、上述と同じであってよい。   The present invention is not limited to the above-described embodiment, and various changes can be made without departing from the scope of the present invention. For example, any of the following modification examples 1 to 3 may be employed, or two or three of modification examples 1 to 3 may be employed in combination. In this case, the points not described below may be the same as described above.

(変更例1)
上述では、把持部5は吸引装置であったが、把持部5は、開閉する1対の爪5aを有していてもよい。この場合、把持部5は、図6に示すように、1対の爪5aを閉じることにより、1対の爪5aで対象物1を把持する。
(Modification 1)
In the above description, the grip portion 5 is a suction device, but the grip portion 5 may have a pair of claws 5a that open and close. In this case, as shown in FIG. 6, the gripper 5 grips the object 1 with the pair of claws 5a by closing the pair of claws 5a.

この場合、一方の爪5aについて、上述と同様に、上述のステップS1〜S6を行うことにより、当該爪5aによる把持位置と把持方向を設定する。これにより、一方の爪5aに対する他方の爪5aの位置関係と動作方向に基づいて、他方の爪5aについて、把持位置と把持方向が自動的に設定されてよい。図6の例では、他方の爪5aによる把持位置P2は、対象物1の3次元的な形状(表面)21において、一方の爪5aによる把持位置P1と正反対の位置であってよい。すなわち、形状21において、一方の爪5aによる把持位置P1がある部分(例えば、面またはエッジ)と反対側の部分(例えば、面またはエッジ)と、一方の爪5aによる把持位置P1を通り一方の爪5aによる把持方向D1と平行な直線との交点を、他方の爪5aによる把持位置P2に設定する。なお、他方の爪5aによる把持方向D2は、一方の爪5aによる把持方向D1と反対の方向である。   In this case, the gripping position and gripping direction by the nail 5a are set by performing the above-described steps S1 to S6 for the one nail 5a as described above. Thereby, based on the positional relationship and operation direction of the other claw 5a with respect to the one claw 5a, the gripping position and the gripping direction may be automatically set for the other claw 5a. In the example of FIG. 6, the gripping position P2 by the other claw 5a may be a position opposite to the gripping position P1 by the one claw 5a in the three-dimensional shape (surface) 21 of the object 1. That is, in the shape 21, the portion (for example, a surface or an edge) opposite to the portion (for example, the surface or the edge) where the grip position P1 by the one claw 5a is located and the grip position P1 by the one claw 5a pass through the one position. The intersection point of the straight line parallel to the gripping direction D1 by the claw 5a is set to the gripping position P2 by the other claw 5a. In addition, the holding direction D2 by the other nail | claw 5a is a direction opposite to the holding direction D1 by the one nail | claw 5a.

(変更例2)
対象物1の形状21が、エッジにより区画される外面、エッジまたは穴を有する場合に、ステップS2の位置変更操作は、画面15aに表示された対象物1の形状21における外面、エッジまたは穴を選択する操作であってもよい。この選択により、選択した外面、エッジまたは穴の中心を移動表示部23が示すように、移動表示部23の位置が自動的に変更される。
(Modification 2)
When the shape 21 of the target object 1 has an outer surface, an edge, or a hole that is partitioned by an edge, the position change operation in step S2 is performed on the outer surface, the edge, or the hole in the shape 21 of the target object 1 displayed on the screen 15a. The operation to select may be sufficient. By this selection, the position of the movement display unit 23 is automatically changed so that the movement display unit 23 indicates the center of the selected outer surface, edge or hole.

変更例2では、ステップS2の向き変更操作は、上述と同じである。この場合、ステップS2において、位置変更操作を行った後に、向き変更操作を行うのがよい。例えば、把持部5が吸引装置である場合には、位置変更操作により選択した外面の中心に移動表示部23を位置させたときには、この外面に垂直な方向を移動表示部23が向くように、向き変更操作により移動表示部23の向きを調整するのがよい。   In the modification example 2, the direction changing operation in step S2 is the same as described above. In this case, it is preferable to perform the direction changing operation after performing the position changing operation in step S2. For example, when the gripping unit 5 is a suction device, when the movement display unit 23 is positioned at the center of the outer surface selected by the position change operation, the movement display unit 23 faces a direction perpendicular to the outer surface. It is preferable to adjust the direction of the movement display unit 23 by the direction changing operation.

対象物1の形状21における外面、エッジまたは穴を選択する操作は、例えば、次のように行われてよい。
キーボード19aにおける特定のボタンを押すと、マウス19bの移動により、移動表示部23の代わりにカーソルが画面15a上を移動するようになる。このカーソルを、対象物1の形状21における外面、エッジまたは穴に合わせて、マウス19bをクリックする。これにより、カーソルが合わせられている外面、エッジまたは穴が選択される。ここで、カーソルが、外面、エッジまたは穴に合わせられているとは、2次元の画面15aと垂直な方向において、カーソルを、3次元的に表示されている対象物1の形状(表面)21に投影した位置に、当該外面、エッジまたは穴が存在していることを意味する。
または、移動表示部23が示す位置を、対象物1の形状21における外面、エッジまたは穴に合わせて、マウス19bをクリックする。これにより移動表示部23が示す外面、エッジまたは穴が選択される。ここで、移動表示部23が示す位置が、外面、エッジまたは穴に合わせられているとは、2次元の画面15aと垂直な方向において、移動表示部23の指示位置(先端)Peを、3次元的に表示されている対象物1の形状(表面)21に投影した位置に、当該外面、エッジまたは穴が存在していることを意味する。
なお、選択された外面が円柱または円錐の側面である場合には、この側面の中心は、この側面において、円柱または円錐の母線の方向における中心位置である。この中心位置は、1つに定まらないが任意の1点に定められてよい。
The operation of selecting the outer surface, edge or hole in the shape 21 of the object 1 may be performed as follows, for example.
When a specific button on the keyboard 19a is pressed, the cursor moves on the screen 15a instead of the movement display unit 23 by moving the mouse 19b. The cursor 19 is placed on the outer surface, edge or hole in the shape 21 of the object 1 and the mouse 19b is clicked. Thereby, the outer surface, edge or hole to which the cursor is placed is selected. Here, that the cursor is aligned with the outer surface, edge, or hole means that the cursor is in the direction perpendicular to the two-dimensional screen 15a and the shape (surface) 21 of the object 1 displayed three-dimensionally. This means that the outer surface, edge, or hole is present at the position projected onto.
Alternatively, the position indicated by the movement display unit 23 is matched with the outer surface, edge, or hole in the shape 21 of the object 1 and the mouse 19b is clicked. Thereby, the outer surface, edge, or hole indicated by the movement display unit 23 is selected. Here, the position indicated by the movement display unit 23 is aligned with the outer surface, edge, or hole. In the direction perpendicular to the two-dimensional screen 15a, the indicated position (tip) Pe of the movement display unit 23 is 3 This means that the outer surface, edge or hole is present at a position projected onto the shape (surface) 21 of the object 1 displayed in a three-dimensional manner.
When the selected outer surface is a side surface of a cylinder or a cone, the center of this side surface is the center position in the direction of the generatrix of the cylinder or the cone on this side surface. The center position is not limited to one, but may be determined as an arbitrary point.

以下、対象物1の形状21において選択される外面、エッジまたは穴について、順に説明する。   Hereinafter, the outer surface, edge, or hole selected in the shape 21 of the object 1 will be described in order.

対象物1の形状21における外面を選択することは、形状21における複数の外面のうちいずれかを選択することを意味する。   Selecting the outer surface in the shape 21 of the object 1 means selecting any one of the plurality of outer surfaces in the shape 21.

エッジとは、形状21において、隣接する2つの外面同士の境界線である。例えば、図7に示す頂点Pa,Pbが両端である線分がエッジ31として選択された場合には、この線分の中心を移動表示部23が示すように、移動表示部23の位置が変更される。なお、エッジ31を把持位置として選択することは、例えば、把持部5が、上述の変更例1のように1対の爪5aを有する場合に行われる。このとき、エッジ31の中心が、一方の爪5aによる把持位置に設定され、一方の爪5aによる把持方向も設定されたら、他方の爪5aによる把持位置と把持方向は、変更例1と同様に、次のように自動的に設定されてよい。
他方の爪5aによる把持位置は、対象物1の3次元的な形状(表面)21において、一方の爪5aによる把持位置と正反対の位置であってよい。すなわち、3次元的な形状21において、一方の爪5aによる把持位置と反対側の部分(例えば、面またはエッジ)と、一方の爪5aによる把持位置を通り一方の爪5aによる把持方向と平行な直線との交点を、他方の爪5aによる把持位置に設定する。なお、他方の爪5aによる把持方向は、一方の爪5aによる把持方向と反対の方向である。
An edge is a boundary line between two adjacent outer surfaces in the shape 21. For example, when the line segment having the vertices Pa and Pb shown in FIG. 7 as both ends is selected as the edge 31, the position of the movement display unit 23 is changed so that the movement display unit 23 indicates the center of the line segment. Is done. The selection of the edge 31 as the gripping position is performed, for example, when the gripping unit 5 has a pair of claws 5a as in the first modification described above. At this time, when the center of the edge 31 is set to the gripping position by the one claw 5a and the gripping direction by the one claw 5a is also set, the gripping position and the gripping direction by the other claw 5a are the same as in the first modification. May be set automatically as follows.
The gripping position by the other claw 5a may be a position opposite to the gripping position by the one claw 5a in the three-dimensional shape (surface) 21 of the object 1. That is, in the three-dimensional shape 21, a portion (for example, a surface or an edge) opposite to the grip position by one claw 5a passes through the grip position by one claw 5a and is parallel to the grip direction by one claw 5a. The intersection with the straight line is set to the gripping position by the other claw 5a. In addition, the holding direction by the other nail | claw 5a is a direction opposite to the holding direction by the one nail | claw 5a.

穴とは、図7に示すように、形状21に形成されている穴33である。穴33の中心とは、穴33の開口における中心位置Pcであってよい。穴33の中心Pcが把持位置に設定された場合には、例えば、図6のように、開閉する1対の爪5aを有する把持部5で、次のように、穴33の内面を把持する。1対の爪5aが穴33に挿入された状態で、1対の爪5aが互いに離間する方向に駆動され、1対の爪5aが互いに逆側(反対方向)に穴33の内面に押し付けられる。これにより、1対の爪5aで対象物1を把持する。   The hole is a hole 33 formed in the shape 21 as shown in FIG. The center of the hole 33 may be the center position Pc in the opening of the hole 33. When the center Pc of the hole 33 is set to the gripping position, for example, as shown in FIG. 6, the gripping part 5 having a pair of claws 5 a that opens and closes grips the inner surface of the hole 33 as follows. . With the pair of claws 5a inserted into the holes 33, the pair of claws 5a are driven in directions away from each other, and the pair of claws 5a are pressed against the inner surfaces of the holes 33 in opposite directions (opposite directions). . As a result, the object 1 is gripped by the pair of claws 5a.

(変更例3)
上述では、移動表示部23は、画面に15aにおいて位置と向きが変更可能な矢印であったが、移動表示部23は、ロボットハンド3の3次元的な形状と、ロボットハンド3に取り付けられた把持部5の3次元的な形状とであってもよい。この場合、移動表示部23が示す位置は、把持部5の3次元的な形状において、対象物1を把持する位置であり、移動表示部23の向きは、把持部5の3次元的な形状において、対象物1を把持する方向である。このような移動表示部23が示す位置と向きは、人が、画面15aにおいて、ロボットハンド3および把持部5の3次元的な形状を見ることによって認識することができる。
(Modification 3)
In the above description, the movement display unit 23 is an arrow whose position and orientation can be changed on the screen 15 a, but the movement display unit 23 is attached to the robot hand 3 and the three-dimensional shape of the robot hand 3. It may be a three-dimensional shape of the grip portion 5. In this case, the position indicated by the movement display unit 23 is a position where the object 1 is gripped in the three-dimensional shape of the gripping unit 5, and the direction of the movement display unit 23 is the three-dimensional shape of the gripping unit 5. The direction in which the object 1 is gripped. Such a position and orientation indicated by the movement display unit 23 can be recognized by a person viewing the three-dimensional shapes of the robot hand 3 and the grip unit 5 on the screen 15a.

この場合、画面に15aにおいて、ロボットハンド3および把持部5の3次元的な形状と、対象物1の3次元的な形状21とが重なっても、形状21の全体が見えるように、ロボットハンド3および把持部5の3次元的な形状に対して、形状21を透視して画面15aに表示するのがよい。
なお、画面15aに表示されるロボットハンド3の3次元的な形状は、最先端のリンク7aの3次元的な形状を含む。従って、最先端リンク方向表示部25は省略されてよい。
In this case, on the screen 15a, the robot hand 3 and the grasping unit 5 and the three-dimensional shape 21 of the object 1 overlap with the three-dimensional shape 21 of the object 1 so that the entire shape 21 can be seen. 3 and the three-dimensional shape of the gripping part 5 may be displayed on the screen 15 a through the shape 21.
The three-dimensional shape of the robot hand 3 displayed on the screen 15a includes the three-dimensional shape of the most advanced link 7a. Therefore, the most advanced link direction display unit 25 may be omitted.

なお、把持部5が、変更例2のように1対の爪5aを有する場合には、画面15aに表示される把持部5の3次元的な形状において、1対の爪5aは、互いに、次のような相対位置にあってよい。すなわち、この相対位置は、対象物1を実際に把持した時の1対の爪5a同士の相対位置と同じである。   In addition, when the holding part 5 has a pair of claws 5a as in Modification 2, the pair of claws 5a are mutually connected in the three-dimensional shape of the holding part 5 displayed on the screen 15a. The relative position may be as follows. That is, this relative position is the same as the relative position of the pair of claws 5a when the object 1 is actually gripped.

1 対象物、3 ロボットハンド、5 把持部(吸引装置)、5a 爪、7a〜7d リンク、9a〜9c 関節、10 把持動作設定装置、11 設置台、13 制御装置、13a 記憶部、15 表示装置、15a 画面、17 コンピュータ、17a CPU、17b 記憶部、19 操作装置、19a キーボード、19b マウス、21 対象物の形状、23 移動表示部、25 最先端リンク方向表示部、27 位置微調整パネル、29 向き微調整パネル、31 エッジ、33 穴 DESCRIPTION OF SYMBOLS 1 Object, 3 Robot hand, 5 Grasp part (suction apparatus), 5a Claw, 7a-7d link, 9a-9c joint, 10 Grasping operation setting apparatus, 11 Installation stand, 13 Control apparatus, 13a Storage part, 15 Display apparatus 15a screen, 17 computer, 17a CPU, 17b storage unit, 19 operation device, 19a keyboard, 19b mouse, 21 object shape, 23 moving display unit, 25 most advanced link direction display unit, 27 position fine adjustment panel, 29 Orientation fine adjustment panel, 31 edges, 33 holes

Claims (7)

ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部が把持する位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定方法であって、
対象物の形状を3次元的に表示するための2次元の画面を有する表示装置と、
前記画面において、対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させるコンピュータと、
前記画面において移動表示部の位置および向きを変更する位置変更操作および向き変更操作と、把持位置および把持方向を決定する設定操作とが可能な操作装置と、を用意し、
前記画面において、
(A)コンピュータにより、対象物の形状と移動表示部とを3次元的に表示させ、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、コンピュータにより、移動表示部の位置と向きを変更し、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、コンピュータにより把持位置と把持方向に設定する、ことを特徴とする把持動作設定方法。
A gripping operation setting method for setting a gripping position and a gripping direction with a gripping position and a gripping direction as a gripping position and a gripping direction when gripping an object by a gripping unit of a robot hand,
A display device having a two-dimensional screen for three-dimensionally displaying the shape of the object;
On the screen, a computer that three-dimensionally displays a shape of an object and a movement display unit for indicating a gripping position and a gripping direction;
An operation device capable of performing a position change operation and a direction change operation for changing the position and orientation of the movement display unit on the screen and a setting operation for determining a grip position and a grip direction, and
In the screen,
(A) The computer displays the shape of the object and the moving display unit three-dimensionally,
(B) In response to the position change operation and the direction change operation performed on the operation device, the position and orientation of the moving display unit are changed by the computer,
(C) When a setting operation is performed on the operation device, at this time, the position indicated by the movement display unit in the shape of the object and the direction in which the movement display unit is three-dimensionally directed are respectively displayed on the computer. A gripping operation setting method, characterized in that the gripping position and the gripping direction are set by the above.
ロボットハンドは、互いに対して回転可能に連結された複数のリンクにより構成されており、
複数のリンクのうち最先端のリンクに前記把持部が取り付けられており、
前記(A)において、コンピュータにより、移動表示部の向きに対して一定の方向を向く最先端リンク方向表示部を3次元的に表示させ、
前記(B)において、移動表示部の3次元的な向きの変更に伴って、移動表示部の向きに対して3次元的に前記一定の方向を向くように、最先端リンク方向表示部の3次元的な向きも変更され、
移動表示部の向きに対する3次元的な前記一定の方向は、把持部が対象物を把持する時に、把持部が対象物を把持する把持方向に対して最先端のリンクが実際に向いている一定方向と同じである、ことを特徴とする請求項1に記載の把持動作設定方法。
The robot hand is composed of a plurality of links that are rotatably connected to each other.
The gripping part is attached to the most advanced link among a plurality of links,
In (A) above, the computer displays the state-of-the-art link direction display unit that is oriented in a certain direction with respect to the direction of the moving display unit in a three-dimensional manner
In (B), as the three-dimensional orientation of the moving display unit is changed, the leading edge link direction display unit 3 is directed so as to be directed in the three-dimensional direction with respect to the direction of the moving display unit. The dimensional orientation has also changed,
The three-dimensional fixed direction with respect to the direction of the moving display unit is a fixed direction in which the most advanced link is actually directed to the gripping direction in which the gripping unit grips the target object when the gripping unit grips the target object. The gripping motion setting method according to claim 1, wherein the gripping motion setting method is the same as the direction.
位置変更操作は、画面に表示された対象物の形状における外面、エッジまたは穴を選択する操作であり、この選択により、選択した外面、エッジまたは穴の中心を移動表示部が示すように、移動表示部の位置が変更される、ことを特徴とする請求項1または2に記載の把持動作設定方法。   The position change operation is an operation for selecting the outer surface, edge, or hole in the shape of the target object displayed on the screen. By this selection, the moving display unit moves so that the center of the selected outer surface, edge, or hole is indicated. The gripping operation setting method according to claim 1, wherein the position of the display unit is changed. 移動表示部は、前記画面において、3次元的に表示される矢印である、ことを特徴とする請求項1、2または3に記載の把持動作設定方法。   The gripping movement setting method according to claim 1, wherein the movement display unit is an arrow displayed three-dimensionally on the screen. 移動表示部は、前記ロボットハンドと前記把持部の3次元的な形状である、ことを特徴とする請求項1または3に記載の把持動作設定方法。   The gripping operation setting method according to claim 1 or 3, wherein the movement display unit has a three-dimensional shape of the robot hand and the gripping unit. ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部が把持する位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定装置であって、
対象物の形状を3次元的に表示するための2次元の画面を有する表示装置と、
前記画面において、対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させるコンピュータと、
前記画面において移動表示部の位置および向きを変更する位置変更操作および向き変更操作と、把持位置および把持方向を決定する設定操作とが可能な操作装置と、を備え、
コンピュータは、前記画面において、
(A)対象物の形状と移動表示部とを3次元的に表示させ、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、移動表示部の位置と向きを変更し、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、把持位置と把持方向に設定する、ことを特徴とする把持動作設定装置。
A gripping operation setting device for setting a gripping position and a gripping direction, with a gripping position and a gripping direction as a gripping position and a gripping direction, respectively, when gripping an object by a gripping unit of a robot hand,
A display device having a two-dimensional screen for three-dimensionally displaying the shape of the object;
On the screen, a computer that three-dimensionally displays a shape of an object and a movement display unit for indicating a gripping position and a gripping direction;
An operation device capable of performing a position change operation and a direction change operation for changing the position and orientation of the movement display unit on the screen, and a setting operation for determining a grip position and a grip direction,
On the screen, the computer
(A) Three-dimensionally display the shape of the object and the movement display unit,
(B) The position and orientation of the moving display unit are changed according to the position changing operation and the direction changing operation performed on the operating device,
(C) When a setting operation is performed on the operating device, at this time, the position indicated by the movement display unit in the shape of the target object and the direction in which the movement display unit faces three-dimensionally are respectively grasped. A gripping operation setting device characterized by setting the position and the gripping direction.
ロボットハンドの把持部により対象物を把持する場合に、対象物において把持部に把持される位置と方向をそれぞれ把持位置と把持方向として、把持位置と把持方向を設定する把持動作設定プログラムであって、
表示装置の画面において、
(A)対象物の形状と、把持位置と把持方向を示すための移動表示部とを3次元的に表示させる処理と、
(B)操作装置にされた位置変更操作および向き変更操作に応じて、移動表示部の3次元的な位置と向きを変更する処理と、
(C)操作装置に設定操作がされると、この時に、対象物の前記形状において移動表示部が示している位置と、移動表示部が3次元的に向いている方向とを、それぞれ、把持位置と把持方向に設定する処理と、をコンピュータに実行させる、ことを特徴とする把持動作設定プログラム。
A gripping operation setting program for setting a gripping position and a gripping direction with a gripping position and a gripping direction as a gripping position and a gripping direction, respectively, when a target is gripped by a gripping unit of a robot hand. ,
On the screen of the display device,
(A) a process of three-dimensionally displaying the shape of the object and a movement display unit for indicating the gripping position and the gripping direction;
(B) a process of changing the three-dimensional position and orientation of the moving display unit in accordance with the position changing operation and the direction changing operation performed on the operating device;
(C) When a setting operation is performed on the operating device, at this time, the position indicated by the movement display unit in the shape of the target object and the direction in which the movement display unit faces three-dimensionally are respectively grasped. A gripping operation setting program for causing a computer to execute processing for setting a position and a gripping direction.
JP2011262248A 2011-11-30 2011-11-30 Gripping control method and gripping control execution device Active JP5888591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011262248A JP5888591B2 (en) 2011-11-30 2011-11-30 Gripping control method and gripping control execution device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011262248A JP5888591B2 (en) 2011-11-30 2011-11-30 Gripping control method and gripping control execution device

Publications (2)

Publication Number Publication Date
JP2013111728A true JP2013111728A (en) 2013-06-10
JP5888591B2 JP5888591B2 (en) 2016-03-22

Family

ID=48707819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011262248A Active JP5888591B2 (en) 2011-11-30 2011-11-30 Gripping control method and gripping control execution device

Country Status (1)

Country Link
JP (1) JP5888591B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136769A (en) * 2014-01-23 2015-07-30 財團法人精密機械研究發展中心 End effector control method
JP2018144164A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
JP2018144162A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
JP2018192550A (en) * 2017-05-16 2018-12-06 タクボエンジニアリング株式会社 Teaching method for coating robot
WO2022050299A1 (en) * 2020-09-04 2022-03-10 株式会社エヌ・クラフト Article sorting system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112584988B (en) 2019-03-15 2024-08-27 欧姆龙株式会社 Setting support device, setting support method, and computer-readable storage medium
EP3831546A4 (en) 2019-03-15 2022-03-23 OMRON Corporation Grasping position and orientation registration device, grasping position and orientation registration method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421105A (en) * 1990-05-16 1992-01-24 Hitachi Ltd Stereoscopic teaching device for manipulator
US5937143A (en) * 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
JP2003311661A (en) * 2002-04-24 2003-11-05 Hitachi Ltd Remote operation controlling device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0421105A (en) * 1990-05-16 1992-01-24 Hitachi Ltd Stereoscopic teaching device for manipulator
US5937143A (en) * 1995-09-18 1999-08-10 Fanuc, Ltd. Teaching pendant for a robot
JP2003311661A (en) * 2002-04-24 2003-11-05 Hitachi Ltd Remote operation controlling device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136769A (en) * 2014-01-23 2015-07-30 財團法人精密機械研究發展中心 End effector control method
JP2018144164A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
JP2018144162A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
JP2018192550A (en) * 2017-05-16 2018-12-06 タクボエンジニアリング株式会社 Teaching method for coating robot
WO2022050299A1 (en) * 2020-09-04 2022-03-10 株式会社エヌ・クラフト Article sorting system
JPWO2022050299A1 (en) * 2020-09-04 2022-03-10

Also Published As

Publication number Publication date
JP5888591B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP5888591B2 (en) Gripping control method and gripping control execution device
US11724388B2 (en) Robot controller and display device using augmented reality and mixed reality
US20210252713A1 (en) External input device, robot system, control method of robot system, control program, and recording medium
US10076839B2 (en) Robot operation apparatus, robot system, and robot operation program
JP6497021B2 (en) Robot operation device, robot system, and robot operation program
US10807240B2 (en) Robot control device for setting jog coordinate system
US20180029232A1 (en) Control apparatus and robot
US20190202058A1 (en) Method of programming an industrial robot
JP2005111618A (en) Manual feeding device for robot
JP2019018272A (en) Motion generation method, motion generation device, system, and computer program
WO2015149360A1 (en) Portable apparatus for controlling robot and method thereof
US20180299874A1 (en) Offline teaching device for robot
JP2015182142A (en) Robot, robot system, and teaching method
JP2014137644A (en) Recognition program evaluation apparatus and recognition program evaluation method
JP6923361B2 (en) How to operate the position measuring device
US20180157248A1 (en) Apparatus for and method of setting boundary plane
JP6379902B2 (en) Robot operation device, robot system, and robot operation program
US20220410394A1 (en) Method and system for programming a robot
CN116802020A (en) User interface for supervised autonomous crawling
JP2015100874A (en) Robot system
JP2018202569A (en) Robot teaching device for setting teaching point based on workpiece video
JP2017113815A (en) Image display method of robot system that holds object using robot
US20230226688A1 (en) Robot programming
JP2020196058A (en) Robot system and control method of robot system
US20240058963A1 (en) Multi-mode robot programming

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160204

R151 Written notification of patent or utility model registration

Ref document number: 5888591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250