WO2024090154A1 - ロボット教示装置 - Google Patents

ロボット教示装置 Download PDF

Info

Publication number
WO2024090154A1
WO2024090154A1 PCT/JP2023/036076 JP2023036076W WO2024090154A1 WO 2024090154 A1 WO2024090154 A1 WO 2024090154A1 JP 2023036076 W JP2023036076 W JP 2023036076W WO 2024090154 A1 WO2024090154 A1 WO 2024090154A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
robot
coordinates
surrounding area
control unit
Prior art date
Application number
PCT/JP2023/036076
Other languages
English (en)
French (fr)
Inventor
宣嗣 宮澤
Original Assignee
住友重機械工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友重機械工業株式会社 filed Critical 住友重機械工業株式会社
Publication of WO2024090154A1 publication Critical patent/WO2024090154A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Definitions

  • the present invention relates to a robot teaching device.
  • the coordinates of the surrounding area that defines the robot's movements must be set in the robot's control device. For example, when a robot transfers a workpiece from a storage container to another container, the coordinates of the storage container and the coordinates of the destination container must be set as the coordinates of the surrounding area.
  • Patent document 1 describes a device that searches for a robot's movement path.
  • the present invention aims to provide a robot teaching device that can simplify the task of setting the coordinates of the surrounding area.
  • the robot teaching device comprises: A control unit for selecting a type of region, The control unit sets coordinates of a peripheral area of the robot according to the selected type.
  • the present invention has the effect of simplifying the task of setting the coordinates of the surrounding area.
  • FIG. 1 is a configuration diagram showing a robot and a robot teaching device according to an embodiment of the present invention.
  • 10 is a flowchart showing a process of setting coordinates of a surrounding area executed by a control unit.
  • 13A and 13B are diagrams illustrating an example of a designated location corresponding to a type A of a surrounding area.
  • 13A and 13B are diagrams illustrating an example of a designated location corresponding to a type B of a surrounding area.
  • 13 is a diagram illustrating an example of a designated portion corresponding to a type C of a surrounding area.
  • FIG. 11A and 11B are diagrams illustrating an example of setting a fine detail position in a peripheral region.
  • FIG. 13 is a diagram showing an example of a display of a surrounding area.
  • Coordinates means a combination of numbers that specify a position in three-dimensional space, but when we say “coordinates of an area,” we do not mean the coordinates of a single point in the area, but information that can specify the coordinates of the entire area (for example, the coordinates of each point in the area). In other words, when we say that the coordinates of an area have been set, we mean that information that can specify the coordinates of the entire area has been set. In other words, when we say that the coordinates of an area have been set, we mean that the position, shape, dimensions, and orientation of the area in three-dimensional space have been determined. Furthermore, to avoid confusion, the coordinates of any point in an area are not called coordinates but "position information.” "Position information” also means a combination of numbers that specifies a position in three-dimensional space.
  • FIG. 1 is a configuration diagram showing a robot and a robot teaching device according to an embodiment of the present invention.
  • the robot 200 is, for example, a robot arm, and has multiple arm sections 205, multiple joints 210, and a hand section 220 that can pick and release a workpiece.
  • "Pick" means to hold a workpiece, and the method of picking is not limited, and may include grasping, sucking, scooping, etc.
  • the joints 210 connect a pair of adjacent arm sections 205 so that the angle can be changed.
  • a drive device is connected to each joint 210, which drives one arm section 205 to rotate relative to the other arm section 205.
  • the hand unit 220 has a movable element capable of holding a workpiece, and a drive unit is connected to the movable element.
  • the robot 200 further includes a control device 240 that controls the drive devices of each joint 210 and the drive device of the hand unit 220.
  • the configuration of the robot 200 is not limited to the above example, and may be any configuration that can drive and control the movable elements.
  • the rotation mechanism of the joint 210 may be replaced with a slide mechanism, and the base of the robot 200 may be movable rather than fixed.
  • the robot 200 is not limited to a work transport device, and may be a robot that operates for various purposes, such as a processing device or a service device that provides services to people.
  • the robot teaching device 100 of this embodiment is a device for setting the coordinates of the peripheral area of the robot 200.
  • the peripheral area means an area that defines the operation of the robot 200, such as an area from which the robot 200 moves and an area to which the robot 200 moves, a passing area, and a no-entry area.
  • the robot teaching device 100 includes a sensor 110 for detecting the position of a specific location of the robot 200 (e.g., the tip H of the hand unit 220), a control unit 120 for setting the coordinates of the surrounding area, an input device 130 for inputting operations by the operator, a display 140 for outputting images to the operator, and a communication unit 160 for sending data on the coordinates of the surrounding area to the control device 240 of the robot 200.
  • a sensor 110 for detecting the position of a specific location of the robot 200 (e.g., the tip H of the hand unit 220)
  • a control unit 120 for setting the coordinates of the surrounding area
  • an input device 130 for inputting operations by the operator
  • a display 140 for outputting images to the operator
  • a communication unit 160 for sending data on the coordinates of the surrounding area to the control device 240 of the robot 200.
  • the sensor 110 includes an encoder that detects the rotation angle of each joint 210 of the robot 200, and an encoder that detects the amount of displacement of the movable elements of the hand unit 220.
  • the control unit 120 has in advance dimensional information of each part of the robot 200 (each arm unit 205, hand unit 220, etc.), and can calculate position information of the tip H of the hand unit 220 based on the dimensional information and the detection results of the sensor 110.
  • the input device 130 is a mouse, a keyboard, a touch panel, or the like. Through the input device 130, the operator can send input commands to the control unit 120, such as a command to start the coordinate setting process, a selection operation for an option during the setting process, and a registration operation during the setting process.
  • the control unit 120 of the robot teaching device 100 and the control device 240 of the robot 200 may be integrated into a single computer, for example.
  • the sensor 110 does not have to be a dedicated component of the robot teaching device 100, but may be a component that is also used as a sensor for driving control of the robot 200.
  • Fig. 2 is a flowchart showing the peripheral area coordinate setting process executed by the control unit.
  • Figs. 3A to 3C are diagrams explaining examples of designated locations corresponding to the types A to C of peripheral areas, respectively.
  • Fig. 4 is a diagram explaining an example of setting detailed positions in the peripheral area.
  • Fig. 5 is a diagram showing an example of the display of the peripheral area.
  • the operator When operating the robot 200, the operator sets the coordinates of one or more peripheral areas that define the operation of the robot 200.
  • the operator inputs a command to start the peripheral area setting process to the control unit 120 via the input device 130, and the control unit 120 starts the setting process shown in FIG. 2.
  • the control unit 120 has the operator select a category of the surrounding area (step S1).
  • the categories of the surrounding area include a pick area where the work to be transported is located, a place area to which the work will be transported, and a no-entry area where the entry of the work or the robot 200 is prohibited.
  • the categories of the surrounding area may include a passing area that represents an area through which a specific part of the work or the robot 200 must pass while transporting the work.
  • step S1 is realized by the control unit 120 displaying a number of selectable categories on the display 140 and allowing the operator to input which category to select via the input device 130.
  • the control unit 120 allows the operator to select the type of surrounding area (step S2).
  • the types of surrounding areas include the types of shapes of surrounding areas prepared in advance, such as a rectangular parallelepiped, a cylinder, a flat surface, etc.
  • the types of surrounding areas may include various types that can be classified by the structural characteristics of the surrounding area, such as a container type with an opening at the top, a shelf type with openings at the sides, a horizontal arrangement, an oblique arrangement, etc.
  • step S2 is realized by the control unit 120 displaying multiple selectable types on the display 140 and allowing the operator to input which type to select via the input device 130.
  • steps S1 and S2 may not be made by an operator, but may instead be made by artificial intelligence, for example.
  • the control unit 120 determines the designated points P1 to P11 (see FIG. 3) for which position information needs to be obtained according to the type of surrounding area, and presents the designated points (step S3).
  • the coordinates of the area can be calculated by specifying the positions of only a few points. For example, if it is known that the surrounding area is a horizontally arranged rectangular parallelepiped, the coordinates of the rectangular surrounding area R1 can be calculated by specifying the four vertices (P1 to P4) located diagonally on the rectangular parallelepiped shown in FIG. 3A.
  • the coordinates of the planar surrounding area R2 can be calculated by specifying three points on the plane (three points that do not overlap in a straight line: P5 to P7) shown in FIG. 3B. If it is known that the surrounding area is a cylinder, the coordinates of the cylindrical surrounding area R3 can be calculated by specifying one point (P8) on the bottom surface and three points (P9 to P11) on the upper edge shown in FIG. 3C.
  • step S3 the designated locations necessary to identify the coordinates of the surrounding area are presented according to the type of surrounding area selected in step S2.
  • Figure 3A shows an example in which a horizontally placed rectangular parallelepiped is selected as the type of surrounding area R1, and designated locations P1 to P4 are presented.
  • Figure 3B shows an example in which a plane is selected as the type of surrounding area R2, and designated locations P5 to P7 are presented.
  • Figure 3C shows an example in which a cylinder is selected as the type of surrounding area R3, and designated locations P8 to P11 are presented.
  • the control unit 120 has in advance a correspondence table that associates multiple types of surrounding areas with information on multiple designated locations required to identify each surrounding area, and by extracting multiple designated locations corresponding to the type selected in step S2 from the correspondence table, it is possible to determine the multiple designated locations and present them to the operator (for example, outputting an image to the display 140).
  • the output of an image such as that shown in Figures 3A to 3C shows the operator which parts of the surrounding area are the designated locations.
  • control unit 120 performs a process to have the operator obtain the position information of the specified location, specifically, a process to request the tip H of the robot 200 to point to the specified location (step S4). Furthermore, the control unit 120 determines whether or not the position information can be obtained based on the operator's input via the input device 130 (step S5). Then, if the position information has not yet been obtained, the processes of steps S4 and S5 are repeated.
  • the process of step S4 is specifically a process of informing (by display or audio output) the operator to move the robot 200 to point to the designated location.
  • the operator then manually moves the robot 200 so that the tip H is over the designated location.
  • the operator notifies this state via the input device 130 (for example, by operating the "OK" button).
  • the position information of the tip H can be calculated based on the output of the sensor 110, so when the tip H is over the designated location, the position information of the designated location can be obtained.
  • control unit 120 calculates the position information of the tip H based on the output of the sensor 110 provided on the robot 200 (step S6), and acquires (stores) the calculated value as the position information of the specified location.
  • the control unit 120 determines whether the location information for all of the multiple specified locations has been acquired (step S7), and if not, returns to step S3 and repeats the processing of steps S3 to S6.
  • the operator manually moves the robot 200, but the operator may drive the robot 200 (for example, jog it) to move the tip H so that it overlaps with the designated location.
  • the robot 200 is moved to acquire position information of the designated location, but the method of acquiring the position information of the designated location is not limited to the above example, and any method may be adopted.
  • an area including the surrounding area may be photographed using a compound eye camera, a three-dimensional scanner, or the like so that the position in three-dimensional space can be identified, and the operator may point to the designated location in the captured three-dimensional image, thereby acquiring the position information of the designated location.
  • the process of the operator pointing to the designated location may be omitted.
  • the control unit 120 may perform image analysis or artificial intelligence analysis from the image to detect the designated location, and automatically acquire the position information of the designated location.
  • the control unit 120 identifies the surrounding area based on the position information and the type of surrounding area selected in step S2, and calculates the coordinates of the surrounding area (step S8).
  • the coordinates calculated here are position information required for control by the control device 240 of the robot 200 for control purposes, such as position information representing the outer frame of the surrounding area, position information representing the top surface (opening) of the surrounding area, and position information of the sides, and in many cases will differ from the position information of the specified locations.
  • the control unit 120 can identify how the surrounding area is located in three-dimensional space based on the above information, and can therefore calculate the coordinates of the surrounding area based on the above information.
  • control unit 120 may also perform a process of setting the detailed positions within the peripheral region (step S9).
  • the process of step S9 can be applied to a process of setting the position of each workpiece E when the workpieces E are aligned within the peripheral region R1, for example, as shown in FIG. 4.
  • the operator inputs two rows, four rows, and two columns to the control unit 120 via the input device 130.
  • the control unit 120 calculates the position information of each part of the two rows, four rows, and two columns within the peripheral region R1 from the coordinates of the peripheral region R1, and stores the position information as the position information of the detailed positions within the peripheral region.
  • control unit 120 After the control unit 120 calculates the coordinates of the surrounding area in step S8, it outputs an image of the surrounding area to the display 140 based on the coordinates. The control unit 120 then has the operator check whether the coordinates of the surrounding area have been calculated correctly (step S10).
  • the image is, for example, an image in which the surrounding area is located in a virtual three-dimensional space. Images of environmental objects (e.g., the ground, a desk, a wall, the robot 200) located in the actual space are similarly arranged in the virtual three-dimensional space, and the operator can roughly check whether the coordinates of the surrounding area have been calculated correctly by observing the relative relationship between the environmental objects and the surrounding area in the virtual three-dimensional space.
  • the image in step S10 may be an image in which an image of the surrounding area is superimposed on a video of the surroundings of the robot 200 captured by a camera. Even with such an image, the operator can roughly check whether the coordinates of the surrounding area have been calculated correctly.
  • step S10 If an abnormality is found during the check in step S10, the calculation results of the coordinates of the surrounding area may be cancelled by the operator.
  • the control unit 120 executes the same process as steps S2 to S10.
  • This process calculates the coordinates for the surrounding areas of the other categories in the same way.
  • the surrounding area R2 which is a plane shown in FIG. 3B, can be set as a wall surface indicating the boundary between the no-entry area and the accessible area.
  • control unit 120 determines whether registration of the coordinates of all the surrounding areas has been completed (step S11). If completed, the control unit 120 sends the calculated coordinates of the surrounding area to the control device 240 of the robot 200 and sets the coordinates of the surrounding area (step S12). Then, the process of setting the surrounding area is terminated. Note that the process of registering the coordinates of the surrounding area in the control device 240 of the robot 200 may be performed one by one as the coordinates of each surrounding area are calculated, rather than all at once.
  • the control device 240 of the robot 200 can control the drive so that the hand unit 220 of the robot 200 moves back and forth between the pick area and the place area along a path that does not enter any no-entry areas, based on the coordinates of each peripheral area set in step S12.
  • FIG. 5 is a diagram illustrating a modification of the designated portion of the surrounding area.
  • step S3 the control unit 120 presents multiple designated locations according to the type of peripheral area, and in steps S4 and S5, the operator registers the position information of the multiple designated locations.
  • Each of the designated locations presented in step S3 represents a single point.
  • This modified example is an example in which the designated locations do not represent a single point.
  • a movement trajectory Q1 as shown in FIG. 5 is used as the designated location presented by the control unit 120 in step S3.
  • the designated location presented in step S3 is determined according to the type of surrounding area selected in step S2.
  • the example in FIG. 5 is an example in which a rectangular parallelepiped is selected as the type of surrounding area R4, and movement trajectory Q1 is determined as the designated location for which position information needs to be acquired.
  • Movement trajectory Q1 includes a path along the inside of the four sides of the bottom of the surrounding area R4 and a path along the four sides of the top surface. If the type of surrounding area is flat, an arc-shaped movement trajectory, or two straight movement trajectories with a curved portion in between, can be used as the designated location.
  • the operator notifies the control unit 120 via the input device 130, for example, when starting and ending movement along the movement trajectory.
  • the control unit 120 determines the timing of the start and end of the movement based on this notification, and can obtain position information of the designated location, which is the movement trajectory, by continuously obtaining position information of the tip H of the robot 200 during that time.
  • the control unit 120 can then calculate the coordinates of the surrounding area based on this continuous position information.
  • the control unit 120 when registering the peripheral area of the robot 200, the control unit 120 allows the user to select the type of peripheral area (step S2) and sets the coordinates of the peripheral area according to the selected type.
  • the coordinates of the peripheral area are calculated and set using different procedures or different elements. Therefore, the simple process of selecting the type can optimize the procedures or elements for calculating the coordinates of the peripheral area, simplifying the process of setting the coordinates.
  • control unit 120 determines the designated location according to the selected type (P1 to P11 in FIG. 3, Q1 in FIG. 5, etc.) and calculates the coordinates of the surrounding area based on the position information of the designated location. This makes it possible to optimize the designated location for which position information should be obtained, and to simplify the process of setting the coordinates.
  • the control unit 120 acquires the position information of the designated location by the movement of the robot 200. Therefore, the robot 200 can be used to acquire the position information of the designated location, and it is possible to omit providing a dedicated device for acquiring the position information of the designated location. This makes it possible to reduce the component costs of the robot teaching device 100 and make it more compact.
  • the robot teaching device 100 of this embodiment is provided with a display 140 that displays an image of the surrounding area located at the coordinates calculated by the control unit 120. Therefore, the operator can check whether the coordinates of the surrounding area to be set have been calculated correctly, and contribute to normal drive control of the robot 200.
  • the shape of the area can be selected as the type of surrounding area.
  • the shape of the area it becomes possible to identify the surrounding area with little other information (positional information of a few points). Therefore, by making it possible to select the shape of the surrounding area, the process of setting the coordinates of the surrounding area can be further simplified.
  • control unit 120 can set the coordinates of at least one of the pick area, place area, no-entry area, and pass area as the surrounding area. Therefore, in the robot 200 that transports the workpiece, it becomes easy to set the coordinates of the surrounding area that defines the operation of the robot 200.
  • the present invention is not limited to the above embodiment.
  • the processing contents are based on the assumption that the robot 200 is configured to transport a workpiece.
  • the present invention can also be applied to setting peripheral areas for robots that operate for various other purposes.
  • the details shown in the embodiment can be modified as appropriate without departing from the spirit of the invention.
  • the present invention can be used in a robot teaching device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

周辺領域の座標の設定作業を簡易化できるロボット教示装置を提供する。ロボット教示装置は、領域の種類(A~C)を選択させる制御部を備え、制御部は、選択された種類に応じてロボット(200)の周辺領域(R1~R3)の座標を設定する。

Description

ロボット教示装置
 本発明は、ロボット教示装置に関する。
 ロボットを動作させる際には、ロボットの動作を規定する周辺領域の座標を、ロボットの制御装置に設定する必要がある。例えば、ロボットがワークを収納容器から他の容器へ移すような場合には、周辺領域の座標として、収納容器の座標と移動先の容器の座標との設定を要する。
 特許文献1には、ロボットの移動経路を探索する装置について記載されている。
国際公開2012/063397号
 前述の座標を設定する作業は、従来、熟練を要し、煩雑で長い時間を要した。
 本発明は、周辺領域の座標の設定作業を簡易化できるロボット教示装置を提供することを目的とする。
 本発明に係るロボット教示装置は、
 領域の種類を選択させる制御部を備え、
 前記制御部は、選択された前記種類に応じてロボットの周辺領域の座標を設定する。
 本発明によれば、周辺領域の座標の設定作業を簡易化できるという効果が得られる。
本発明の実施形態に係るロボット及びロボット教示装置を示す構成図である。 制御部が実行する周辺領域の座標設定処理を示すフローチャートである。 周辺領域の種類Aに対応した指定箇所の一例を説明する図である。 周辺領域の種類Bに対応した指定箇所の一例を説明する図である。 周辺領域の種類Cに対応した指定箇所の一例を説明する図である。 周辺領域における子細位置の設定の一例を説明する図である。 周辺領域の表示例を示す図である。
 以下、本発明の実施形態について図面を参照して詳細に説明する。
 まず、用語について定義する。本明細書において、「座標」とは、三次元空間内の一つの位置を特定する数値の組み合わせを意味するが、「領域の座標」と言ったときには、領域内の一点の座標を意味するのではなく、領域全体の座標(例えば領域の各箇所の座標)を特定可能な情報を意味するものとする。すなわち、領域の座標が設定されたと言ったときには、領域全体の座標を特定可能な情報が設定されたことを意味する。言い換えれば、領域の座標が設定されたと言ったときには、三次元空間における上記領域の位置、形状、寸法及び姿勢が定まったことを意味する。また、領域内の任意の箇所についての座標は、混同をさけるため、座標と呼ばずに「位置情報」と呼ぶ。「位置情報」も三次元空間内の一つの位置を特定する数値の組み合わせを意味する。
 <ロボットの構成>
 図1は、本発明の実施形態に係るロボット及びロボット教示装置を示す構成図である。
 ロボット200は、例えばロボットアームであり、複数のアーム部205と、複数の関節210と、ワークのピック及びその解放が可能なハンド部220とを有する。ピックとは、ワークを持つことを意味し、把持、吸引、すくい上げなど、その方法は限定されない。
 関節210は、隣り合う一対のアーム部205を角度可変に接続する。各関節210には、一方のアーム部205に対し、もう一方のアーム部205を相対的に回動駆動する駆動装置が接続されている。
 ハンド部220には、ワークを保持可能な可動要素を有し、可動要素には駆動装置が接続されている。
 ロボット200は、更に、各関節210の駆動装置、並びに、ハンド部220の駆動装置を制御する制御装置240を備える。
 なお、ロボット200の構成は、上記の例に限られるものでなく、可動要素を駆動制御できる構成であれば、どのような構成であってもよい。例えば、関節210の回動機構はスライド機構に置き換えられてもよいし、ロボット200の土台は固定でなく移動可能な構成であってもよい。また、ロボット200は、ワークの搬送装置に限られず、加工装置、あるいは、人へのサービス提供を行うサービス装置など、様々な目的で動作するロボットであってもよい。
 <ロボット教示装置>
 本実施形態のロボット教示装置100は、ロボット200の周辺領域の座標を設定するための装置である。周辺領域とは、例えばロボット200の移動元及び移動先の領域、通過領域、進入禁止領域など、ロボット200の動作を規定する領域を意味する。
 ロボット教示装置100は、ロボット200の所定箇所(例えばハンド部220の先端部H)の位置を検出するためのセンサ110と、周辺領域の座標を設定する制御部120と、オペレータの操作を入力できる入力機器130と、オペレータに画像を出力する表示器140と、ロボット200の制御装置240へ周辺領域の座標のデータを送る通信部160とを備える。
 センサ110は、ロボット200の各関節210の回動角度を検出するエンコーダと、ハンド部220の可動要素の変位量を検出するエンコーダとを含む。制御部120は、予め、ロボット200の各部(各アーム部205、ハンド部220など)の寸法情報を有しており、当該寸法情報とセンサ110の検出結果に基づいて、ハンド部220の先端部Hの位置情報を計算することができる。
 入力機器130は、マウス、キーボードあるいはタッチパネルなどである。オペレータは入力機器130を介して、座標の設定処理の開始指令、当該設定処理中における選択項目の選択操作、当該設定処理中における登録操作などの入力指令を制御部120に送ることができる。
 なお、ロボット教示装置100の制御部120とロボット200の制御装置240とは例えば1つのコンピュータに統合されていてもよい。また、センサ110は、ロボット教示装置100の専用の構成でなく、ロボット200の駆動制御用に使用されるセンサと兼用された構成であってもよい。
 <周辺領域の座標設定処理>
 以下では、ロボット200がワークを搬送する構成である場合について説明する。図2は、制御部が実行する周辺領域の座標設定処理を示すフローチャートである。図3A~図3Cは、周辺領域の種類A~Cにそれぞれ対応した指定箇所の一例を説明する図である。図4は、周辺領域における子細位置の設定の一例を説明する図である。図5は、周辺領域の表示例を示す図である。
 ロボット200を動作させる際、オペレータは、ロボット200の動作を規定する1つ又は複数の周辺領域の座標を設定する。オペレータは、入力機器130を介して周辺領域の設定処理の起動指令を制御部120に入力することで、制御部120が図2の設定処理を開始する。
 設定処理が開始されると、制御部120は、オペレータに周辺領域のカテゴリを選択させる(ステップS1)。周辺領域のカテゴリには、搬送対象のワークが位置するピック領域、ワークの搬送先であるプレース領域、ワーク又はロボット200の進入を禁止する進入禁止領域が含まれる。加えて、周辺領域のカテゴリには、ワークの搬送中にワーク又はロボット200の所定部位が通過すべき領域を表わす通過領域が含まれてもよい。
 ステップS1の処理は、制御部120が、選択可能な複数のカテゴリを表示器140に表示させ、かつ、入力機器130を介していずれのカテゴリを選択するかオペレータにより入力可能とすることで実現される。
 ステップS1の選択の結果、プレース領域のカテゴリが選択された場合には、制御部120は、周辺領域の種類をオペレータに選択させる(ステップS2)。周辺領域の種類には、予め用意された周辺領域の形状の種類が含まれる。例えば、直方体、円筒、平面などである。その他、周辺領域の種類には、上方が開口した容器型、側方が開放された棚型、水平配置、斜め配置など、周辺領域の構造上の特徴を分類できる種類であれば、種々の種類が含まれていてもよい。
 ステップS2の処理は、制御部120が、選択可能な複数の種類を表示器140に表示させ、かつ、入力機器130を介していずれの種類を選択するかオペレータにより入力可能とすることで実現される。
 なお、ステップS1、S2の選択は、オペレータに行わせるのでなく、例えば人工知能に行わせてもよい。
 周辺領域の種類が選択されたら、制御部120は、周辺領域の種類に応じて、位置情報の取得を要する指定箇所P1~P11(図3を参照)を決定し、当該指定箇所を提示する(ステップS3)。ある領域を特定する場合、領域の構造上の特徴が既知であれば、少ない箇所の位置を指定するだけで、領域の座標を計算することができる。例えば、周辺領域が水平に配置された直方体であることが分かっていれば、図3Aに示す直方体の対角に位置する4つの頂点(P1~P4)を指定することで直方体の周辺領域R1の座標を計算できる。また、周辺領域が平面であると分かっていれば、図3Bに示す平面上の3点(一直線に重ならない3点:P5~P7)を指定することで平面である周辺領域R2の座標を計算できる。また、周辺領域が円筒であることが分かっていれば、図3Cに示す底面の1点(P8)と上縁の3点(P9~P11)を指定することで円筒である周辺領域R3の座標を計算できる。
 ステップS3の処理では、ステップS2で選択された周辺領域の種類に応じて、周辺領域の座標を特定するのに必要な指定箇所が提示される。図3Aは、周辺領域R1の種類として水平に置かれた直方体という選択がなされ、指定箇所P1~P4が提示された例である。図3Bは、周辺領域R2の種類として平面という選択がなされ、指定箇所P5~P7が提示された例である。図3Cは、周辺領域R3の種類として円筒という選択がなされ、指定箇所P8~P11が提示された例である。
 図3A~図3Cの例に限られず、制御部120は、複数の周辺領域の種類と、各周辺領域の特定に必要な複数の指定箇所の情報とを対応づけた対応テーブルを予め有しており、当該対応テーブルからステップS2で選択された種類に対応する複数の指定箇所を抽出することで、複数の指定箇所を決定し、オペレータに提示(例えば表示器140に画像を出力)することができる。例えば、図3A~図3Cに示すような画像の出力により、周辺領域のどこが指定箇所であるかがオペレータに示される。
 続いて、制御部120は、オペレータに指定箇所の位置情報を取得させるための処理、具体的にはロボット200の先端部Hが指定箇所を指し示すように要求する処理を行う(ステップS4)。さらに、制御部120は、入力機器130を介したオペレータの入力に基づいて、位置情報が取得可能な状態になったか否かを判別する(ステップS5)。そして、位置情報が取得可能な状態に至っていなければ、ステップS4、S5の処理を繰り返し実行する。
 ステップS4の処理は、具体的には、オペレータがロボット200を動かして指定箇所を指し示すように報知(表示や音声出力)する処理である。オペレータは、ここで、先端部Hが指定箇所に重なるようにロボット200を手動で動かす。そして、先端部Hが指定箇所を指し示した状態になったら、オペレータは入力機器130を介して当該状態を通知する(例えば「OK」ボタンの操作)。先端部Hの位置情報は、センサ110の出力に基づいて計算することができるので、先端部Hが指定箇所に重なっていることで、指定箇所の位置情報を取得できる。
 したがって、ステップS5でYESと判別したら、制御部120は、ロボット200に設けられたセンサ110の出力に基づいて先端部Hの位置情報を計算し(ステップS6)、計算された値を当該指定箇所の位置情報として取得(記憶)する。
 次に、制御部120は、複数の指定箇所の全ての位置情報が取得されたか判別し(ステップS7)、否であれば、ステップS3に戻って、ステップS3~S6の処理を繰り返す。
 上記のステップS3~S7の繰り返し処理により、制御部120が提示した複数の指定箇所の位置情報が、オペレータがロボット200を手動で動かすことにより取得される。
 なお、上記の例では、オペレータがロボット200を手動で動かす例を示したが、オペレータは、ロボット200を駆動操作(例えばジョグ操作)することで先端部Hが指定箇所に重なるように動かしてもよい。また、上記の例では、ロボット200を動かして指定箇所の位置情報を取得する例を示したが、指定箇所の位置情報の取得方法は上記の例に限られず、どのような方法が採用されてもよい。例えば、周辺領域を含む範囲を、複眼カメラ、三次元スキャナなどにより三次元空間上の位置を識別可能に撮影し、撮影した三次元映像中でオペレータが指定箇所を指し示すことで、指定箇所の位置情報を取得することもできる。さらに、オペレータが指定箇所を指し示す処理が省略されてもよい。すなわち、映像から制御部120が画像解析あるいは人工知能による解析を行って指定箇所を検出し、当該指定箇所の位置情報を自動的に取得してもよい。
 複数の指定箇所の位置情報が取得されたら、制御部120は、当該位置情報とステップS2で選択された周辺領域の種類とに基づいて、周辺領域を特定し、周辺領域の座標を計算する(ステップS8)。なお、ここで計算される座標は、例えば周辺領域の外枠を表わす位置情報、周辺領域の上面(開口部)を表わす位置情報、側面の位置情報など、ロボット200の制御装置240が制御上必要とする位置情報であり、多くの場合において上記の指定箇所の位置情報とは異なる。制御部120は、上記の情報に基づいて三次元空間にどのように周辺領域が位置するのか特定できるため、上記の情報に基づいて周辺領域の座標を計算することができる。
 制御部120は、周辺領域の座標の設定に加えて、周辺領域内の子細位置の設定処理(ステップS9)を行ってもよい。当該ステップS9の処理は、例えば、図4に示すように、周辺領域R1内にワークEが整列されるような場合に、各ワークEの位置を設定する処理に適用できる。ワークEが上下方向において2段、水平方向において4行2列に整列されるような場合には、ステップS9において、オペレータが入力機器130を介して2段、4行、2列と制御部120に入力する。そして、制御部120は、周辺領域R1の座標から周辺領域R1内の2段、4行、2列の各部の位置情報を計算し、当該位置情報を周辺領域内の子細位置の位置情報として記憶する。
 制御部120は、ステップS8で周辺領域の座標を計算したら、当該座標に基づいて表示器140に周辺領域を画像出力する。そして、制御部120は、オペレータに周辺領域の座標が正しく計算されているか確認させる(ステップS10)。当該画像は、例えば仮想三次元空間に周辺領域が位置する画像である。仮想三次元空間には実際の空間に位置する環境物(例えば地面、机、壁、ロボット200)の画像が同様に配置され、オペレータは、仮想三次元空間における環境物と周辺領域との相対関係を観察することで、周辺領域の座標が正しく計算されているか否か、大まかに確認することができる。その他、ステップS10の画像は、カメラで撮影したロボット200の周辺の映像に、周辺領域の画像を重ね合わせた画像であってもよい。このような画像であっても、オペレータは、周辺領域の座標が正しく計算されているか大まかに確認することができる。
 なお、ステップS10の確認において、異常が見つかった場合には、オペレータの操作によって周辺領域の座標の計算結果を取り消すことが可能に構成されてもよい。
 ステップS1の選択の結果、ピック領域のカテゴリ、進入禁止領域のカテゴリなど、その他のカテゴリが選択された場合においても、制御部120は、ステップS2~S10と同様の処理を実行する。当該処理により、別のカテゴリの周辺領域についても同様に座標が計算される。例えば、進入禁止領域のカテゴリにおいては、図3Bに示した平面である周辺領域R2を、進入禁止領域と進入可能領域との境界を示す壁面として設定することができる。
 そして、制御部120は、全ての周辺領域の座標の登録が完了したか判別する(ステップS11)。そして、完了であれば、制御部120は、計算された周辺領域の座標をロボット200の制御装置240へ送り、周辺領域の座標を設定する(ステップS12)。そして、周辺領域の設定処理を終了する。なお、周辺領域の座標をロボット200の制御装置240へ登録する処理は、まとめでなく、個々の周辺領域の座標が計算された際に逐次行われてもよい。
 ロボット200の制御装置240では、ステップS12で設定された各周辺領域の座標によって、進入禁止領域に進入しない経路で、ロボット200のハンド部220がピック領域とプレース領域との間を往復するような駆動制御が可能となる。
 (変形例)
 図5は、周辺領域の指定箇所の変形例を説明する図である。
 前述した周辺領域の座標設定処理(図2)では、ステップS3において、制御部120は、周辺領域の種類に応じた複数の指定箇所を提示し、ステップS4、S5において、オペレータが複数の指定箇所の位置情報を登録した。そして、ステップS3において提示される指定箇所の各々は一点を表わすものであった。本変形例は、上記の指定箇所が一点を表わすものでない例である。
 本変形例では、ステップS3において制御部120が提示する指定箇所として、図5に示すような移動軌跡Q1を採用している。変形例においても、ステップS3で提示される指定箇所は、ステップS2で選択された周辺領域の種類に応じて決定される。図5の例は、周辺領域R4の種類として直方体という選択がなされ、位置情報の取得を要する指定箇所として移動軌跡Q1が決定された例である。移動軌跡Q1は、周辺領域R4の底の四辺内側に沿った道筋と天面の四辺に沿った道筋とを含んでいる。周辺領域の種類が平面であれば、指定箇所として、円弧状の移動軌跡、あるいは、曲部を挟んだ二つの直線状の移動軌跡などを採用することができる。
 変形例においてステップS4、S5の指定箇所の位置情報を入力及び登録する処理では、例えば移動軌跡に沿った移動を開始する際と、終了する際とに、オペレータが入力機器130を介して制御部120に通知する。そして、制御部120は、当該通知に基づき、移動の開始と終了のタイミングを判別し、その間におけるロボット200の先端部Hの位置情報を連続的に取得することで、移動軌跡である指定箇所の位置情報を取得することができる。そして、制御部120は、当該連続的な位置情報に基づいて、周辺領域の座標を計算することができる。
 変形例において、座標設定処理のステップS3~S5の処理以外は、前述した実施形態と同様の処理及び構成を適用できる。
 以上のように、本実施形態のロボット教示装置100によれば、制御部120は、ロボット200の周辺領域を登録する際に、周辺領域の種類を選択させ(ステップS2)、選択された種類に応じて周辺領域の座標を設定する。つまり、選択された種類が異なるときに、異なる手順又は異なる要素を用いて周辺領域の座標を計算し、それを設定する。したがって、種類の選択という単純な処理によって、周辺領域の座標を計算するための手順又は要素を好適化することができ、座標の設定処理を簡易化できる。
 より具体的には、制御部120は、選択された種類に応じた指定箇所(図3のP1~P11、図5のQ1など)を決定し、当該指定箇所の位置情報に基づいて周辺領域の座標を計算する。したがって、位置情報を取得すべき指定箇所の好適化を図ることができ、座標の設定処理を簡易化できる。
 さらに、本実施形態のロボット教示装置100によれば、制御部120は、ロボット200の動きによって指定箇所の位置情報を取得する。したがって、ロボット200を流用して、指定箇所の位置情報を取得することができ、指定箇所の位置情報を取得するための専用の装置を設けることを省略できる。よって、ロボット教示装置100の部品コストの低減とコンパクト化を図ることができる。
 さらに、本実施形態のロボット教示装置100によれば、制御部120が計算した座標に位置する周辺領域の画像を表示する表示器140を備える。したがって、オペレータは、設定を行う周辺領域の座標が正しく計算されているか確認し、正常なロボット200の駆動制御に寄与できる。
 さらに、本実施形態のロボット教示装置100によれば、周辺領域の種類として、領域の形状が選択できる。領域の形状が選択されることで、その他の少ない情報(数点の位置情報)で、周辺領域を特定することが可能となる。したがって、周辺領域の形状を選択可能とすることで、周辺領域の座標を設定する処理をより簡易化することができる。
 さらに、本実施形態のロボット教示装置100によれば、制御部120は、周辺領域として、ピック領域、プレース領域、進入禁止領域及び通過領域の少なくともいずれか1つの座標を設定することができる。したがって、ワークを搬送するロボット200において、ロボット200の動作を規定する周辺領域の座標の設定が容易になる。
 以上、本発明の実施形態について説明した。しかし、本発明は上記の実施形態に限られない。例えば、上記の周辺領域の座標設定処理では、ロボット200がワークを搬送する構成であることを前提とした処理内容を示した。しかしながら、その他の様々な目的で動作するロボットに対する周辺領域の設定にも、本発明を適用可能である。また、実施の形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
 2022年10月26日出願の特願2022-171353の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明は、ロボット教示装置に利用できる。
 100 ロボット教示装置
 110 センサ
 120 制御部
 130 入力機器
 140 表示器
 200 ロボット
 205 アーム部
 210 関節
 220 ハンド部
 240 制御装置
 H 先端部
 A~C 周辺領域の種類
 R1~R4 周辺領域
 E ワーク
 P1~P11 指定箇所
 Q1 移動軌跡(指定箇所)

Claims (6)

  1.  領域の種類を選択させる制御部を備え、
     前記制御部は、選択された前記種類に応じてロボットの周辺領域の座標を設定するロボット教示装置。
  2.  前記制御部は、
     選択された前記種類に応じて前記周辺領域の指定箇所を決定し、
     前記指定箇所の位置情報に基づいて前記周辺領域の座標を計算する、
     請求項1記載のロボット教示装置。
  3.  前記制御部は、
     前記ロボットの動きによって前記指定箇所の位置情報を取得する、
     請求項2記載のロボット教示装置。
  4.  計算された座標に位置する前記周辺領域の画像を表示する表示器を、更に備える、
     請求項1記載のロボット教示装置。
  5.  前記領域の種類として前記周辺領域の形状が選択可能である、
     請求項1記載のロボット教示装置。
  6.  前記周辺領域は、ピック領域、プレース領域、進入禁止領域、及び、通過領域の少なくともいずれか1つを含む、
     請求項1記載のロボット教示装置。
PCT/JP2023/036076 2022-10-26 2023-10-03 ロボット教示装置 WO2024090154A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022171353 2022-10-26
JP2022-171353 2022-10-26

Publications (1)

Publication Number Publication Date
WO2024090154A1 true WO2024090154A1 (ja) 2024-05-02

Family

ID=90830661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/036076 WO2024090154A1 (ja) 2022-10-26 2023-10-03 ロボット教示装置

Country Status (1)

Country Link
WO (1) WO2024090154A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724762A (ja) * 1993-06-30 1995-01-27 Toyoda Mach Works Ltd ロボット制御装置
JPH09174468A (ja) * 1995-12-26 1997-07-08 Nec Corp ロボット教示装置
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2016059980A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
JP7111911B1 (ja) * 2021-04-28 2022-08-02 ファナック株式会社 安全パラメータを設定する装置、教示装置、及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724762A (ja) * 1993-06-30 1995-01-27 Toyoda Mach Works Ltd ロボット制御装置
JPH09174468A (ja) * 1995-12-26 1997-07-08 Nec Corp ロボット教示装置
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2016059980A (ja) * 2014-09-16 2016-04-25 ファナック株式会社 ロボットの動作監視領域を設定するロボットシステム
JP7111911B1 (ja) * 2021-04-28 2022-08-02 ファナック株式会社 安全パラメータを設定する装置、教示装置、及び方法

Similar Documents

Publication Publication Date Title
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US11833697B2 (en) Method of programming an industrial robot
WO2007049751A1 (ja) 自動切断装置及び開先加工品の製造方法
CN109834709B (zh) 设定微动坐标系的机器人控制装置
US10675759B2 (en) Interference region setting apparatus for mobile robot
EP1215017A2 (en) Robot teaching apparatus
US20190202058A1 (en) Method of programming an industrial robot
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP6741538B2 (ja) ロボット、ロボットの制御装置、及び、ロボットの位置教示方法
WO2020252632A1 (zh) 一种坐标系校准方法、装置和计算机可读介质
JP2020038588A (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP7346133B2 (ja) ロボット設定装置及びロボット設定方法
JP6846951B2 (ja) ロボット設定装置、ロボットシステム、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
EP3835002B1 (en) Remote control system and remote control method
JP5427566B2 (ja) ロボット制御方法、ロボット制御プログラムおよびロボット制御方法に用いられるロボットハンド
TW468055B (en) Method and device for controlling manipulator
WO2024090154A1 (ja) ロボット教示装置
WO2021039775A1 (ja) 画像処理装置、撮像装置、ロボット及びロボットシステム
JP2020142323A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
CN115213894A (zh) 机器人图像的显示方法、显示系统以及记录介质
JPS6334093A (ja) 視覚装置
US20230321823A1 (en) Robot control device, and robot system
JP2005205519A (ja) ロボットハンド装置
JP2022017738A (ja) 画像処理装置
JP3193414B2 (ja) マニピュレータ制御装置及び座標補正方法